Ich versuche, Event-Links und Kontaktinformationen von der RaceRoster-Website (https://raceroster.com/search?q=5k&t=upcoming) mithilfe von Python, Requests, Pandas und BeautifulSoup zu extrahieren. Das Ziel besteht darin, den Veranstaltungsnamen, die Veranstaltungs-URL, den Kontaktnamen und die E-Mail-Adresse für jede Veranstaltung zu extrahieren und die Daten in einer Excel-Datei zu speichern, damit wir diese Veranstaltungen zu Geschäftsentwicklungszwecken erreichen können.
Das Skript meldet jedoch regelmäßig, dass auf der Suchergebnisseite keine Ereignislinks gefunden werden, obwohl die Links bei der Überprüfung des HTML-Codes im Browser sichtbar waren. Hier ist der relevante HTML-Code für die Veranstaltungslinks auf der Suchergebnisseite:
Überprüfte den Antwortinhalt aus dem request.get()-Aufruf mit der Suppe.prettify(). Dem HTML scheinen die im Browser sichtbaren Ereignislinks zu fehlen, was darauf hindeutet, dass der Inhalt möglicherweise dynamisch über JavaScript geladen wird.
Versuch eines Scrapings die Daten mithilfe von BeautifulSoup, erhalten jedoch konsistent:
Found 0 events on the page.
Scraped 0 events.
No contacts were scraped.
Wobei ich Hilfe benötige:
Wie kann ich mit diesem mit JavaScript geladenen Inhalt umgehen? Gibt es eine Möglichkeit, es direkt zu scrapen, oder muss ich ein Tool wie Selenium verwenden?
Wenn Selenium erforderlich ist, wie integriere ich es richtig in BeautifulSoup, um den gerenderten HTML-Code zu analysieren?
Ich versuche, Event-Links und Kontaktinformationen von der RaceRoster-Website (https://raceroster.com/search?q=5k&t=upcoming) mithilfe von Python, Requests, Pandas und BeautifulSoup zu extrahieren. Das Ziel besteht darin, den Veranstaltungsnamen, die Veranstaltungs-URL, den Kontaktnamen und die E-Mail-Adresse für jede Veranstaltung zu extrahieren und die Daten in einer Excel-Datei zu speichern, damit wir diese Veranstaltungen zu Geschäftsentwicklungszwecken erreichen können. Das Skript meldet jedoch regelmäßig, dass auf der Suchergebnisseite keine Ereignislinks gefunden werden, obwohl die Links bei der Überprüfung des HTML-Codes im Browser sichtbar waren. Hier ist der relevante HTML-Code für die Veranstaltungslinks auf der Suchergebnisseite: [code][url=https://raceroster.com/events/2025/98542/13th-annual-delaware-tech-chocolate-run-5k] 13th Annual Delaware Tech Chocolate Run 5k [/url] [/code] Durchgeführte Schritte: [list] [*]Überprüfte den richtigen Selektor für Event-Links:
[*]Überprüfte den Antwortinhalt aus dem request.get()-Aufruf mit der Suppe.prettify(). Dem HTML scheinen die im Browser sichtbaren Ereignislinks zu fehlen, was darauf hindeutet, dass der Inhalt möglicherweise dynamisch über JavaScript geladen wird.
[*]Versuch eines Scrapings die Daten mithilfe von BeautifulSoup, erhalten jedoch konsistent:
[/list] [code]Found 0 events on the page. Scraped 0 events. No contacts were scraped. [/code] Wobei ich Hilfe benötige: [list] [*]Wie kann ich mit diesem mit JavaScript geladenen Inhalt umgehen? Gibt es eine Möglichkeit, es direkt zu scrapen, oder muss ich ein Tool wie Selenium verwenden? [*]Wenn Selenium erforderlich ist, wie integriere ich es richtig in BeautifulSoup, um den gerenderten HTML-Code zu analysieren? [/list] Aktuelles Skript: [code]import requests from bs4 import BeautifulSoup import pandas as pd
# Extract contact name and email contact_name = event_soup.find("dd", class_="event-details__contact-list-definition") email = event_soup.find("a", href=lambda href: href and "mailto:" in href)
contact_name_text = contact_name.text.strip() if contact_name else "N/A" email_address = email['href'].split("mailto:")[1].split("?")[0] if email else "N/A"
if contact_name or email: print(f"Found contact: {contact_name_text}, email: {email_address}") event_contacts.append({ "Event Name": event_name, "Event URL": event_url, "Event Contact": contact_name_text, "Email": email_address }) else: print(f"No contact information found for {event_url}") except Exception as e: print(f"Error scraping event {event_url}: {e}")
def save_to_spreadsheet(data, output_file): if not data: print("No data to save.") return df = pd.DataFrame(data) df.to_excel(output_file, index=False) print(f"Data saved to {output_file}")
contact_data = scrape_event_contacts(base_url, search_url) if contact_data: save_to_spreadsheet(contact_data, output_file) else: print("No contacts were scraped.") [/code] Erwartetes Ergebnis: [list] [*]Extrahieren Sie alle Veranstaltungslinks von der Suchergebnisseite. [*]Navigieren Sie zur Detailseite jedes Ereignisses. [*]Entfernen Sie den Kontaktnamen () und die E-Mail-Adresse () von der Detailseite. [*]Speichern Sie die Ergebnisse in eine Excel-Datei. [/list]
Ich versuche, Event-Links und Kontaktinformationen von der RaceRoster-Website ( mithilfe von Python, Requests, Pandas und BeautifulSoup zu extrahieren. Das Ziel besteht darin, den...
Ich habe eine intern bereitgestellte App, ich habe Zertifikate aktualisiert und die App vor Ablauf bereitgestellt und Benutzer zur Aktualisierung eingeladen. Nach Ablauf der Zertifikate müssen...
Ich möchte ein Programm in Java codieren, um sich programmgesteuert auf dieser Website anzumelden und Aufgaben wie das Abrufen und Senden von Daten auszuführen. bin nicht vertraut mit. Im Idealfall...
Ich habe eine Website, auf der Benutzer eine einfache Beschreibung des kurzen Profils schreiben müssen. Einige Benutzer schreiben hässliche Profile mit einer Reihe leerer Räume und überschüssigen...
Ich arbeite an einer Python -Selen -Automatisierung, um auf die brasilianische Website für Mei DAS -Zahlungen zuzugreifen, damit ich sie automatisch herunterladen kann. Ich habe jedoch auf ein...