Leere Datenrahmen nach dem Webscraping von Wikipedia erhalten

Post a reply

Smilies
:) :( :oops: :chelo: :roll: :wink: :muza: :sorry: :angel: :read: *x) :clever:
View more smilies

BBCode is ON
[img] is ON
[flash] is OFF
[url] is ON
Smilies are ON

Topic review
   

Expand view Topic review: Leere Datenrahmen nach dem Webscraping von Wikipedia erhalten

by Guest » 23 Jan 2025, 08:07

Ich versuche, Daten von einer Wikipedia-Seite zu extrahieren und sie in einen Datenrahmen zu laden. Nach dem Webscraping und Ausführen des Datenrahmens gibt Python einen leeren Datenrahmen zurück, was nicht der Fall sein sollte. Hier ist mein Codeausschnitt:

Code: Select all

import pandas as pd
import requests
from bs4 import BeautifulSoup
html = requests.get('https://en.wikipedia.org/wiki/List_of_countries_by_Human_Development_Index')
soup = BeautifulSoup(html.text, 'html.parser')
table = soup.find('table', {'class': 'wikitable'})
rows = table.find_all('tr')[1:]
countries = []
hdi_index = []
for row in rows:
cols = row.find_all('td')
if len(cols) > 2:
countries.append(cols[1].text.strip())
hdi_index.append(cols[2].text.strip())
hdi_df = pd.DataFrame({'Country': countries, 'HDI': hdi_index})
print(hdi_df.head())


Top