'SparkSession' -Objekt hat kein Attribut 'SparkContext'Python

Python-Programme
Anonymous
 'SparkSession' -Objekt hat kein Attribut 'SparkContext'

Post by Anonymous »

Ich habe Spark 2.0.0 und versuche, einige Python -Beispiele aus Spark Source Code auszuführen. < /p>

Dies ist das Beispiel. Und ich rannte wie: < /p>

spark-submit pi.py 2
< /code>

, aber ich habe den folgenden Fehler immer wieder erhalten: < /p>

Traceback (most recent call last):
File "/home/docker-user/src/hellospark/src/main/python/pi.py", line 21, in
count = ss.sparkContext.parallelize(range(1, n + 1), partitions).map(f).reduce(add)
AttributeError: 'SparkSession' object has no attribute 'sparkContext'
< /code>

Ich habe auch mit anderen Beispielen wie WordCount.py, Sort.py und Sql.py getestet, alle funktionieren wie erwartet. Hat jemand dieses Problem schon einmal getroffen? Jeder Kommentar wäre super hilfreich. < /P>

Vielen Dank im Voraus!

Quick Reply

Change Text Case: 
   
  • Similar Topics
    Replies
    Views
    Last post