2015-11-26 18 views
8

Wenn die folgende in Eclipse Scala-IDE importierenObjekt Funke ist kein Mitglied von Paket org

import org.apache.spark.SparkContext 
import org.apache.spark.SparkContext._ 

ich diesen Fehler: Object spark is not a member of package org

Ich installierte die sbt-0.13.9.msi

Was soll ich sonst tun?

build.sbt

name := "scala-spark-app" 

version := "1.0" 

scalaVersion := "2.10.4" 

libraryDependencies += "org.apache.spark" %% "spark-core" % "1.5.2" 
+0

Wie haben Sie dieses Projekt erstellt? Gibt es das Problem, wenn Sie einfach 'sbt-Paket' ausführen? – zero323

+2

Es die Fehlermeldung wörtlich "Objektfunken ist kein Mitglied der Paket-Organisation"? Hast du vielleicht irgendwo org.spark statt org.apache.spark? – Jesper

+0

C: \ Benutzer \ Adham> sbt-Paket Java HotSpot (TM) 64-Bit-Server VM-Warnung: Ignorieren der Option MaxPermSize = 256m; Support wurde in 8.0 entfernt [info] Setzen Sie das aktuelle Projekt auf Adham (in Build-Datei:/C:/Users/Adham /) [Erfolg] Gesamtzeit: 0 s, abgeschlossen 27-Nov-2015 19:10:51 – Adham

Antwort

3

Ich war die gleiche Kompilierungsfehler empfangen (auf meinem Mac) mit IntelliJ während sbt compile erfolgreich ausgeführt. Die folgenden Schritte gelöst mein Problem:

  1. sbt sauber
  2. sbt gen-idea
  3. beenden und neu starten IntelliJ

Ich hoffe, das hilft (IntelliJ Projektdateien neu zu erstellen).

+0

Diese Frage ist für Eclipse Scala-IDE und nicht IntelliJ – javaPlease42