2016-07-19 29 views
0

So verwende ich die Spark-Shell, die im Wesentlichen die Scala REPL mit zusätzlichen Abhängigkeiten und ein paar Setup-Verfahren ist. Das Problem mit meinem Code, den ich gerade durchführe, besteht darin, dass bereits Abhängigkeiten hinzugefügt wurden. Ich habe mich gefragt, ob es eine Möglichkeit gibt, Abhängigkeiten zu entfernen und neue hinzuzufügen, die ich möchte.Scala REPL entfernen Abhängigkeit

Ich kann leicht neue hinzufügen mit dem: cp .jar Befehl, aber es scheint nicht zu überschreiben, die derzeit dort ist.

+0

Nicht wirklich. ': reset' gibt Ihnen einen neuen Compiler, aber ich weiß nicht, wie es mit': require' interagiert. Außerdem verlierst du Geschichte. Es gibt ein Ticket, um ': reset' nützlicher zu machen. Eigentlich sehe ich ': reset -classpath x.jar' sollte in irgendeiner Form funktionieren. –

Antwort

1

Sie könnten versuchen, Ihre eigene Spark-Shell zu schreiben, die Ihnen feinkörnige Kontrolle über Ihre Abhängigkeiten gibt. Spark-Shell ist im Wesentlichen sbt console mit ein paar initialCommands in einem build.sbt.