1
from pyspark.sql import SparkSession
spark = SparkSession\
.builder\
.appName("spark play")\
.getOrCreate()
df = spark.read\
.format("jdbc")\
.option("url", "jdbc:mysql://localhost:port")\
.option("dbtable", "schema.tablename")\
.option("user", "username")\
.option("password", "password")\
.load()
Anstatt holen „schema.tabellenname“, würde ich es vorziehen, die Ergebnismenge einer Abfrage zu greifen.
Mindestens in 'Scala' (nicht sicher von' Python'/'R'), können Sie geben' spark.read.jdbc (URL, s "($ sql) ql", Eigenschaften) 'wobei' sql' ein 'String' ist, der deine eigentliche' SQL' * Query * ['Spark 2.2.0'] enthält –