ich möchte Redshift regelmäßig mit spark-redshift-connector (scala) aktualisieren. Jedes Update beginnt mit einem Löschvorgang. (ich führe eine Art von Upsert zu Redshift)funken-redshift-connector: kombiniere speichern zu redshift mit einer löschen abfrage
Gibt es eine Möglichkeit, ich kann es mit der Bibliothek ausführen? Kann es bei einer Transaktion sein?
Jeder Rat wird sehr geschätzt.
danke, Eran.
Können Sie ein funktionierendes Beispiel für Referenz teilen? Müsste ich nicht irgendwie den Funken-Datenrahmen zum Landungsbereich von Redshift schicken, um bedingte Löschungen von Upsert zu machen? Sagen Sie: ----------- '' 'Löschen von test_2 mit test_1 wo test_2.a = test_1.a und test_2.b = test1.b''' ----- müssen wir unbedingt have test_1 und test_2 in redshift ---- Wie würden hier Pre-Actions helfen? – user1652054