Ich bin Cassandra-Cluster mit 10 Knoten laufen und große tsv [Tab getrennt Wert] -Datei täglich hochladen, jetzt möchte ich mein Projekt in Google Bigtable für bessere Leistung und geringe Latenz verschieben.
Ich habe Google Cloud große Tabelle 3 Knoten Cluster installiert, installieren HBase Plugins auf Cloud-Server [1 Knoten], wusste jetzt nicht, wie kann ich beginnen, diese TSV-Datei in BigTable hochladen.Upload-Tab separierte Datei in Bigtable
unten ist mein tsv-Format,
Spalte1 Spalte2 Spalte3 Spalte4 Spalte5 Spalte6. .
hier Spalte1 ist Primärschlüssel und Spalte2 und Spalte3 ist Clusterschlüssel in Cassandra Tabelle.
jetzt wie kann ich ähnliche Tabelle in BigTable erstellen, und was sind die Methoden zum Hochladen von TSV-Datei in BigTable.
Danke Solomon für Ihre Antwort, ich bin ein wenig verwirrt hier Wenn ich 2. Methode bigtable mit HBase wählen, warum brauchen wir Hadoop-Cluster? ist Hadoop-Cluster erforderlich, um Daten mit HBase-Client zu laden, oder ich einfach Daten nur mit HBase-Client laden. – Rajnish
Ich gehe davon aus, dass Sie viele Daten haben und sie schnell laden wollten. Sie können die Daten definitiv mit dem hbase-Client nur über eine Hauptmethode oder über eine lokale Installation von hbase laden, die die Befehlszeilenshell mit einer tsv load-Funktion enthält. –