2016-05-06 6 views
3

Wie wäre der beste Weg, um zu überprüfen Google rank für einen schlüsselwort.Google - Keyword Rank Checker

Ich habe versucht, mit meinem eigenen PHP-Skript, aber nach einigen Abfragen bekomme ich die Captcha-Seite.):

Gibt es eine Möglichkeit ich einen Crawler machen, die nicht Google wütend und kann 1000 abfragt am Tag laufen über macht?

Kann ich stattdessen eine Google API verwenden?

Hoffnung jemand kann mir in der

+0

http://stackoverflow.com/questions/22657548/is-it-ok-to-scrape-data-from-google-results/22703153 – John

Antwort

0

richtige Richtung helfen zeigen können Sie nicht Google Keyword überprüfen direkt über die Google-Dienste lief. Sie haben zwei Möglichkeiten, wie Sie Ihr Problem lösen können. 1. Erstellen Sie Ihre eigene Scrapping-Lösung, aber Proxys, Rotatoren usw. 2. Verwenden Sie Datenanbieter der dritten Partei, z. B. DataForSEO rank tracker API.

1

Ich bin noch einmal auf Ihr ungelöstes Problem gestoßen und werde dieses Mal vollständig antworten
Es gibt ein paar Wege zu gehen, können Sie eine Million Abfragen pro Tag ausführen, wenn Sie es richtig machen.

Option 1) Do it yourself-Lösung
Es ein open source Google rank checker
ist PHP-Code Es ist! Parsing, Caching, IP-Rotation ist alles inklusive.
Es verwendet einen Dienst für private IP-Adressen, aber Sie können das ausschalten, wenn Sie eine eigene Quelle von guten IP-Adressen haben.
Der Code funktioniert gut für einige tausend Keywords pro Stunde, ich benutze es seit Jahren.
Es wird auch von Zeit zu Zeit gepflegt.

Option 2) Verwenden Sie einen Dienst
Sie noch alles programmieren können, aber Sie das Parsen und IP Handhabung auf eigene Faust nicht.
Scraping.services PHP source code
Das ist der einzige Dienst, der tatsächlich für mich funktionierte, als ich vor vielleicht einem halben Jahr einige auswertete. Aber es gibt ein paar andere, die du beim Googlen findest.
Der Unterschied in diesem Fall ist, dass die Probleme mit Captchas komplett weg sind, der DIY-Ansatz ist schwieriger zu handhaben.
Sie müssen sich auch nicht mehr um die Wartung kümmern, ich habe bisher noch keinen einzigen Ausfall erlebt (und eine halbe Milliarde URLs abgekratzt). nur
Sie unterstützen Google und Bing, kein Yahoo ..

Sie auch ein benutzerdefiniertes Modul zur Verfolgung Keyword Reihen hat, also wenn das Ihr Ziel ist (um die Änderungen zu Ihrer Website Positionen zu überwachen), dann können Sie nur direkt zuzugreifen, Modul.

Option 3) Verwenden Sie die Google API ich es erwähnen müssen .. aber I do not recommend it.
Ein Grund ist, dass die API sehr teuer ist, sie ist kostenlos für kleine Projekte und teuer für größere.
Der zweite Grund ist, dass sie keine echten organischen Rankings bieten, Google mag andere nicht wirklich, um zu bewerten, was sie kratzen :-) Also, wenn du echte Rankings von bestimmten Orten oder Sprachen willst, musst du mit 1 gehen) oder 2).

1

Ja, Verschrottung Google kann schwierig sein. Beim Versuch, Bilder aus den Google-Suchergebnissen zu extrahieren, ist ein ähnliches Problem aufgetreten, um ein Modell für ein maschinelles Lernprojekt zu erstellen. Wir haben unsere eigene Lösung fertiggestellt: Serp Api

Um die besten Ergebnisse zu erzielen, führen wir einen vollständigen Browser für jede Anfrage, hatten Proxies überall auf der Welt, und wir sind auch in der Lage, CAPTCHAs in einem transparenten zu lösen Weg. Wir haben auch Ruby, Python und Java Integrationen. Andernfalls können Sie nur reguläre get-Anfragen verwenden, um unsere Daten zu erhalten.

+0

Hallo Hartator, ich habe auch einen Serp-Checker von Grund auf neu gebaut, und soweit funktioniert es so wie ich es mache :) Danke für deine Eingabe. Wie viele Proxies benutzt du heute? Ich denke, ist sehr teuer – user3502250

+1

Ja, ist es. Unsere Hauptkosten sind jedoch die CAPTCHA-Lösung. – Hartator