Webseiten Labor

Der Blog für Webmaster und Webworker

Das eigene Keyword Tool für den täglichen SERP-Check

Ich bin kürzlich auf ein sehr nützliches Keyword Tool gestoßen, mit dem sich in Eigenregie ein täglicher Keyword Check durchführen lässt. Die Anschaffung- und Unterhaltskosten sind sehr gering und neben Google wird auch Bing unterstützt. Dieses Script muss jedoch auf einem vorhandenen Webspace installiert und auf die deutschen Versionen von Google und Bing konfiguriert werden. Wie das funktioniert und was alles beachtet werden muss, zeige ich heute anhand einer kleinen Anleitung.

Was kann es?

SERP Tracking

SERP Tracking

Mit diesem Script seit ihr in der Lage, unzählige Keywords und deren exakten Positionen innerhalb der Top 100 zu ermitteln und das auf täglicher Basis. Dabei ist es völlig egal, wie viele Domains bzw. Projekte angelegt werden. Da Google und Bing nur eine begrenzte Abfrage je IP erlauben, unterstützt das Script Proxys, die ab einer Menge von ca. 50 Keywords benötigt werden. Dazu später aber mehr. Außerdem wird der Rankingverlauf des jeweiligen Keywords mittels grafischer Charts dargestellt. Ansonsten werden noch die Trends für Tag, Woche und Monat angegeben. Sollte es bei einem Positionscheck ein Problem gegeben haben, kann dies mittels manuellem Refresh für das jeweilige Keyword nochmals wiederholt werden. Mitbewerber können ebenfalls erfasst und getrackt werden, sodass man hier jederzeit seine Erfolge direkt vergleichen und nachvollziehen kann.

Klickt man auf das Keyword, so werden alle in Top 100 befindlichen Domains angezeigt, da das Script diese ebenfalls in der Datenbank abspeichert. Für eine schnelle Übersicht nicht verkehrt und ausbaubar (bin ich u. a. mit dran). Das Script kostet lediglich umgerechnet 11,5 Euro (15 US Dollar) nennt sich treffenderweise Complete Google & Bing SERP Rank Tracker* und kann bei Themeforest bezogen werden.

Systemanforderungen

Um das Tool zum Laufen zu bringen, benötigt ihr zwingend PHP 5.3 (oder höher), 1 MySQL Datenbank, einen Cronjob (oder Curl) und mbstring muss unterstützt werden. Normalerweise werden diese Systemanforderungen selbst beim günstigem Shared Hosting erfüllt. Informiert euch bitte dennoch vorab, ob alles gegeben ist. Da das Script über keinen eigenen Login Bereich verfügt, müsst ihr den Ordner via htaccess schützen (Verzeichnisschutz mit Passwortabfrage).

Installation

Installation und Konfiguration sind innerhalb von 2 Minuten erledigt. MySQL Datenbank einrichten und in die config.php die Datenbank nebst Zugangsdaten eingeben. Wer Proxys nutzt, gibt dort ebenfalls die Zugangsdaten ein. Dass ganze via FTP in ein geschütztes Verzeichnis hochladen und die install.php ausführen. Wenn alle Anforderungen erfüllt sind und die Zugangsdaten korrekt eingegeben wurden, sollte es auf Anhieb laufen. Via Campaign Manager legt ihr nun eure Projekte und Keywords an. Normalerweise benötigt es ein paar Minuten (je nach Menge) bis alles ermittelt und angezeigt wird. Falls es dennoch hakt, einfach die scrape.php ausführen. Diese PHP Datei habe ich auch via Cronjob gesteuert. Wie man den Cronjob konfiguriert, erfahrt oder entnehmt ihr bitte aus der FAQ eures Hosters. Bei All-inkl. kann dieses Komfortabel im KAS angelegt werden, bei anderen ist es wiederum etwas aufwendiger.

Länderspezifische Konfiguration

Das Script muss zuerst für Google und Bing DE (oder Land eurer Wahl) konfiguriert werden, da es standardmäßig nur für den englischen Bereich eingestellt ist. Öffnet folgende 3 Dateien: scrape.php, refreshkeyword.php, addkeywords.php und sucht nach den Zeilen, in denen Google und Bing als URL auftauchen. Sieht ungefähr so aus:

 

Bing Original Code:

$data = file_get_contents_curl(‚http://www.bing.com/search?q=‘.$q.’&first=‘.$brank, $keyword, $uniqueid, $proxy_username, $proxy_password);

 

Google Original Code:

$data = file_get_contents_curl(‚http://www.google.de/search?q=‘.$q.’&ie=utf-8&as_qdr=all&aq=t&rls=org:mozilla:us:official&client=firefox&start=‘.$start, $keyword, $uniqueid, $proxy_username, $proxy_password);

 

Bei der Google URL muss lediglich die Endung geändert werden (von .com auf .de) wobei ihr bei Bing folgende Zeile durch die vorhandene ersetzt:

 

Bing geänderter Code für DE:

$data = file_get_contents_curl(‚http://www.bing.com/search?q=‘.$q.’&cc=de&first=‘.$brank, $keyword, $uniqueid, $proxy_username, $proxy_password);

 

Damit habt ihr nun das Script auf das gewünschte Land konfiguriert.

Crawlingtiefe ändern

Das Keyword Tool fragt im Auslieferungszustand nur die Top 50 ab. Wer hier die Top 100 abfragen will, muss abermals die scrape.php, refreshkeyword.php, addkeywords.php editieren. Sucht nach $howmanyresults=50; und macht aus der 50 eine 100. Allerdings steigt mit der neuen Crawlingtiefe auch die Gefahr, dass Google oder Bing eure IP blockt. Hier kommen jetzt die Proxys ins Spiel.

Gute Proxys nutzen!

Als Faustregel gilt: Für 45-50 Keywords bis Top 50 reicht eine IP aus. Bei Abfrage der Top 100 sind es ca. 35 Keywords. Die meisten wollen natürlich mehr Abfragen und mit guten privaten Proxys ist das kein Problem. Wer eigene Server besitzt, kann sich selber dort ein paar Socks Proxys einrichten, alle anderen müssen sich welche kaufen (kosten nicht viel). Ich rate dringend von den billigen Shared Proxy Anbietern ab. Diese Proxies müssen sich oftmals 30 User gelichzeitig teilen und werden meistens für Blackhat Aktionen und Tools genutzt. Dementsprechend sind diese schnell verbannt bzw. gesperrt.

Ich nutze seit geraumer Zeit die privaten Proxies von anonymous-proxies.net*. Diesen Anbieter gibt es bereits seit vielen Jahren und vor allem werden hier auch lokale Proxys angeboten. Ihr könnt also ganz gezielt Proxys aus deutschen Städten ordern. Mal abgesehen davon, dass das Tracking damit wirklich exakt ermittelt wird, ist es eventuell auch für lokales SEO von Vorteil. Die dort georderten privaten Proxies werden ausschließlich euch zur Verfügung gestellt und somit ist auch ein funktionierendes Tracking der Keywords gewährleistet. Wer hier am falschen Ende spart, ist selber schuld. 4 Proxies kosten ca. 7,50 Euro im Monat und haben keine Limitierung der Bandbreite. Bei einer Crawlingtiefe der Top 50 sind somit bis zu 200 Keywords möglich. Ihr könnt die privaten Proxies zusätzlich noch als HTTP Proxy für anonymes Websurfen oder andere Tools nutzen.

Proxy Konfiguration

Supersimpel. Einfach die config.php öffnen und dort den Usernamen und Password für eure georderten Proxys eingeben. Danach die proxy.php öffnen und je Zeile, eine Proxy IP eintragen. Das Script wählt dann immer zufällig eine Proxy aus.

Fazit

In der Praxis funktioniert das Ganze wunderbar, nur hin und wieder hakt es bei Bing, was mich persönlich nicht sonderlich stört. Man merkt dem Script jedoch an, dass es sich hier um ein „Erstlingswerk“ handelt. Nicht alles ist sauber programmiert oder zu Ende gedacht aber es funktioniert und kostet erfreulich wenig. Wenn es Probleme gab, dann lag es an den Proxies, weswegen ich lieber genau 2 Euro (!) im Monat mehr ausgebe und dafür ein reibungsloses Tracking bekomme. Das Script lohnt sich eigentlich für alle Webmaster und wer weniger als 35 Keywords tracken muss, benötigt nicht einmal einen Proxy. Das Script hat einen sehr hohen Nutzen und das Preis- Leistungsverhältnis ist klasse. Besten Dank auch an Jeremy für den tadellosen Support.

4 Kommentare zu Das eigene Keyword Tool für den täglichen SERP-Check

  • Daniel sagt:

    Super Tipp, super erklärt, sollte ich eigentlich sofort einrichten …

    Was mich seit Ewigkeiten nervt ist, dass Google diese Daten nicht einfach zur Verfügung stellt. Sie wissen doch, dass sehr viele Leute diese automatisierten Abfragen durchführen und können dagegen auch kaum etwas unternehmen. Selbst sollten sie Daten problemlos in den Webmastertools darstellen und per API bereitstellen können.

    • Andreas sagt:

      Das würde dann aber exzessiv ausgenutzt und kostet wiederum richtig Ressourcen. Außerdem würde das wahrscheinlich wieder in vielen schlechten Optimierungsmaßnahmen seitens der Webmaster enden. Ich denke, die möglichen negativen Auswirkungen sind größer, als der mögliche Gewinn. Aus der Sicht von Google würde ich das auch nicht anbieten.

  • Florian sagt:

    Könnte man das Problem der Sperrung nicht durch eine zeitlich verteilte Abfrage der Keywords umgehen?

    Das es bei der Abfrage von 100 Suchbegriffen innerhalb weniger Minuten zu einer Sperrung durch Google kommt ist ja klar, wie schaut es aber aus, wenn ich die Abfrage zeitlich auf 4-6 Stunden verteile? Kommt es dann trotzdem zu einer Sperrung?

    • Andreas sagt:

      Ich denke es das die Anzahl der Abfragen, die einer IP zuzuordnen ist, ebenfalls zur Sperrung mindestens aber eine Captcha Abfrage auslöst. Du wirst wahrscheinlich nicht um einen Proxy herumkommen.