Webmaster Tools sind Werkzeuge von diversen Suchmaschinen Anbietern, die einem alle eine tiefere Einsicht auf kritische Faktoren der eigenen Webseite liefern können. Die Informationen die man dort bekommt, können genutzt werden für SEO, Keyword-Analysen und zur Optimierung der Lesbarkeit und der Bewertung durch Suchmaschinen. Darüber hinaus erhält man meist auch noch sinnvolle Auswertungen über die Besucher der eigenen Webseite und mit welchen Suchbegriffen sie auf die Seite gekommen sind. Interessant, wenn auch von unterschiedlicher Qualität, sind die Informationen über die Verlinkung der eigenen Seite im Netz.
Eins der nützlichen Werkzeuge zur Bewertung der eigenen Seite ist das Google Webmaster Tool. Um es nutzen zu können, muss man allerdings einen meta key in den Header der eigenen Seite einbauen, oder eine eigene HTML-Seite zur für die Webmaster Tools erstellen. Nur so kann Google validieren, ob man auch wirklich der Eigentümer der angegeben Seite ist.
Die Webmaster Tools sind in vier Kategorien unterteilt. Unter der Kategorie Site Configuration findet sich die nützliche Funktion Google den Ort der eigenen Sitemap mitzuteilen. Findet Google eine Sitemap vor, kann dies das Indexieren der einzelnen Seiten einer Domain beschleunigen.
Ebenfalls praktisch ist die der Test der robots.txt, der unter Crawler Access zu finden ist. Hier kann man testen, ob Google bestimmte Subseiten erreichen kann oder ob sie wegen Restriktionen der robots.txt für Google unsichtbar sind. Hat man noch keine (funktionierende) robots.txt, kann man sie sich hier auch gleich generieren lassen. Außerdem kann man hier auch noch die Löschung von Seiten aus dem Google Index beantragen. Dass macht natürlich nur Sinn, wenn man zuvor verhindert hat, dass diese Seiten in Zukunft erneut aufgenommen werden.
Unter dem Punkt Settings, kann man die Crawl Rate des Googlebots einstellen, bzw. “nahelegen”, da Google eh macht was es will. Erzeugt einem der Googlebot zuviel Load auf dem eigenen Server sollte man die Crawl Rate ein wenig herabsetzen. Bei frischen Seiten oder Seiten mit sich stark ändernden Inhalten, kann man die Crawl Rate herauf setzen und hoffen, dass dadurch die Aufnahme von Seiten in den Index beschleunigt wird.
Die zweite Kategorie der Google Webmaster Tools nennt sich Your site on the web.
Der Punkt Search Queries kann einem viele manuelle Google Suchanfragen ersparen, denn hier kann man sehen, wie oft die eigene Seite bei verschiedenen Suchbegriffen unter den Ergebnissen aufgetaucht ist, welche Position die eigenen Seite bei dieser Suchanfrage hatte und wie viel Prozent der Suchenden anschließend die eigene Seite besucht haben. Auf dieser Seite erhält man viele wertvolle Informationen darüber, welche Keywords besonders gute Ergebnisse erzielen.
Natürlich darf auch in den Webmaster Tools die eigentliche Keywordsanalyse des Inhalts einer Seite nicht fehlen, ebenso wie die Auflistung von externen Backlinks zu der eigenen Seite. Die interne Verlinkung gibt Aufschluss welche der eigenen Subseiten gut verlinkt sind. Hier sollten die zentralen Seiten möglichst oben stehen.
In der dritten Kategorie Diagnostics bekommt man unter anderem eine Übersicht wie oft der Googlebot die eigene Seite besucht, wie viele Seiten er in den letzten Monaten gecrawlt hat, wie lange er dafür gebraucht hat und wie viele Daten er dabei heruntergeladen hat. Die Crawler Errors geben eine Übersicht darüber ob und welche Elemente oder Seiten der Googlebot nicht crawlen konnte, was ein Hinweis auf falsch gesetzte Links ist. Nützlich kann auch die Funktion Crawl as Googlebot sein. Hier kann man ersehen, wie der eine bestimme Seite für den Googlebot aussieht. Dies kann besonders nützlich sein, wenn man Code implementiert hat, welcher dafür sorgt, dass dem Googlebot spezieller Content ausgeliefert wird. Die HTML Suggestions geben einen Hinweis auf double content und auf weitere sich negativ auswirkende HTML-Eigenschaften der Seite.
In der letzten Kategorie Labs befindet sich die Site performance Analyse der Seite. Hier erhält man einen Geschwindigkeitsvergleich der eigenen Seite mit dem Rest der Welt, sowie ein paar nützliche Tipps, wie man die Geschwindigkeit noch weiter verbessern kann.
Mit Alexa Site Info erhält man ein weiteres sehr mächtiges Tool zur Analyse der eigenen Webseite. Alexa bezieht seine Daten von den Usern die die Alexa Toolbar installiert haben. Daher sind die Daten leider nicht unbedingt repräsentativ, da es nur wenig Gründe gibt, sich freiwillig die Toolbar zu installieren.
Zu Beginn erhält man von Alexa den Rang der eigenen Seite. Es gibt sowohl einen Gesamtrang, als auch einen länderspezifischen Rang. Die Traffic Stats erhält man nur, wenn die untersuchte Seite in der Rangliste der 100.000 meist besuchten Seiten zu finden ist. Hat man dies erreicht, erhält man eine ausführliche Info darüber, wie viel Personen die eigene Seite besuchen. Die Daten enthalten viele nützliche Informationen wie die Bounce Rate, Pageviews per User, allgemeine Reichweite und wie viele Personen über Suchmaschinen auf die Seite gekommen sind.
Bei Search Analytics erhält man eine Übersicht darüber welche Suchbegriffe zu den meisten Seitenbesuchen geführt haben. Eine interessante demografische Auswertung der Besucher ist unter dem Punkt Audience zu finden. Hilfreich kann auch die Clickstream Analyse sein, unter der man sehen kann, woher die eigenen Besucher gekommen sind und wohin sie anschließend gesurft sind.
Alexa bietet auch die Funktion die analysierte Seite mit einer beliebigen anderen Seite über einen gewissen Zeitraum hin zu vergleichen. Hier zeichnen sich schöne Trends ab und man kann die Performance der eigenen Seite mit Konkurrenzangeboten vergleichen.
Es gibt verschiedene Tools, um auszuwerten wie viele externe Seiten die eigene Seite verlinken. Eingehende Links sind zum Beispiel ebenfalls mit den Google Webmaster Tools, als auch direkt über die Google Suchmaschine auszuwerten. Keine dieser Informationen ist jedoch so detailliert wie der Yahoo Site Explorer, womit dieser eindeutig eins der besten Tools ist, um die Backlinks der eigenen Seite zu ermitteln. Darüber hinaus bietet der Yahoo Site Explorer jedoch nur wenig Funktionalität und weiterführende Informationen.
Was Google kann, kann Microsoft schon lange. Oder doch nicht? Auf jeden Fall gibt es auf Bing ebenfalls Webmaster Tools. Die Informationen die dort erhältlich sind, sind tatsächlich recht vergleichbar mit denen von Google. Allerdings ist Google deutlich umfangreicher als Bing. Den Hauptnutzen von den Bing Webmaster Tools sehe ich zur Zeit in der Funktion dort die eigenen Sitemap(s) anzugeben, damit die eigene Seite schneller in den Index aufgenommen wird. Wobei selbst dann die Geschwindigkeit von Bing zu wünschen übrig lässt. Bevor jetzt jeder dort hin surft, um sich einen Account dort zu erstellen, sollte ich eventuell noch darauf hinweisen, dass die Bing Webmaster Tools nur zu nutzen sind, wenn man sich den Flash Ersatz aus dem Hause Microsoft namens Silverlight installiert.
Nützliche Tools zum Webdesign und zur Webentwicklung – Teil 1: Validatoren
Nützliche Tools zum Webdesign und zur Webentwicklung – Teil 2: SEO Keyword Tools
Nützliche Tools zum Webdesign und zur Webentwicklung – Teil 3: Webseiten Analyse Tools