Online Marketing und SEO - netzmarketing.ch

Robots.txt

Die Robots.txt ist eine Text-Datei, die im Webroot der Website gespeichert wird. Sie enthält Informationen für den Spider einer Suchmaschine, welche Verzeichnisse und Dateien durchsucht werden dürfen und welche nicht.

 

Funktion

Die Robots.txt kann also dem Spider der verschiedenen Suchdienste ganz gezielt Anweisungen geben. So können bestimmte Dateien, Seiten oder komplette Verzeichnisse für eine Indexierung bei manchen Suchdiensten gesperrt werden. Wichtig ist: Eine robots.txt Datei kann nicht genutzt werden, um den Spidern mitzuteilen, welche Webseiten gespidert werden dürfen. Vielmehr dient sie dazu, den Spidern Anweisung zu geben, welche Seiten nicht gespidert werden dürfen.

 

SEO

In der Regel ist es so, dass der überwiegende Teil aller Webseiten keine Robots.txt besitzt und so auch nicht auf ihre Funktion zurückgreifen kann. Sie nimmt auch keinen Einfluss auf das Ranking der Webseite. Sie kann lediglich den Crawlern verbieten, bestimmte Seiten zu besuchen und damit verhindern, dass diese indexiert werden. Ihre Verwendung ist aber aus verschiedenen Gründen sinnvoll:

- Es gibt auch Robots, die Webseiten lediglich deshalb besuchen, um diese zu scannen und die E-Mail-Adresse für Spamzwecke missbrauchen.

- Hat eine Website einen Bereich für Mitglieder, der nicht im Cache erscheinen soll, kann dies mit der Robots.txt verhindert werden.

- Manche Informationen sind einfach privat und sollen das auch bleiben. Zum Beispiel Profile in einem Forum oder Grafikverzeichnisse.

 

Unklar ist aber, inwiefern die Robots.txt von den verschiedenen Suchmaschinen beachtet wird. Sollen bestimmte Elemente einer Webseite ganz sicher nicht in den Ergebnislisten der Suchmaschinen erschienen, ist es besser diese in ein passwortgeschütztes Verzeichnis auszulagern, anstatt die Robots.txt zu nutzen.

 

zur Übersicht