Wird Ihre Website von Suchmaschinen-Robotern blockiert?
Geben Sie die Website-Adresse ein und finden Sie heraus, ob Suchmaschinen-Robots durch Meta-Tags, robots.txt-Dateien oder HTTP-Header blockiert werden.
Robots-Blockierung der Suchmaschine
Haben Sie sich als Website-Besitzer jemals gefragt, wie Suchmaschinen alles über Ihre Webseiten herausfinden, auch wenn Sie sie nicht speziell auf sozialen Medien oder anderen Websites “beworben” haben? Suchmaschinen-Robots sind die Antwort!
Suchmaschinen-Robots sind winzige Programme, die auf Websites landen und den Links auf ihnen folgen, um Informationen über die Website zu sammeln. Diese Informationen werden dann zu den Datenbanken solcher Suchmaschinen hinzugefügt. Wenn Sie sich fragen, warum Suchmaschinen solche Robots verwenden, nun, das ist, wie sie wissen, welche Websites die Informationen im Zusammenhang mit den Keywords liefern können, nach denen Benutzer suchen.
Was sind Suchmaschinen-Robots?
Suchmaschinen-Robots, auch bekannt als Wanderers, Crawler, Bots und Spider, sind Tools, die von beliebten Suchmaschinen wie Google, Microsoft Bing und Yahoo zum Aufbau ihrer Datenbanken verwendet werden. Diese Robots besuchen automatisch Webseiten, navigieren auf ihnen und trennen Informationen, um die Beschreibung der Webseite zu entschlüsseln.
Eine Suchmaschine gilt als leistungsstark, wenn sie die Ergebnisse auf Benutzeranfragen schnell liefert. Um das zu können, sollte sie über eine umfangreiche Datenbank verfügen, die Informationen über alles enthält, was im Internet gepostet wird. Suchmaschinen-Robots helfen ihr, solche Informationen zu sammeln. Diese Crawler sammeln Details wie Seitenüberschriften, Meta-Tags, Metadaten und wortbasierte Inhalte und speisen sie in die Datenbanken der Suchmaschinen ein, damit diese schneller als andere konkurrierende Suchmaschinen Antworten liefern können.
Was sind einige gängige Suchmaschinen-Robots?
Zu den gängigen Suchmaschinen-Robots gehören:
- Googlebot
- Slurp bot
- Bing bot
- Baidu spider
- DuckDuck bot
- Exabot
- Sogou spider
- Yandex bot
- Alexa crawler
Warum sollte ein Website-Besitzer einen Suchgmaschinen-Robot blockieren?
Obwohl das Crawlen Ihrer Website durch Suchmaschinen-Robots Ihnen nur zu einer besseren Platzierung in Bezug auf die von Ihnen betreute Domain verhelfen würde, hosten einige Website-Besitzer sensible Daten auf ihren Webseiten und möchten, dass diese privat und sicher sind. Hier stellt sich das Problem der Sicherheit, da Suchmaschinen-Bots nicht zwischen öffentlichen und privaten Webinhalten unterscheiden können.
Ein weiterer Grund, warum ein Website-Besitzer möchte, dass sich solche Bots von seinen Inhalten fernhalten, ist, dass er eine Duplizierung der gesamten Website oder ihrer Inhalte verhindern möchte, da sich dies negativ auf seine SEO auswirken würde.
Aus diesen Gründen möchten Website-Besitzer oft den Zugriff auf ihre Webseiten einschränken, indem sie Crawler verbieten oder blockieren, insbesondere wenn sich die Website im Staging-Modus befindet. Im Staging-Modus kann man seine Website konfigurieren und eine Vorschau anzeigen, bevor der Server online geht.
Wie kann man Suchmaschinen-Roboter blockieren?
Es gibt drei Möglichkeiten, wie Bots blockiert werden können:
1. Meta-Tags
Meta-Tags sind kurze Texte, die den Inhalt einer Website definieren, und sie erscheinen nur im Quellcode der Seite. Sie ermöglichen es den Programmierern, Parameter für Crawler zu halten, da sie diese an der Indizierung der Seite hindern.
Sie können Crawler während des Website-Stagings blockieren, indem Sie das folgende Meta-Tag in Ihrem Quellcode verwenden:
<meta name="robots" content="noindex,nofollow">
Hinweis: Sobald eine Website aktiv wird, ist es zwingend erforderlich, diese zu entfernen, da sie Ihre Webseiten für ALLE Suchenden unsichtbar machen. Meta-Tags funktionieren am besten nur während des Prozesses der Einrichtung einer Website, um zu verhindern, dass der Inhalt gestohlen wird.
2. Robots.txt-Dateien
Robots.txt-Dateien sind einfache ASCII-Textdateien, die den Zugriff von Crawlern auf bestimmte Bereiche der Website beschränken, z. B. auf bestimmte Dateien und Ordner. Wenn Sie einige bestimmte Daten auf Ihrer Website blockieren möchten, können Sie diese Methode verwenden.
Um eine robots.txt-Datei zu verwenden, öffnen Sie eine neue Datei in Notepad (oder einem anderen einfachen Textverarbeitungsprogramm) und geben Sie diese Wörter ein, um Bots von der gesamten Website zu blockieren:
User-agent: *
Disallow: /
Speichern Sie nun die Datei in Ihrem Stammverzeichnis und achten Sie darauf, dass der Dateiname robots.txt lautet (alles in Kleinbuchstaben).
3. HTTP-Header
Der HTTP-Header oder X-Robots-Tag ist eine verbesserte Version der Meta-Tags, die das Hinzufügen zu jeder Seite vereinfacht. Mit dieser Methode können Sie den Wert für die gesamte Website auf einmal festlegen und einstellen.
Dies ist der Code, den Sie verwenden können:
Header set X-Robots-Tag "noindex,nofollow"
Hinweis: Wenn Sie dies nicht aus dem Quellcode Ihrer Website entfernen, nachdem Ihre Website eingerichtet wurde, wird die Seite vor ALLEN Webbrowsern verborgen.
Wie kann man überprüfen, ob Suchmaschinen-Robots für eine bestimmte URL blockiert sind?
Genauso wie es drei Möglichkeiten gibt, Suchmaschinen-Robots zu blockieren, gibt es drei Möglichkeiten, wie Sie überprüfen können, ob sie für eine Website blockiert sind:
- Sehen Sie sich den HTML-Quellcode der Website an, um den Meta-Tag oder X-Robots-Tag zu finden
- Prüfen Sie den Inhalt der robots.txt-Datei für die Website
- Scannen der HTTP-Header
Wenn keine der oben genannten Methoden funktioniert, können Sie das oben beschriebene kostenlose Tool verwenden.