Was ist ein User-Agent? (Der “Ausweis” von Bots & Browsern)

Jedes Mal, wenn ein Browser oder ein Suchmaschinen-Bot eine Webseite anfordert, stellt er sich dem Server vor. Er übermittelt eine Art digitalen Ausweis, der ihm sagt, wer er ist und was er kann. Dieser “Ausweis” ist der User-Agent.

Die schnelle Definition

Ein User-Agent ist eine kurze Textzeichenfolge (ein “String”), die ein Webbrowser oder Crawler bei jeder Anfrage an einen Webserver mitsendet. Dieser String identifiziert die Software, die die Anfrage stellt (z.B. Chrome, Firefox, Googlebot) und oft auch das Betriebssystem (z.B. Windows, Android).

Warum User-Agents für SEO entscheidend sind

Für die technische Suchmaschinenoptimierung ist der User-Agent ein fundamentales Werkzeug zur Steuerung und Analyse:

  1. Bot-Identifizierung: Es ist die primäre Methode, um einen Googlebot von einem Bingbot oder einem normalen Nutzer zu unterscheiden.
  2. robots.txt-Steuerung: Die robots.txt-Datei nutzt den User-Agent (z.B. User-agent: Googlebot), um spezifische Crawling-Regeln für einzelne Bots festzulegen.
  3. Logfile-Analyse: Bei der Analyse von Server-Logdateien ist der User-Agent-String der Schlüssel, um herauszufinden, wie oft Googlebot welche Seiten crawlt und ob “Bad Bots” Ihre Seite belasten.
  4. Auslieferung angepasster Inhalte: Der Server kann den User-Agent nutzen, um unterschiedliche Inhalte auszuliefern.
    • Legitim: Dynamic Rendering (dem Googlebot eine gerenderte Version, dem Nutzer eine JS-Version zeigen).
    • Verboten (Black Hat): Cloaking (dem Googlebot absichtlich andere Inhalte als dem Nutzer zeigen, um Rankings zu manipulieren).

Beispiele für User-Agent-Strings

Ein User-Agent-String kann sehr lang und komplex sein:

Beispiel: Googlebot (Smartphone)
Mozilla/5.0 (Linux; Android 6.0.1; Nexus 5X Build/MMB29P) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/W.X.Y.Z Mobile Safari/537.36 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)

Beispiel: Chrome (Desktop auf Windows)
Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/123.0.0.0 Safari/537.36

Profi-Tipp: User-Agents können gefälscht werden!

Verlassen Sie sich **niemals** darauf, dass ein Besucher, der den User-Agent “Googlebot” sendet, auch wirklich der Googlebot ist. Sogenannte “Bad Bots” oder Scraper fälschen ihren User-Agent sehr häufig, um sich als Google zu tarnen und von der Website nicht blockiert zu werden.

Die einzige sichere Methode, den echten Googlebot zu verifizieren (z.B. bei einer Logfile-Analyse), ist ein **Reverse-DNS-Lookup**. Dabei wird die IP-Adresse des anfragenden Bots überprüft, um sicherzustellen, dass sie tatsächlich zu einer Google-Domain (wie .googlebot.com) gehört.

Zusammenfassung: Der User-Agent ist eine Textkennung, die Browser und Bots an einen Server senden, um sich zu identifizieren. Für SEO ist er entscheidend, um das Crawling über die `robots.txt` zu steuern, bei der Logfile-Analyse das Verhalten des Googlebots nachzuvollziehen und um (im Guten wie im Bösen) unterschiedliche Inhalte an Bots und Nutzer auszuliefern (Dynamic Rendering vs. Cloaking).
Geschäftsführer: Sven Hauswald

WebSeo GmbH
Röderstraße 1
01454 Radeberg

Kontakt:
Telefon: 03528 4029727
E-Mail: info@webseo.de

Webseo Icon
Datenschutz-Übersicht

Wir verwenden Cookies, damit wir Ihnen die bestmögliche Benutzererfahrung bieten können. Cookie-Informationen werden in Ihrem Browser gespeichert und führen Funktionen aus, wie das Wiedererkennen von dir, wenn Sie auf unsere Website zurückkehren, und hilft unserem Team zu verstehen, welche Abschnitte der Website für Sie am interessantesten und nützlichsten sind.