Beheben Sie mit System Mechanic über 30.000 PC-Probleme, die Ihren Computer verlangsamen. Jetzt ausprobieren.

Warum wird meine Seite von Slurp gecrawlt?

Sind Sie ein Webmaster, der weitere Informationen über den User-Agent "Slurp" benötigt? Kein Problem.

Was ist Slurp?

Slurp ist der Yahoo Suche Robot zum Crawlen und Indizieren von Website-Informationen. Obwohl einige Ergebnisse der Yahoo Suche von unseren Partner bereitgestellt werden, sollte Yahoo Slurp Zugriff auf die Websites gestattet werden, damit diese in den Ergebnissen der Yahoo Mobile Suche angezeigt werden können. Darüber hinaus führt Slurp folgende Aufgaben durch:

  • Slurp erfasst Inhalte von Partner-Websites für die Einbeziehung auf Seiten wie etwa Yahoo Nachrichten, Yahoo Finanzen und Yahoo Sport.
  • Slurp greift auf Seiten über Websites im Internet zu, um die Richtigkeit zu bestätigen und die personalisierten Inhalte von Yahoo für unsere Benutzer zu verbessern.

Wie identifiziert sich Slurp?

Der Zugriff auf die Website durch Slurp wird durch den User-Agent „Slurp“ identifiziert. Der vollständige Eintrag für den User-Agent in Ihren Zugriffsprotokollen sieht folgendermaßen aus:

Mozilla/5.0 (kompatibel; Yahoo Slurp; http://help.yahoo.com/help/us/ysearch/slurp)

Slurp davon abhalten, Seiten auf Ihrer Website zu lesen

Slurp befolgt den Robots Exclusion Standard. Um zu verhindern, dass Slurp einen bestimmten Bereich Ihrer Website liest, erstellen Sie im Root-Verzeichnis (Startordner) Ihrer Website eine robots.txt-Datei und fügen eine Regel für „Benutzer-Agent: Slurp“ hinzu.

Beispiel des Codes in einer Datei namens "robots.txt":

User-agent: Slurp
Disallow: /cgi-bin/

Hinweis – Slurp befolgt den ersten Eintrag in der Datei „robots.txt“ mit einem User-Agent, in dem „Slurp“ enthalten ist. Falls kein solcher Datensatz vorhanden ist, befolgt Slurp den ersten Eintrag mit einem User-Agent „*“.

Mehr zu Metatags und robots.txt

Legen Sie fest, wie Ihre Website in der Yahoo Suche angezeigt wird – In unserer Anleitung erfahren Sie, wie Sie Metatags und robots.txt mit Slurp verwenden.

Häufig gestellte Fragen

Verlangsamt Slurp meine Website?

Slurp wurde so konzipiert, dass angemessene Anfragen gestellt werden, die Websites nicht überlasten. Wenn Sie jedoch befürchten, dass die Leistung Ihrer Website beeinträchtigt werden könnte, können Sie die Seiten beschränken, die Slurp durchforstet. Verweigern Sie dazu das Crawlen bestimmter Unterverzeichnisse. Alternativ können Sie mit einer Crawl-Verzögerung die Geschwindigkeit verringern, mit der Slurp Seiten durchforstet. Erfahren Sie mehr darüber, wie Sie die robots.txt-Anweisungen „Verweigern“ und „Crawl-Verzögerung“ bei Slurp anwenden..

Support erhalten

Webmaster können sich direkt an den Yahoo Support wenden, indem sie eine E-Mail an folgende Adresse senden: crawl-support@yahooinc.com.