Benutzer-Werkzeuge

Webseiten-Werkzeuge


best_practices:cloaking
  • Bookmark "Cloaking" auf del.icio.us
  • Bookmark "Cloaking" auf Digg
  • Bookmark "Cloaking" auf Furl
  • Bookmark "Cloaking" auf Reddit
  • Bookmark "Cloaking" auf Ask
  • Bookmark "Cloaking" auf Google
  • Bookmark "Cloaking" auf Netscape
  • Bookmark "Cloaking" auf StumbleUpon
  • Bookmark "Cloaking" auf Technorati
  • Bookmark "Cloaking" auf Live Bookmarks
  • Bookmark "Cloaking" auf Yahoo! Myweb
  • Bookmark "Cloaking" auf Facebook
  • Bookmark "Cloaking" auf Newsvine
  • Bookmark "Cloaking" auf Yahoo! Bookmarks
  • Bookmark "Cloaking" auf Twitter
  • Bookmark "Cloaking" auf myAOL
  • Bookmark "Cloaking" auf Slashdot
  • Bookmark "Cloaking" auf Mister Wong

Cloaking

Cloaking Cloaking-Pages sind für Suchmaschinen weiterentwickelte Webseiten welche ein hohes Ranking erreichen sollen. Die Cloaking-Page ist für Besucher irrelevant. Die Erstellung einer Cloaking-Page basiert auf der Idee, den Robot von Suchmaschinen eine andere Webseite vorzuführen als menschlichen Besuchern. Aufwendig gestaltete Internetseiten und für Suchmaschinen optimierte Inhalte sind nicht immer einfach zusammen realisierbar. Suchmaschinen sollen deshalb eine Webseite vorgelegt bekommen, die auf bestimmte Keywords optimiert ist und keine das Ranking beeinträchtigenden Effekte wie z.B. JavaScript verwendet. Besuchern wird allerdings eine graphisch anspruchsvoll arrangierte Webseite gezeigt. Technisch formuliert wird unter Cloaking also das Ausliefern verschiedener Inhalte unter derselben URL verstanden.

Welche Vorteile bringt Cloaking

Bei Cloaking kann man zwei entscheidenden Faktoren gleichzeitig gerecht werden. Man präsentiert dem Besucher eine aufwendig und informativ gestaltete Seite mit vielen Animationen und Flash-Dateien. Andererseits kann die Suchmaschine durch die zweite, optimierte Seite die Internetseite besser einstufen und bewertet diese eventuell höher. Somit kann Cloaking zu einem höheren Page-Rank führen.

Wie wird zwischen menschlichem Besucher und Roboter unterschieden

Am Leichtesten funktioniert die Erkennung von Suchmaschinen-Robotern mit der CGI-Modifikation http_USER_Agent. Darin werden all jene abgespeichert, welche die Webseite anfordern. Versucht nun ein Client wie z.B. Internet Explorer die Webseite aufzurufen, handelt es sich höchstwahrscheinlich um einen menschlichen Besucher. Es wird die für Besucher optimierte Seite angezeigt. Kommt die Anfrage jedoch von einem Client wie z.B. Googlebot, so wird dahinter ein Roboter vermutet und die speziell für Suchmaschinen erstellte Seite wird geöffnet. Diese Einstellung nennt man auch Browserweiche. In der Theorie könnte es sogar möglich sein unterschiedlichen Robots eine auf die jeweilige Suchmaschine abgestimmte Seite anzuzeigen. Eine weitere Möglichkeit bietet sich beim IP-Cloaking. Hierbei wird die IP-Adresse des Besuchers mit allen IP-Adressen von Suchmaschinen abgeglichen. Diese Methode ist jedoch sehr kosten- und zeitintensiv, da die Listen regelmäßig kontrolliert und regelmäßig wieder auf den aktuellsten Stand gebracht werden müssen.

Wie reagieren Suchmaschinen auf Cloaking

Suchmaschinen haben auf Cloaking reagiert. Die Robots können mit Browserähnlichen Kennungen ausgestattet werden und somit die so genannten Browserweichen überlisten. Wird bei einer Webseite verdächtigt mit Cloaking zu arbeiten wird diese von einem weiteren speziellen Robot ein weiteres Mal überprüft. Die Methode des IP-Cloaking ist von Suchmaschinen wesentlich schwerer zu erkennen. In jedem Fall wird Cloaking aber als Spam betrachtet und dementsprechend auch bestraft. Das gilt vor allem für Webseiten bei welchen die optimierte Webseite inhaltlich erheblich von der für Besucher gedachten Webseite abweicht. In solchen Fällen kann die Seite auch komplett aus dem Verzeichnis der Suchmaschine gelöscht werden.

Verstößt Cloaking gegen die Google Qualitäts-Richtlinien

Ja es verstößt gegen die Qualitäts-Richtlinien von Google. Google hat in einem eigenen Absatz der Regeln Cloaking und die Folgen wie folgt beschrieben: Unter „Cloaking“ versteht man das Verhalten einer Website, an Suchmaschinen, die sie durchlaufen, veränderte Webseiten zurückzugeben. Der Webserver wurde also so programmiert, dass er an Google andere Inhalte zurückgibt als an normale Benutzer der Site, in der Regel mit der Absicht, das Suchmaschinen-Ranking zu verbessern. Dies führt unter Umständen dazu, dass Benutzer nicht die erwarteten Inhalte finden, wenn sie auf ein Suchergebnis klicken. Um die Genauigkeit und Qualität unserer Suchergebnisse beizubehalten, kann Google alle Sites oder Site-Autoren, die versuchen, mithilfe von Cloaking ihr Such-Ranking zu beeinflussen, dauerhaft aus dem Index streichen. (zitiert von http://www.google.com/intl/de/webmasters/faq.html)

Gibt es ähnliche Verfahren, welche man verwenden kann OHNE gegen die Richtlinien von Google zu verstoßen

Google bietet hier ein System namens „First Click Free“ an. Wer auf der Internetpräsenz die Möglichkeit von Abonnements oder Registrierung bietet, verhindert dass die Suchmaschinen auf große Teile der Webseite zugreifen können. Durch das Installieren von „First Click Free“ (FCF) von Google für den Content kann der Zugriffsbeschränkte Teil der Webseite in den Hauptsuchindex von Google aufgenommen werden. Der Content bleibt natürlich weiterhin geschützt. Mit „First Click Free“ möchte Google den Nutzern die Möglichkeit geben, qualitativ hochwertigen Content in den Google-Suchindex aufzunehmen. Zudem soll Webmastern von Zugriffsbeschränken Webseiten die Möglichkeit geboten werden, für die Webseite zu werben und die Verbreitung zu fördern. Damit „First Click Free“ angewendet werden kann, muss allen Nutzern, welche über Google-Suche ein Dokument auf der Webseite gefunden haben gestattet werden, den vollständigen Text des Dokuments einsehen zu können, auch wenn diese Besucher sich noch nicht registriert und den Content nicht abonniert haben. Der erste Klick des Nutzers auf Ihre Webseite ist kostenlos und erfolgt ohne Zugriffsbeschränkung. Sobald der Besucher jedoch auf einen Link der Originalseite klickt, kann darauf hingewiesen werden, dass eine Registrierung oder Anmeldung erfolgen muss, um fortfahren zu können. Dem Nutzer muss der vollständige Inhalt eines Artikels angezeigt werden. Dies ist machbar, indem sowohl dem Googlebot als auch dem Nutzer der gesamte Inhalt auf einer einzelnen Seite angezeigt wird.

Abschließend kann man nur sagen, dass es jedem selber überlassen bleibt ob er Cloaking einsetzen möchte. Durch das neue Angebot von Google kann man jedoch dieselben, wenn nicht bessere Resultate erzielen, ohne Gefahr zu laufen aus den Index gestrichen zu werden.

  • Bookmark "Cloaking" auf del.icio.us
  • Bookmark "Cloaking" auf Digg
  • Bookmark "Cloaking" auf Furl
  • Bookmark "Cloaking" auf Reddit
  • Bookmark "Cloaking" auf Ask
  • Bookmark "Cloaking" auf Google
  • Bookmark "Cloaking" auf Netscape
  • Bookmark "Cloaking" auf StumbleUpon
  • Bookmark "Cloaking" auf Technorati
  • Bookmark "Cloaking" auf Live Bookmarks
  • Bookmark "Cloaking" auf Yahoo! Myweb
  • Bookmark "Cloaking" auf Facebook
  • Bookmark "Cloaking" auf Newsvine
  • Bookmark "Cloaking" auf Yahoo! Bookmarks
  • Bookmark "Cloaking" auf Twitter
  • Bookmark "Cloaking" auf myAOL
  • Bookmark "Cloaking" auf Slashdot
  • Bookmark "Cloaking" auf Mister Wong
best_practices/cloaking.txt · Zuletzt geändert: 2010/07/16 14:16 (Externe Bearbeitung)

SEO Wiki ist unter einer Creative Commons Attribution-Noncommercial-No Derivative Works 3.0 Deutschland Lizenz veröffentlicht.
Weitere darüber hinausgehende Einschränkungen finden Sie in unserer Lizenz.

English SEO Wiki | RSS zu letzten Änderungen | Impressum | Provided by DataRoxx