home suchmaschinenplatzierung quelltextoptimierung

Quelltextoptimierung

Sitemaps sind nicht nur ein Hilfsinstrument für Besucher, sondern auch für Suchroboter. Zudem sind Suchroboter geradezu fixiert auf diese Linksammlungen. Existiert eine solche Datei und ist sie von der Homepage aus zu erreichen, kann man sicher sein, dass diese auch sehr schnell aufgenommen wird. Um eine Website komplett zu indizieren, was immer das erklärte Ziel von Suchmaschinen ist, sind solche Navigationshilfen ein wichtiger Beitrag.

Die beliebteste Suchmaschine in Deutschlands ist sogar inzwischen soweit gegangen, Website-Betreiber mit Google-Sitemaps ein Tool anzubieten, mit dem es dem Suchroboter erleichtert wird, eine komplette Website zu indizieren. In der Praxis konnten die Erwartungen leider nicht erfüllt werden. Google-Sitemaps und der normale Suchmaschinenbetrieb haben miteinander recht wenig zu tun. Zwar werden nach wenigen Stunden, manchmal sogar schon nach wenigen Minuten die Informationen der Sitemaps-Datei ausgelesen und auch die Existenz der Seiten auf dem Server kontrolliert. In die Datenbank von Google fließen sie damit noch nicht. In der Tat beschleunigt das Sitemaps-Programm den Indizierungsvorgang um bestenfalls eine Woche. Dass Google-Sitemaps technisch von der Suchmaschine völlig isoliert arbeitet erkennt man daran, dass hier auch Domains geführt, besucht und analysiert werden, die bei Suchmaschine von Google längst herausgeflogen sind und auch nie wieder aufgenommen werden.

Nun kann es vorkommen, dass es Bereiche gibt, die nicht für jedermann sichtbar und erreichbar sein sollen. Um den Zugriff eines Suchroboters auf diese Seiten zu verhindern, sollten diese Seiten in einem Extra-Verzeichnis liegen und das Verzeichnis mit Hilfe der robots.txt-Datei geschützt werden.

Der Inhalt einer solchen Datei könnte also zum Beispiel so aussehen:

User-agent: * # directed to all spiders, not just Scooter
Disallow: /intern

Das Sternchen hinter User-agent signalisiert, dass diese Anweisung für alle Suchroboter gilt. Mit dem Befehl Disallow wird der Zugriff auf das Verzeichnis /intern verboten. Es gibt allerdings keine Gewähr, dass sich alle Suchmaschinen daran halten.

Google ignoriert auch schon einmal diese Anweisungen und kümmert sich auch nicht um die Angaben in den Meta-Tags, in den man auch Suchroboter anweisen kann, eine Seite nicht aufzunehmen und deren Verlinkungen nicht zu folgen.

Eine sichere Methode Suchroboter auszusperren ist allein das Arbeiten mit einer .htaccess-Datei. Mit Ihr wird serverseitig ein Zugriff verwehrt. Nur mit der Eingabe eines Passwortes lässt der Server einen Zugriff zu. Solche Angaben können auch vom Laien online generiert werden (http://www.ekiwi.de/tools/htaccess/index.php) und müssen dann, als Textdatei gespeichert, nur noch in das zu schützende Verzeichnis kopiert werden.


© 2011 search monitor


Die Inhalte dieser Seite sind urheberrechtlich geschützt. Alle Rechte, insbesondere die der Vervielfältigung, der Übersetzung und der Verwendung in elektronischen bzw. mechanischen Systemen behält sich der Urheber vor. Eine Nutzung der Texte bedarf unserer vorherigen schriftlichen Zustimmung.



Schöpfen Sie das Potential Ihrer Website aus!

platzierungsabfrage seitenabfrage backlink abfrage grafische auswertungen konkurrenzabfrage
kundenanalysen konkurrenzanalysen keyword-beratung quelltext optimierung link optimierung content optimierung website-erweiterungen linkpopularität
erfahrungen vorgehensweise erfolgsquoten presse links
seitwert wordtracker keyword-dichte spider-viewer weitere tools sitemaps google spezialsuche

Login

21.01.2011
Google: Umsatzwachstum von 26 Prozent

Der Suchmaschinen-Gigant verzeichnet ein Umsatz- und Gewinnwachstum von 26 beziehungsweise 29 Prozent im vierten Quartal 2010. Eric Schmidt bewertet das Abschlussquartal als ...
>> mehr 
Suchmaschinenoptimierung

21.01.2011
Google baut sich sein eigenes Groupon

Die Übernahme von Groupon durch Google ist gescheitert. Doch obwohl beim Versuch der Angebotsausweitung nur durch Zukäufe wirklich gute Dienste entstanden sind ...
>> mehr 
Suchmaschinenplatzierung

12.01.2011
Google stellt Cloaking ab

Der bei Google für Antispam-Maßnahmen zuständige Matt Cutts hat per Twitter angekündigt, dass die Suchmaschine Google Maßnahmen gegen das sog. "Cloaking" ergreifen will.
>> mehr 


searchmonitor
Suchmaschinenoptimierung
suchmaschinenplatzierung im griff
webranking monitoring
Platzierungsanalysen für Suchmaschinenoptimierer
Suchmaschinen-optimierungsuchmaschinen-platzierung