Als Besitzer einer Website bestimmt ihr, welche Inhalte eurer Site von den Suchmaschinen indexiert werden. Der einfachste Weg, Suchmaschinen darüber zu informieren, was ihr nicht indexiert haben möchtet, ist eine robots.txt-Datei oder ein robots Meta-Tag. Aber manchmal möchtet ihr vielleicht Inhalte entfernen, die bereits im Index vorhanden sind. Wie läßt sich dies am besten erreichen?
Wie immer gilt: Es hängt davon ab, welche Art von Inhalten ihr entfernen wollt. In den Webmaster-Tools könnt ihr eine genaue Beschreibung der verschiedenen Möglichkeiten finden. Beim erneuten Crawlen der jeweiligen Seite wird der Inhalt dann automatisch aus dem Index entfernt. Wenn es jedoch etwas schneller gehen soll und ihr nicht auf den nächsten Crawl warten möchtet, gibt es jetzt eine einfache Lösung.
Für Websites, bei denen ihr in den Webmaster-Tools als Besizter verifiziert seid, findet ihr jetzt eine neue Option im Diagnose-Tab „URL-Löschungen“. Um loszulegen, klickt einfach auf URL-Löschungen und dann auf Neuer Antrag auf Entfernung. Wählt dann die Option, die am besten beschreibt, was ihr entfernen möchtet.
Einzelne URLs: Webseiten, Bilder oder andere Dateien
Wählt diese Option, wenn ihr eine einzelne URL oder z.B. einzelne Bilder entfernen möchtet. Damit eine URL entfernt werden kann, muss eine der folgenden Bedingungen zutreffen:
Sobald ihr wisst, welche URL entfernt werden soll, fügt ihr diese in das Eingabefeld ein und wählt aus, ob die URL in der Google-Websuche oder in der Google-Bildersuche auftaucht. Dann einfach auf Hinzufügen klicken. Innerhalb eines Antrags könnt ihr bis zu 100 URLs auflisten. Sobald ihr alle URLs, die entfernt werden sollen, hinzugefügt habt, genügt ein Klick auf Antrag auf Entfernung einreichen.
http://www.beispiel.de/meinVerzeichnis
wird diese Angabe alle URLs entfernen, die mit diesem Pfad beginnen, also z.B.:
Damit ein Verzeichnis entfernt werden kann, müsst ihr es mittels der robots.txt-Datei sperren. Für das obige Beispiel würde die Datei http://www.beispiel.de/robots.txt z.B. folgendes beinhalten:
User-agent: GooglebotDisallow: /meinVerzeichnis
Eure gesamte Website
Wählt diese Option nur dann, wenn ihr eure gesamte Website aus dem Google-Index entfernen möchtet. Diese Option dient dazu, alle Unterverzeichnisse und Dateien zu entfernen. Ihr solltet diese Option nicht wählen, um die von euch nicht bevorzugte Domain (mit oder ohne www) aus dem Index zu entfernen. Wenn ihr also z.B. alle eure URLs mit dem „www“-Präfix indexiert haben möchtet, solltet ihr dieses Tool nicht dazu verwenden um die Löschung der Version ohne „www“ zu beantragen. Um dies zu erreichen solltet ihr über das Bevorzugte Domain-Tool einstellen, welche Version ihr im Index haben möchtet (und möglichst auch eine 301 Weiterleitung zur bevorzugten Version einrichten).
Um die Option „Ihre gesamte Website“ zu nutzen, müsst ihr die Site in der robots.txt-Datei sperren.
Cache-Kopie eines Google-Suchergebnisses
Wählt diese Option, um Seiten aus dem Google-Cache zu entfernen. Es gibt 2 Möglichkeiten, um Seiten für die Entfernung aus dem Cache vorzubereiten.
Verwenden des Meta-Tags „noarchive“ und die sofortige Entfernung beantragen
Den Inhalt einer Seite verändern
Wenn ihr die gecachte Version einer Seite entfernt haben wollt, weil sie Dinge enthält, die auf der Live-Seite nicht mehr vorhanden sind und ihr diese Inhalte nicht indexiert haben möchtet, könnt ihr an dieser Stelle die Entfernung der entsprechenden Seite aus dem Cache anfordern. Wir prüfen dann, ob sich der Inhalt der Live-Seite vom Inhalt der gecachten Version unterscheidet und entfernen in diesem Fall dann die gecachte Version. Nach 6 Monaten stellen wir automatisch wieder eine gecachte Version der jeweiligen Seite zur Verfügung (bis zu diesem Zeitpunkt wurde eure Seite mit großer Wahrscheinlichkeit erneut gecrawlt, so das die Cache-Version dann den aktuellen Stand der Seite wiederspiegelt). Falls ihr feststellt, dass wir die Seite bereits früher gecrawlt haben, könnt ihr mit diesem Tool anfordern, dass wir die neue gecachte Version bereits früher zur Verfügung stellen.
Den aktuellen Stand eines Antrags auf Entfernung abfragen
Die Anträge auf Entfernung werden als „Ausstehend“ angezeigt, bis sie bearbeitet wurden. Dann wechselt der Status entweder auf „Abgelehnt“ oder „Entfernt“. Im Allgemeinen wird ein Antrag abgelehnt, wenn er nicht den beschriebenen Anforderungen für die Entfernung entspricht.
Inhalte wieder hinzufügen
Wenn ein Antrag auf Entfernung erfolgreich war, seht ihr einen entsprechenden Eintrag im „Entfernter Inhalt“ – Tab. Die jeweiligen Inhalte können jederzeit wieder unserem Index hinzugefügt werden, indem ihr die Sperre in der robots.txt oder im robots Meta-Tag entfernt und auf wieder hinzufügen klickt. Ansonsten bleibt der Inhalt zunächst für 6 Monate entfernt. Falls nach den 6 Monaten der betreffende Inhalt immer noch gesperrt ist (robots.txt oder robots Meta-Tag) oder eine 404 oder 410 Status-Meldung zeigt, wird der Inhalt beim nächsten Crawl nicht dem Index hinzugefügt. Wenn der Inhalt nach den 6 Monaten jedoch für unsere Crawler sichtbar ist, wird der Inhalt erneut indexiert.
Antrag auf Entfernung von fremden Inhalten
Aber was ist, wenn ihr Inhalte auf einer Website, die nicht eure ist, entfernt haben wollt? Es ist jetzt auch einfacher geworden, dies zu erreichen. Unser neues Tool zum Entfernen von Webseiten führt euch Schritt für Schritt zum passenden Antrag auf Entfernung.
Da Google das Web nur indexiert, aber keinen Einfluss auf die Inhalte von Webseiten hat, können wir Einträge in unserem Index nur entfernen, wenn der jeweilige Webmaster die Inhalte gesperrt, verändert oder ganz entfernt hat. Wenn ihr bestimmte Inhalte entfernt haben wollt, solltet ihr euch an den jeweiligen Besitzer der Website wenden und anschliessend könnt ihr dieses Tool nutzen, um die Entfernung der Inhalte zu beschleunigen.
Falls ihr Suchergebnisse bekommt, die bestimmte Arten von persönlichen Daten enthalten, könnt ihr sogar einen Antrag auf Entfernung stellen, wenn es euch nicht möglich ist, den Fall mit dem Eigentümer der Webseite zu klären. Bei dieser Art von Antrag auf Entfernung müsst ihr nur eure Email-Adresse angeben, so dass wir euch direkt kontaktieren können.
Wenn ihr Suchergebnisse erhalten habt, die bei eingeschaltetem SafeSearch-Filter nicht erscheinen sollten, könnt ihr uns mit diesem Tool ebenfalls darüber informieren.
Ihr könnt den aktuellen Status von ausstehenden Anträgen prüfen und - wie bei der Version in den Webmaster-Tools - wird der Status automatisch auf „Entfernt“ oder „Abgelehnt“ gesetzt, sobald der Antrag bearbeitet wurde. Falls ein Antrag abgelehnt wurde, bedeutet dies, dass der Antrag nicht den Anforderungen für die Entfernung entsprochen hat. Bei Anträgen, bei denen es um persönliche Daten geht, wird der aktuelle Status nicht an dieser Stelle angezeigt, vielmehr erhaltet ihr von uns eine Email, die euch über die weiteren Schritte informiert.Was passiert mit dem bisherigen Tool zum Entfernen von URLs?
Falls ihr in der Vergangenheit bereits Anträge über dieses Tool gestellt habt, könnt ihr euch immer noch dort einloggen und den Status dieser Anträge prüfen. Verwendet für neue Anträge aber bitte nur noch die neue, verbesserte Version des Tools.
Wir haben außerdem unser robots.txt-Analyse-Tool aktualisiert, um den neuen Sitemaps-Befehl, für den wir letzte Woche unseren Support angekündigt haben, richtig zu interpretieren.
Wir hoffen, diese zusätzlichen Informationen helfen euch dabei einzuschätzen, wie andere eure Site sehen. Mehr Feedback ist jederzeit willkommen! Wir sind immer offen für eure Vorschläge.
Original
Letzte Woche sprach ich auf der BlogHer Business Konferenz über Fragen aus dem Bereich Suchmaschinenoptimierung. Ich hielt Vorträge zusammen mit Elise Bauer, die über die Macht der Community im Blogging sprach. Dabei hob sie besonders die Linkingstrukturen von Blogs hervor: Verlinkt Websites, die relevant und nützlich für eure Leser sind. Hinterlasst Kommentare auf Blogs, gebt an, dass ihr das Gespräch gerne weiterführen möchtet und setzt einen Link zu eurem Blog. Schreibt nützlichen Content, den andere Blogger verlinken möchten. Blogging verbindet Leser und Autoren und schafft echte Communities, in denen wertvoller Content ausgetauscht werden kann. Ich sprach eher allgemeiner über Search und ein paar Dinge, die es sich lohnt im Auge zu behalten, wenn ihr eure Website oder euren Blog aufbaut. Warum ist Search wichtig für ein Unternehmen?
Über Search lassen euch potentielle Kunden genau wissen, wonach sie suchen. Die Suche kann sich als ein mächtiges Werkzeug erweisen, wenn es darum geht, euren Kunden Inhalte zu liefern, die relevant und nützlich sind und ihren Erwartungen entsprechen. Identifiziert die gebräuchlichsten Suchanfragen, die einen Bezug zu eurer Marke haben. Sucht eure Zielgruppe in der Mehrzahl nach “Häuser zum Verkauf” oder “Immobilien”? Checkt eure Referrer Logs, um zu sehen, welche Suchanfragen am meisten Traffic generieren (eine Liste mit den häufigsten Suchanfragen, die eure Website in den Ergebnissen auftauchen lassen, findet ihr in der Abfragestatistik in den Webmaster-Tools). Entspricht der Content eurer Website diesen Suchanfragen? Ein Blog bietet eine großartige Möglichkeit, solchen Content zusätzlich anzubieten. Ihr könnt einzigartige, exakt zugeschnittene Artikel schreiben, die den Suchenden genau das bieten, was sie finden möchten.
Wie indexieren Suchmaschinen Websites?Der erste Schritt besteht darin, überhaupt entdeckt zu werden. Eine Suchmaschine muss wissen, dass bestimmte Seiten existieren. Im Allgemeinen stoßen Suchmaschinen auf Seiten, indem sie Links folgen, was auch bestens funktioniert. Wenn ihr neue Seiten habt, dann stellt sicher, dass relevante Websites auf sie linken und verlinkt diese Sites wiederum von eurer Website. Wenn ihr beispielsweise einen Blog für euer Unternehmen habt, dann könntet ihr einen Link von eurer Hauptseite zum letzten Blogpost einbauen. Ihr könnt Suchmaschinen auch über die einzelnen Seiten eures Webauftritts informieren, indem ihr eine Sitemap-Datei einreicht. Sowohl Google, Yahoo! als auch Microsoft unterstützen das Sitemap Protokoll. Falls ihr einen Blog habt, könnt ihr einfach den RSS-Feed eures Blogs schicken. Jedes Mal, wenn ihr euren Blog aktualisiert und damit der RSS-Feed aktualisiert wird, können Suchmaschinen die URL des letzten Postings erkennen. Damit ist auf jeden Fall sichergestellt, dass die Suchmaschinen sofort über das Update informiert sind. Auch wenn eine Suchmaschine eure Seiten kennt, muss sie darüber hinaus auch auf diese zugreifen können. In den Crawling-Fehler-Reports in den Webmaster-Tools könnt ihr ersehen, ob wir Probleme haben, eure Website zu crawlen. Diese Reports geben genau an, welche Seiten wir nicht crawlen konnten, zu welchem Zeitpunkt wir versucht haben, sie zu crawlen und was der Fehler war. Wenn Googlebot auf die Seiten zugreifen kann, crawlen wir den Content. Ihr solltet sicherstellen, dass das Thema eurer Seite sich im Text widerspiegelt. Wie sieht die Seite aus, wenn Javascript, Flash und Bilder im Browser ausgeschaltet sind? Verwendet ALT-Text und aussagekräftige Dateinamen für Bilder. Wenn beispielsweise der Name eurer Firma in einer Graphik erscheint, dann sollte der ALT-Text auch diesen Firmennamen enthalte und nicht etwa nur z.B. das Wort „Logo“. Stellt den Text in HTML dar und nicht in Flash oder Bildern. Das hilft nicht nur Suchmaschinen, euren Content zu indexieren, sondern macht eure Website auch leichter zugänglich für Besucher mit Internet-Browsern für Mobiltelefone, Screenreadern oder älteren Browsern.
Um was geht es in eurer Website?
Hat jede Seite einen eindeutigen Titel und Metadescription-Tags, die den Content beschreiben? Tauchen die Begriffe, an denen eure Besucher interessiert sind, im Content auf? Sucht nach euren Seiten mit Suchanfragen, von denen ihr annehmt, dass sie am häufigsten durchgeführt werden, und sorgt dafür, dass diese Begriffe auch tatsächlich auf eurer Website enthalten sind. Welches der folgenden Beispiele gibt Besuchern und Suchmaschinen eher darüber Auskunft, um was es auf der betreffenden Website geht? Option 1
Falls du vom Wahnsinn bedroht bist und am Rande der Verzweiflung stehst – schreibe dich in einen unserer Onlinekurse ein! Lerne die wirkliche Bedeutung des Wortes “unfassbar” kennen. Entdecke das Geheimnis der wahren Liebe, die den Tod besiegt! Entwickle die Fähigkeit, deine Identität nur mit Hilfe einer Maske zu verbergen. Und wenn du den Kurs erfolgreich abschließt, gibt’s ne Erdnuss. Ehrlich.
Option 2Hier sehen Sie die Übersicht unseres Kursangebotes. Wir bieten eine umfassende Ausbildung und wertvolle Geschenke bei erfolgreichem Kursabschluss. Wenn ihr zu anderen Seiten eurer Website linkt, dann sorgt dafür, dass der Linktext (d.h. der Ankertext, der in den Links enthalten ist) eine Beschreibung eurer Seiten enthält. Zum Beispiel solltet ihr zu eurer Produktseite lieber mit dem Text “Inigo Montoyas Schwertersammlung” oder "Buttercups-Kleider” linken als mit “Produktseite” oder dem allseits beliebten “Klicken Sie hier”. Warum sind Links wichtig?Links sind aus einer Vielzahl von Gründen wichtig. Sie sind der Schlüssel dazu, Traffic für eure Website zu generieren. Denn durch Links können potentielle Besucher von eurer Website erfahren. Durch Links zu anderen Websites könnt ihr Besuchern wertvolle Information anbieten. Und genauso wie Links die Aufmerksamkeit von Besuchern auf eure Website lenken, werden auch Suchmaschinen darauf aufmerksam. Links informieren also sowohl potentielle Besucher als auch Suchmaschinen über eure Website. Der Linktext gibt Auskunft darüber, worum es auf euer Website geht, und die Anzahl relevanter Links zu eurer Website ist ein Indikator dafür, wie beliebt und nützlich diese Seiten sind. (Eine Linkliste und den dort am häufigsten verwendeten Linktext findet ihr in den Webmaster-Tools.) Ein Blog ist eine wunderbare Möglichkeit, um Links aufzubauen, da ihr hier regelmäßig neuen Content kreieren könnt. Je nützlicher der Content ist, desto größer ist die Chance, dass jemand diesen Content als wertvoll für seine Leser erachtet und euren Blog verlinkt. Es gab auf der BlogHer Session mehrere Fragen zum Thema “Linken zu anderen Sites”. Führt das nicht dazu, dass Leser eure Website verlassen? Und führt dies nicht auch dazu, dass euch der PageRank “entweicht”? Ganz und gar nicht. Leser werden es schätzen, dass ihr sie über weitere Quellen informiert, die für sie von Interesse sein könnten, und sie werden euch als eine wertvolle Informationsquelle anerkennen (und auf der Suche nach mehr wieder zurückkommen!). Zudem ist PageRank keine Waage, auf der eingehende Links gegen ausgehende Links aufgewogen werden und sich gegenseitig annullieren. Links sind ein Teil des Content, genau wie jedes Wort im Text. Ihr möchtet eure Website so nützlich wie möglich für eure Leser gestalten und relevante Links stellen neben dem Schreiben von Content eine Methode dazu dar. Der Schlüssel ist überzeugender ContentDas Hauptziel von Google ist es, die nützlichsten und relevantesten Suchergebnisse anzubieten. Das ist der entscheidende Punkt, wenn es darum geht, eure Website zu optimieren. Wie könnt ihr eure Website zum nützlichsten und relevantesten Ergebnis für die Suchanfragen machen, die für euch von Interesse sind? Das wird euch nicht nur in Bezug auf die Suchergebnisse weiterhelfen, die im Grunde ohnehin nur Mittel zum Zweck sind. Woran ihr eigentlich interessiert seid, ist, eure Besucher zufrieden zu stellen und sie dadurch zum Wiederkommen zu bewegen. Und wirklich überzeugenden Content zu schaffen, ist der Schlüssel dazu.
OriginalPost von Vanessa Fox (Übersetzung von Claudia, Search Quality)
Wir haben die Information, die wir euch zur Verfügung stellen, erweitert. Anstatt einzelner Keywords zeigen wir jetzt den gesamten Text an, mit dem eure Website verlinkt wird. Darüber hinaus haben wir die Anzahl der angezeigten Linktexte auf 100 erhöht. Um die Liste so informativ wie möglich zu gestalten, fassen wir gleiche Linktexte unter Entfernung von Großschreibung und Zeichensetzung zusammen. Beispielsweise haben mehrere Sites eure Website mit dem folgenden Text verlinkt:
Site 1 "Buffy, blonde girl, pointy stick"Site 2 "Buffy blonde girl pointy stick"Site 3 "buffy: Blonde girl; Pointy stick."
"buffy blonde girl pointy stick"
Ihr könnt die Liste finden, indem ihr euch in die Webmaster-Tools einloggt, eure Website aufruft und dann auf Statistiken > Seitenanalyse geht. Ihr könnt die Daten als Tabelle abrufen und als CSV-Datei herunterladen.
Unter Links > Externe Links könnt ihr auch die einzelnen Links sehen, die auf eure Website verweisen. Wir haben vor ein paar Wochen unter Erfahrt mehr über eure Links mehr dazu gepostet. Wir hoffen, dass diese Details einen zusätzlichen Einblick in euren Traffic geben.
Mit dem site: Befehl könnt ihr gezielt innerhalb einer bestimmten Website suchen. Über die Suche site:googlewebmastercentral-de.blogspot.com Goethe findet ihr beispielsweise das Wort "Goethe" in diesem Blog.Webmaster nutzen diesen Befehl manchmal, um eine Liste indexierter Seiten einer Website anzuzeigen, z. B. site:www.google.com.Die Verwendung geschieht ohne Leerzeichen zwischen dem Doppelpunkt und der URL. Eine Suche nach www.site.de liefert URLs beginnend mit www. Für eine Suche in site.de werden alle Subdomains der URL angezeigt. (Wird beispielsweise nach site:google.de gesucht, so liefert das Ergebnis URLs wie www.google.de, video.google.de und news.google.de etc.). Für die site: Suche könnt ihr Google oder euer Webmaster-Tools Konto unter Statistiken > Index-Statistik verwenden. Je nachdem, wie ihr den Link zu eurem Konto hinzugefügt habt, wird er entweder mit oder ohne www dargestellt.Im Allgemeinen vermeiden wir es, in den Ergebnissen der Google-Suche Seiten anzuzeigen, deren Inhalt dupliziert erscheint (z. B. Seiten mit dem gleichen Titel und der gleichen Beschreibung). Unser Ziel ist es, vielfältige Ergebnisse zu liefern. Im Unterschied hierzu möchten wir dem Nutzer bei der Verwendung des site: Befehls eine Liste aller Seiten einer Webseite anzeigen. In Einzelfällen führt eine site: Suche jedoch trotz inhaltlich verschieder Seiten nicht zu einer vollständigen Liste. Hierbei handelt es sich jedoch ausschließlich um ein Problem bei der Darstellung, an dem wir gegenwärtig arbeiten. Das Ranking der Suchergebnisse wird dadurch nicht beeinflusst. Eine vollständige Liste aller Seiten erhaltet ihr, indem ihr auf den Link "die Suche unter Einbeziehung der übersprungenen Ergebnisse wiederholen" klickt.
Das beschriebene Verhalten betrifft lediglich die site: Suche ohne weiteren Suchbegriff. Die Seiten, die zunächst nicht angezeigt wurden, werden weiterhin für die normale Google-Suche aufgeführt. Zudem ist diese Darstellung unabhängig von den zusätzlichen Suchergebnissen. Alle Seiten in den zusätzlichen Suchergebnissen werden mit dem Vermerk "Zusätzliches Ergebnis" neben der URL gekennzeichnet.Da die Veränderung der Anzeige aller Suchergebnisse für eine site: Suche keinen Einfluss auf das Ranking der Ergebnisse hat, werden wir diese Verbesserung in einer aktualisierten Version des site: Befehls vornehmen. Die Veröffentlichung wird im Zuge regelmäßiger Aktualisierungen in den nächsten Wochen stattfinden.
Post von Vanessa Fox (Übersetzung von Alexander, Search Quality)