Webmaster-Zentrale Blog
Offizielle Informationen zum Crawling und zur Indexierung von Webseiten und News für Webmaster
Wie man unerwünschte Inhalte los wird, Teil 2: Entfernen von vertraulichem Text
Dienstag, 20. April 2010
Nichts ist vor Änderungen gefeit. Wie wir in unserem
letzten Post zum Entfernen von URLs
gesehen haben, könnt ihr eine Seite eurer Website komplett blockieren oder entfernen. Vielleicht möchtet ihr aber auch nur Teile einer Seite oder bestimmte Textabschnitte ändern. Je nachdem, wie oft eine Seite gecrawlt wird, kann es eine Weile dauern, bis sich diese Änderungen in den Suchergebnissen widerspiegeln. In diesem Blog-Post wird erläutert, wie ihr vorgehen könnt, falls die Suchergebnisse immer noch alten, entfernten Content aufweisen. Das kann in Form eines "Snippets" der Fall sein oder auf der Cache-Seite, die mit dem Suchergebnis verlinkt ist. Es ist sinnvoll, diese Maßnahme zu ergreifen, falls der alte Content vertrauliche Informationen enthält, die umgehend entfernt werden müssen. Wenn ihr nur ganz normal eine Website aktualisiert, braucht ihr sie nicht durchzuführen.
Sehen wir uns einmal das folgende fiktive Beispiel für ein Suchergebnis an:
Um den im Snippet (oder auf der verlinkten, im Cache gespeicherten Seite) angezeigten Content zu ändern,
müsst ihr zunächst den Content auf der aktuellen Onlineversion der Seite bearbeiten
. Die Suchergebnisse enthalten aufgrund der automatischen Prozesse von Google so lange Teile des ursprünglichen Contents, bis der öffentlich sichtbare Content der Seite geändert wird.
Sobald dies erledigt ist, habt ihr mehrere Möglichkeiten, um diese Änderungen auf unsere Suchergebnisse zu übertragen:
1.
Ihr wartet, bis der Googlebot die Seite erneut crawlt und indexiert.
Das ist die normale Methode, mit der ein Großteil des Contents auf Google aktualisiert wird. Je nachdem, wie oft der Googlebot die betreffende Seite crawlt, kann das recht lange dauern. Nachdem die Seite erneut gecrawlt und indexiert wurde, sollte der alte Content nicht mehr angezeigt werden, da er durch den aktuellen Content ersetzt wurde. Sofern das Crawling der betreffenden Seite durch den Googlebot nicht blockiert ist (entweder durch "robots.txt" oder weil kein ordnungsgemäßer Zugriff auf den Server möglich ist), erfolgt dieser Vorgang automatisch, d. h., ihr müsst nichts unternehmen. Das Crawling und die Indexierung können im Allgemeinen nicht beschleunigt werden, da diese Prozesse vollautomatisch erfolgen und von zahlreichen externen Faktoren abhängig sind.
2. Ihr fordert mit dem
Tool zur Entfernung von URLs
die
Entfernung von Content an, der von der Webseite einer anderen Person entfernt wurde.
Bei Verwendung dieses Tools müsst ihr unbedingt
die genaue URL der geänderten Seite
eingeben. Dann gebt ihr an, dass der Content von der Seite entfernt wurde, und gebt ein oder mehrere Wörter ein, die vollständig von der betreffenden Seite entfernt wurden.
Keines der eingegebenen Wörter darf auf der Seite vorkommen. Sollte ein Wort an einer anderen Stelle auf der Seite vorkommen, wird eure Anforderung auch dann abgelehnt, wenn es von einem anderen Teil der Seite entfernt wurde. Vergewissert euch also, dass die Wörter, die ihr eingebt, nirgendwo auf der Seite mehr vorkommen. Angenommen, ihr hättet im obigen Beispiel "streng geheimen Erfassungsgerät Velocitus Incalculii" entfernt. In diesem Fall solltet ihr diese Wörter angeben und nicht etwas wie "mein Projekt". Sollte jedoch das Wort "streng" oder "Erfassungsgerät" noch an anderer Stelle auf der Seite vorkommen, wird die Anforderung abgelehnt. Am sichersten ist es, nur ein einziges Wort einzugeben, von dem ihr euch sicher seid, dass es nirgends auf der Seite mehr vorkommt.
Sobald eure Anforderung bearbeitet und festgestellt wurde, dass die übermittelten Wörter nicht mehr auf der Seite vorkommen, enthält das Suchergebnis kein Snippet mehr und die Seite im Cache ist nicht mehr verfügbar. Die Titel und die URL der Seite sind nach wie vor sichtbar und der Eintrag kann weiterhin in Suchergebnissen für Suchvorgänge enthalten sein, die mit dem entfernten Content zusammenhängen. Dies kann beispielweise bei einer Suche nach [
velocitus incalculii
] der Fall sein, obwohl diese Wörter nicht mehr im Snippet enthalten sind. Nachdem die Seite jedoch erneut gecrawlt und indexiert wurde, enthalten unsere Suchergebnisse das neue Snippet und die neue im Cache gespeicherte Seite.
Wichtig ist, dass wir die Entfernung des Worts bzw. der Wörter durch Aufrufen der Seite überprüfen müssen. Falls die Seite nicht mehr vorhanden ist und der Server ordnungsgemäß den
HTTP-Statuscode 404 oder 410
zurückgibt, sodass wir nicht auf die Seite zugreifen können, ist es unter Umständen sinnvoller,
eine komplette Entfernung der Seite anzufordern
.
3. Ihr fordert über das Tool zur Entfernung von URLs von Google Webmaster-Tools die
Entfernung von Informationen auf einer Seite eurer eigenen Website an
.
Sofern ihr Zugriff auf die betreffende Website habt und in
Google Webmaster-Tools
bestätigt habt, dass ihr ihr Inhaber seid, könnt ihr dort über das Tool zur Entfernung von URLs (unter "Website-Konfiguration > Crawler-Zugriff") anfordern, dass das Snippet und die im Cache gespeicherte Seite entfernt werden, bis die Seite erneut gecrawlt wurde. Zur Verwendung dieses Tools müsst ihr nur
die genaue URL der Seite
einreichen. Entfernte Wörter müsst ihr hier nicht angeben. Sobald eure Anforderung verarbeitet wurden, werden das Snippet und die im Cache gespeicherte Seite aus den Suchergebnissen entfernt. Der Titel und die URL der Seite werden nach wie vor angezeigt; außerdem kann die Seite auch weiterhin im Ranking von Suchergebnissen für Abfragen in Bezug auf entfernten Content vorkommen. Nachdem die Seite erneut gecrawlt und indexiert wurde, kann das Suchergebnis mit einem gemäß dem neuen Content aktualisierten Snippet und einer aktualisierten im Cache gespeicherten Seite angezeigt werden.
Google führt die Indexierung und das Ranking von Elementen nicht nur auf Grundlage des Contents einer Seite durch, sondern auch auf Grundlage anderer externer Faktoren, beispielsweise der eingehenden Links zu der URL. Aus diesem Grund ist es möglich, dass eine URL auch noch dann in Suchergebnissen für nicht mehr auf der Seite vorhandenen Content vorkommt, wenn die Seite bereits erneut gecrawlt und indexiert wurde. Mit dem Tool zur Entfernung von URLs können das Snippet und die im Cache gespeicherte Seite aus einem Suchergebnis entfernt werden, der Titel des Suchergebnisses wird jedoch weder geändert noch entfernt. Auch die angezeigte URL wird nicht geändert und es wird nicht verhindert, dass die Seite für Suchanfragen in Bezug auf aktuellen oder vorherigen Content angezeigt wird. Falls dies für euch wichtig ist, solltet ihr sicherstellen, dass die URL die Voraussetzungen für
eine vollständige Entfernung aus unseren Suchergebnissen
erfüllt.
Entfernen von Content, der nicht im HTML-Format vorliegt
Hat der geänderte Content kein (X)HTML-Format, was beispielsweise der Fall ist, wenn ein Bild, eine Flash-Datei oder eine PDF-Datei geändert wurde, könnt ihr das Tool zur Entfernung von im Cache gespeicherten Content nicht verwenden. Sollte es also wichtig sein, dass der alte Content in den Suchergebnissen nicht mehr sichtbar ist, erreicht ihr dies am schnellsten, indem ihr die URL der Datei ändert, sodass die alte URL den HTTP-Ergebniscode 404 zurückgibt, und die alte URL mit dem Tool zur Entfernung von URLs löscht. Bei einer normalen Aktualisierung eurer Informationen durch Google kann die Aktualisierung der Vorschau von Inhalten, die kein HTML-Format aufweisen (beispielsweise
Schnellansicht-Links für PDF-Dateien
), nach dem erneuten Crawlen länger dauern, als dies bei normalen HTML-Dateien der Fall ist.
Verhindern der Anzeige von Snippets oder im Cache gespeicherten Versionen
Als Webmaster habt ihr die Möglichkeit, mithilfe von
robots-Meta-Tags
die Anzeige von Snippets oder im Cache gespeicherten Versionen aktiv zu verhindern. Die Entfernungstools benötigst ihr dazu nicht. Diese Vorgehensweise wird nur für Ausnahmefälle empfohlen, denn das Snippet hilft Nutzern, ein für sie relevantes Suchergebnis schneller zu identifizieren, und eine im Cache gespeicherte Seite ermöglicht es ihnen, euren Content auch dann anzuzeigen, falls euer Server nicht verfügbar ist. Ihr könnt jedoch mit dem robots-Meta-Tag "nosnippet"
die Anzeige eines Snippets unterbinden
oder mit dem robots-Meta-Tag "noarchive" die Speicherung einer Seite im Cache deaktivieren. Wird dies auf vorhandenen, bekannten Seiten geändert, muss der Googlebot die entsprechenden Seiten zuerst erneut crawlen und indexieren, damit die Änderung in den Suchergebnissen widergespiegelt wird.
Dieser Blog-Post verdeutlicht hoffentlich einige der Prozesse, die dem Tool zur Entfernung von URLs zugrunde liegen. In unserem nächsten Blog-Post beschäftigen wir uns mit Möglichkeiten, die ihr habt, falls ihr die Entfernung von Content anfordern möchtet, der euch nicht gehört. Bleibt dran!
Feedback und Fragen im
Webmaster-Forum
sind wie immer willkommen.
Hier findet ihr den dritten Teil der Serie:
Entfernen von Content, der euch nicht gehört
URL removals explained, part II: Removing sensitive text from a page (English version)
Post von John Mueller, Webmaster Trends Analyst, Google Schweiz (Veröffentlicht von Jörg Pacher, Search Quality)
Labels
#NoHacked
2
2017
1
Accessibility
13
AJAX
1
AMP
7
Android
2
api
1
App-Indexierung
3
Best Practices
99
Bildersuche
2
captcha
1
Chrome
4
Code
12
Crawling
1
Crawling und Indexierung
126
Diskussionsforum
15
Duplicate Content
17
Dynamic Rendering
1
Einsteiger
8
Event
1
events
1
Feedback
1
Geo-Targeting
11
Google Analytics
6
Google Dance
1
Google News
1
Google Places
4
Google-Assistant
1
Google-Suche
59
Google+
9
Hacking
16
Hangouts
1
https
3
JavaScript
3
Kanonische URL
1
Kommentare
1
Konferenz
19
Lighthouse
3
Links
18
Malware
17
Mobile
38
Mobile-first indexing
1
Nachrichten-Center
16
Optimisation
3
PageSpeed Insights
2
Penalties
1
Performance
3
Ranking
1
reCaptcha v3
1
Rendering
2
Rich Snippets
18
Richtlinien für Webmaster
36
robots.txt
7
Safe Browsing
5
Search Console
19
Search Results
1
Security
4
Seitenzugriff
1
SEO
4
Sicherheit
38
Site Clinic
5
Sitemaps
30
Spam Report
9
SSL
1
Structured Data
8
Tools und Gadgets
17
Verschlüsselung
1
Video
132
Webmaster blog
1
Webmaster Community
1
Webmaster-Academy
1
Webmaster-Tools
154
webspam
3
Archiv
2020
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
2019
Dez.
Nov.
Okt.
Sept.
Juni
Mai
Feb.
Jan.
2018
Dez.
Nov.
Okt.
Sept.
Juli
Juni
Mai
Apr.
Feb.
Jan.
2017
Dez.
Nov.
Juni
Apr.
März
Jan.
2016
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Jan.
2015
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Mai
Apr.
März
Feb.
Jan.
2014
Nov.
Okt.
Sept.
Aug.
Juni
Mai
Apr.
März
Feb.
Jan.
2013
Dez.
Nov.
Okt.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2012
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2011
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2010
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2009
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2008
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2007
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feed
Forum für Webmaster
Webmaster-Sprechstunden
Webmaster-Tools-Hilfe
Developers-Site für Webmaster