Webmaster-Zentrale Blog
Offizielle Informationen zum Crawling und zur Indexierung von Webseiten und News für Webmaster
Frohe Festtage und einen guten Rutsch ins neue Jahr!
Freitag, 20. Dezember 2013
Das Jahr neigt sich dem Ende zu und wir wollen diese Gelegenheit dazu nutzen, für euch das Jahr 2013 zusammenzufassen und ein paar Highlights zu benennen. Dieses Jahr stand im Zeichen der Transparenz und erweiterter Hilfe für Webmaster. Im Sinne erhöhter Transparenz haben wir folgende Initiativen in 2013 durchgeführt:
Wie funktioniert die Google-Suche
: eine animierte Darstellung der Prozesse hinter der Google-Suche von Crawling über Indexierung hin zu den Suchergebnissen
Webmaster-Spickzettel
: eine Übersicht über die wichtigsten Aspekte der Suchmaschinenoptimierung für Beginner
Manuelle Webspam-Maßnahmen nun sichtbar in den Webmaster-Tools
: Details für die indexierten Seiten, welche von manuellen Webspam-Maßnahmen betroffen sind
Erstellen einer SEO-Strategie
: ein 15-minütiges Video für Unternehmen über eine strategische Vorgehensweise für SEO
Die publizierten Hilfestellungen für Webmaster in 2013 lassen sich hauptsächlich fünf verschiedenen Themenfeldern zuordnen:
Strukturierte Daten
Inhalte auf Websites, welche als so genannte
strukturierte Daten
erkannt werden, ermöglichen eine noch reichhaltigere Darstellung in den Suchergebnissen wie beispielsweise durch “rich snippets”. Mit dem
Data-Highlighter in den Google Webmaster-Tools
könnt ihr Google über strukturierte Daten im Bezug auf Produkte, lokale Unternehmen, Filme, Restaurants und andere Informationen hinweisen. Außerdem wurde das
Dashboard für strukturierte Daten um vereinfachte Markup-Fehlerberichte ergänzt
, so dass Elemente mit Fehlern nun schneller identifiziert werden können.
Abbildung 1: Rich Snippets
Internationale Websites
Mit der steigenden Anzahl an mehrsprachigen und internationalen Seiten wird die richtige Konfiguration dieser ein zunehmend bedeutendes Thema. Die
6 Tipps für internationale Websites
geben eine gute Übersicht, was über die reine Übersetzung der Inhalte in andere Sprachen hinaus ratsam ist. Ebenso haben wir vorgestellt, wie mit hreflang Tags Einfluss auf die dem User
ausgelieferte Seiten- bzw. Sprachversion
genommen werden kann.
Abbildung 2: Nutzung spezifischer Länderseiten
Hacking
Es gibt nun eine
neue Hilfeseite für Hacking
:
http://www.google.de/intl/de/webmasters/hacked/
, welche Webmastern deren Websites manipuliert wurden bei der Wiederherstellung unterstützt. Die Seite verfügt über Videomaterial und eine Übersicht über den Prozess der Wiederherstellung. Wir hoffen natürlich, dass wir euch nie auf der Seite begrüßen müssen. Zusätzlich wurde der Bereich
“Sicherheitsprobleme” in den Google Webmaster-Tools eingeführt
, welcher Details zu eventuellen Problemen anführt und damit den Prozess der Wiederherstellung für euch weiter vereinfacht.
Abbildung 3: Hacking-Hinweis in den Suchergebnissen
Websites für Mobilgeräte
Der zuvor in Englisch veröffentlichte
Leitfaden zum Erstellen optimierter Websites für Mobilgeräte
, wurde neben 10 anderen Sprachen nun auch in deutsch veröffentlicht. Zusätzlich dazu sind
Smartphone-Crawling-Fehler nun einsehbar in Google Webmaster-Tools
. Manche für Mobilgeräte optimierte Websites sind falsch konfiguriert und zeigen dem User somit Fehlerseiten oder irrelevante Seiten. Einige dieser Fehler lassen sich durch eine Diagnose mittels der Übersicht über Smartphone-Crawling-Fehler nun schneller ausfindig machen.
Abbildung 4: Überischt über Smartphone-Crawling-Fehler
Urheberschaft und duplizierte Inhalte
Das in 2012 eingeführte rel=author Tag ermöglicht es Autoren, Inhalte entsprechend als ihre zu markieren, während Nutzer die Möglichkeit haben, schneller Inhalte des gleichen Autors zu finden. Da dieses Tag recht neu ist, haben wir die
häufigsten Fragen zu rel=author beantwortet
. Desweiteren haben wir auch die
5 häufigsten Fehler bei der Verwendung des rel=canonical Tags
addressiert. Das rel=canonical Tag ermöglicht euch, eure Inhalte bevorzugt gegenüber anderen indexierten duplizierten Inhalten hervorzuheben.
Abbildung 5: Google+ Profilbild in den Suchergebnissen
Wir möchten allen Lesern dieses Blog für ihre Treue und ihr Interesse danken. Ebenso danken wir den Teilnehmern in den
Webmastersprechstunden
und den Usern unseres
Forums für Webmaster
für die Nutzung unserer angebotenen Ressourcen. Ein besonderes Dankeschön geht an alle aktiven Forummitglieder inklusive unserer Top-Beitragenden Alter-Falter!, en001, Gantea, luzie, Peter, Phantastor, Thomas und uzimmi für interessante Diskussionen, viel Fachwissen und zufriedene Forumbesucher durch beantwortete Fragen.
Besten Dank für ein grandioses 2013, schöne Feiertage und einen guten Rutsch ins neue Jahr!
Sven,
Uli
,
John
&
Johannes
Post von
Johannes Mehlem
(Search Quality Team)
Verbesserte URL-Entfernung auf Websites Dritter
Mittwoch, 18. Dezember 2013
Inhalte im Internet werden verändert oder entfernt. Daher ist es manchmal sinnvoll, Suchergebnisse für diese Inhalte schnell aktualisieren zu lassen. Dafür möchten wir euch heute unser verbessertes öffentliches Tool zum Entfernen von URLs vorstellen. Mit diesem Tool wird es leichter, Aktualisierungen zu beantragen, die auf veränderten Websites Dritter beruhen. Das Tool findet ihr unter
https://www.google.com/webmasters/tools/removals.
Dieses Tool wird für Entfernungen auf Websites von anderen verwendet. Ihr könnt es zum Beispiel einsetzen, wenn eine Seite vollständig entfernt wurde oder wenn sie nur verändert wurde und das Snippet und die im Cache gespeicherte Seite entfernt werden soll. Falls ihr der Webmaster der Website seid, ist es einfacher und schneller,
die URL-Entfernungsfunktion in den Webmaster-Tools
zu verwenden.
Entfernung einer Seite aus den Suchergebnissen beantragen
Wenn die Seite vollständig entfernt wurde, könnt ihr einen Antrag auf Entfernung der Seite aus den Google-Suchergebnissen stellen. Dafür ist es wichtig, dass die Seite den richtigen
HTTP-Ergebniscode
(403, 404 oder 410) zurückgibt, über einen
"noindex"-Robots-Meta-Tag
verfügt oder
durch die robots.txt-Datei blockiert
ist. Das Blockieren durch die robots.txt-Datei kann die Indexierung der URL nicht dauerhaft verhindern. Ihr könnt den HTTP-Ergebniscode mit einer
HTTP-Header-Prüfung
testen. Wir versuchen zwar,
"Soft-404-Fehler" zu erfassen,
bevorzugen jedoch Websites, die einen eindeutigen Antwortcode zurückgeben. Im Folgenden wird beschrieben, wie ihr eine Seite zur Entfernung einreicht:
Gebt die URL der Seite ein. Wie oben erwähnt, benötigt ihr dazu genau die gleiche URL, die in unseren Suchergebnissen indexiert wurde.
So findet ihr die URL
:
Das Analyse-Tool bestätigt, dass die Seite nicht mehr vorhanden ist. Bestätigt euren Antrag, um die Einreichung abzuschließen.
Und das war's auch schon.
Entfernung des Caches und des Snippets einer Seite aus den Suchergebnissen beantragen
Wenn die Seite nicht entfernt wurde, könnt ihr uns über dieses Tool auch mitteilen, dass auf einer Seite Text wie beispielsweise ein Name entfernt oder verändert wurde. Das Snippet und die im Cache gespeicherte Seite werden aus den Suchergebnissen von Google entfernt, bis unsere Systeme die Seite erneut vollständig verarbeitet haben. Dadurch werden weder der Titel noch das Ranking beeinflusst. Zusätzlich zur URL der Seite benötigt ihr mindestens ein Wort, das vorher auf der Seite zu finden war, nun aber entfernt worden ist. In unserer Hilfe findet ihr unter
Cache-Entfernungen
mehr Informationen.
Gebt die URL der Seite ein, die verändert wurde. Es muss genau die gleiche URL wie in unseren Suchergebnissen sein.
So findet ihr die URL
:
Bestätigt, dass die Seite aktualisiert oder entfernt wurde und dass der Cache-Inhalt und das Snippet veraltet sind und nicht mehr mit dem aktuellen Inhalt übereinstimmen.
Gebt nun ein Wort ein, das nicht mehr in der aktuellen Version der Seite erscheint, aber immer noch im Cache oder Snippet sichtbar ist. Weitere Details findet ihr in unseren
älteren Blogposts über Entfernungen
.
Zusätzliche Informationen findet ihr in unserer
Hilfe
sowie auch in unseren älteren Blogposts zu den Themen
URLs & Verzeichnisse entfernen
,
im Cache gespeicherten Inhalt entfernen und aktualisieren
,
Inhalt entfernen, der euch nicht gehört
sowie
Anträge verfolgen und was nicht entfernt werden sollte.
Wir hoffen, dass euch diese Veränderungen das Einreichen von Anträgen zur Entfernung erleichtern. Wir freuen uns auf euer Feedback in unserem
Forum für Webmaster
, wo andere Nutzer euch möglicherweise bei schwierigeren Problemen mit Entfernungen helfen können.
Post von
John Mueller
, Webmaster Trends Analyst (Veröffentlicht von
Johannes Mehlem
, Search Quality Team)
Dashboard für strukturierte Daten: Einfachere Fehlerbehebung mit neuen Markup-Fehlerberichten
Donnerstag, 12. Dezember 2013
Fehler in strukturierten Daten
Seit seiner
Einführung
im letzten Jahr ist das Dashboard für strukturierte Daten sehr schnell zu einer der
beliebtesten
Funktionen in Webmaster-Tools avanciert.
Das Dashboard wurde erweitert und
Fehler können nun noch einfacher behoben werden
, denn jetzt könnt ihr sehen, wie
Google den
mit Markup versehenen
Inhalt eurer Website
interpretiert.
Ab heute werden
Elemente mit Fehlern im Dashboard für strukturierte Daten angezeigt.
Diese neue Funktion ist in Zusammenarbeit mit Webmastern entstanden,
die
wir i
m Juni eingeladen hatten,
an einer frühen Testphase (Englisches Formular)
für Markup-Fehlerberichte in Webmaster-Tools teilzunehmen.
Das daraus gewonnene
Feedback
wurde verwendet, um
die
Funktionen des Dashboards für strukturierte Daten zu verbessern.
Ein Element steht hier für ein Top-Level-Element strukturierter Daten, das im HTML-Code getaggt ist. Geschachtelte Elemente werden nicht berücksichtigt.
Die Elemente werden entsprechend dem Datentyp zusammengefasst und nach Anzahl der Fehler angeordnet:
Wir haben rechts neben der Grafik im Dashboard eine separate Fehlertabelle hinzugefügt, damit ihr die Elemente und Fehler im zeitlichen Verlauf vergleichen könnt.
So können Zusammenhänge zwischen Änderungen, die ihr auf der Website vorgenommen habt, und Markup-Fehlern, die
auftreten – oder verschwinden
– erkannt werden.
Unsere Daten-Pipelines wurden ebenfalls aktualisiert, um eine umfassendere Berichterstellung zu ermöglichen. Deshalb kann es sein, dass ihr zunächst weniger Datenpunkte in dem
chronologischen
Diagramm seht.
So behebt ihr Fehler bei der Markup-Implementierung
Um ein Problem mit einem bestimmten Inhaltstyp zu untersuchen, klickt einfach darauf und wir zeigen euch die Markup-Fehler, die wir für diesen Inhaltstyp gefunden haben.
Ihr könnt alle Fehler auf einmal ansehen oder unter Verwendung der Tabs oben nach Fehlertyp filtern:
Prüft,
ob
das Markup den
Richtlinien für die Implementierung des jeweiligen Inhaltstyps
entspricht.
In unserem Beispiel – Ereignis-Markup – fehlen bei einigen Elementen die Eigenschaften
startDate
oder
name
.
Ebenso werden fehlende Eigenschaften für verschachtelte Inhaltstypen angezeigt. Hierbei könnte es sich beispielsweise um ein Bewertungselement innerhalb eines Produktelements handeln, in unserem Fall handelt es sich jedoch um die Eigenschaft
lowprice
.
Klickt auf die URLs in der Tabelle, um Details zu fehlenden Elementen und zum Markup aufzurufen, die wir beim letzten Crawl erfasst haben.
Ihr könnt euer Markup auch mithilfe der Schaltfläche "Live-Daten testen"
im
Test-Tool für strukturierte Daten
testen.
Bei der Überprüfung mehrerer URLs
wird häufig
ein gemeinsamer Fehler entdeckt, der mit einer einzigen Änderung behoben werden kann,
zum Beispiel durch die Anpassung einer Einstellung oder Vorlage in eurem Content-Management-System
.
Behebt die Fehler und prüft die neue Implementierung im
Test-Tool für strukturierte Daten
.
Nach dem erneuten Crawlen und Indexieren werden die Änderungen im Dashboard für strukturierte Daten angezeigt.
Wir hoffen, dass euch diese neue Funktion bei der Verwaltung von
strukturierten Daten
auf euer Website hilft
.
In den nächsten Monaten werden wir weitere
Fehlertypen hinzufügen.
Wir freuen uns
auf eure Kommentare und Fragen hier in diesem Blog oder im Abschnitt "Strukturierte Daten" im
Forum für Webmaster
.
Post von
Mariya Moeva
, Webmaster Trends Analyst,
Y
aniv Loewenstein und
Matan Zinger, Webmaster-Tools-Team (Veröffentlicht von
Johannes Mehlem
, Search Quality Team)
Smartphone-Crawling-Fehler in den Webmaster-Tools
Mittwoch, 11. Dezember 2013
Manche für Smartphones optimierte Websites sind
falsch konfiguriert
, sodass den Nutzern nicht die Informationen angezeigt werden, nach denen sie gesucht haben. So wird Smartphone-Nutzern beispielsweise eine Fehlerseite angezeigt oder sie werden auf eine irrelevante Seite weitergeleitet, während Desktop-Nutzern der gewünschte Inhalt angezeigt wird. Einige dieser Probleme, die vom Googlebot als Crawling-Fehler erkannt wurden, beeinträchtigen die Nutzererfahrung auf eurer Website erheblich und bilden die Grundlage für einige unserer kürzlich angekündigten
Ranking-Änderungen (englischer Post)
für die Suchergebnisse von Smartphones.
Ab heute könnt ihr die erweiterte Funktion
Crawling-Fehler
in den Webmaster-Tools verwenden. Damit könnt ihr Seiten auf euren Websites identifizieren, die diese Form von Problemen aufweisen. Von nun an gibt es einen neuen Fehler-Tab für Smartphones, der nur die mit dem Googlebot für Smartphones gefundenen fehlerhaften Seiten enthält.
Zu diesen Fehlern gehören:
Serverfehler
: Ein Serverfehler besteht, wenn der Googlebot beim Crawlen der Seite einen
HTTP-Fehlerstatuscode
erhält.
Fehler "Nicht gefunden" und Soft 404-Fehler:
Eine Seite zeigt dem Googlebot die Meldung "Nicht gefunden", wenn ein HTTP 404-Statuscode zurückgegeben oder ein
Soft Error
erkannt wurde.
Fehlerhafte Weiterleitung
: Eine
fehlerhafte Weiterleitung
ist ein Smartphone-spezifischer Fehler. Er tritt auf, wenn eine Desktop-Seite Nutzer von Smartphones auf eine irrelevante Seite weiterleitet, die nicht ihrer Suchanfrage entspricht. Ein typisches Beispiel: Alle Seiten der Desktop-Website leiten Smartphone-Nutzer zur Startseite der für Smartphones optimierten Website weiter.
Blockierte URLs:
Eine
blockierte URL
liegt vor, wenn die robots.txt-Datei der Website das Crawlen durch den Googlebot für Smartphones blockiert. Normalerweise sind solche Smartphone-spezifischen Blockierungen durch die robots.txt-Datei fehlerhaft. Wenn in den Webmaster-Tools blockierte URLs angezeigt werden, solltet ihr eure Server-Konfiguration prüfen.
Das Beheben aller in den Webmaster-Tools angezeigten Fehler verbessert eure Website für Nutzer und hilft unseren Algorithmen, eure Inhalte besser zu indexieren. Ihr könnt mehr über
das Erstellen von Websites für Smartphones
erfahren und
wie man häufige Fehler behebt
. Wie immer fragt bitte
in unseren Foren nach
, falls ihr Probleme habt.
Post von
Pierre Far
, Webmaster Trends Analyst (Veröffentlicht von
Johannes Mehlem
, Search Quality Team)
Video: Erstellen einer SEO-Strategie (mit Webmaster-Tools)
Freitag, 6. Dezember 2013
Fragt ihr euch, wo man am besten mit einer Strategie für die organische Suche beginnt? Was ist ein guter Weg, um die verschiedenen Online-Kanäle wie Website, Blog oder YouTube-Kanal zu integrieren? Vielleicht, können wir dabei helfen! In weniger als 15 Minuten erklären wir eine strategische Vorgehensweise für SEO am Beispielsunternehmen, Webmaster-Zentrale, aus der Sicht des potenziellen SEO-Managers für den Blog der Webmaster-Zentrale.
Diese Video behandelt die folgenden Allgemeinthemen (und ihr könnt zu der für euch am interessantesten Stelle im Video springen):
Erstellen einer SEO-Strategie
Webmaster-Zentrale als Beispielsunternehmen
Estellen einer SEO-Strategie
Versteht den Suchprozess des Users
Legt die Ziele für das Unternehmen und die Website fest
Untersucht die beste Taktik, um eure Zielgruppe zu erreichen
Führt die Strategie aus und macht Verbesserungen
Überwinden von Hindernissen
Ihr könnt euch auch die entsprechende
Präsentation
anschauen.
Post von
Maile Ohye
, Developer Programs Tech Lead (Veröffentlicht von
Johannes Mehlem
, Search Quality Team)
Labels
#NoHacked
2
2017
1
Accessibility
13
AJAX
1
AMP
7
Android
2
api
1
App-Indexierung
3
Best Practices
99
Bildersuche
2
captcha
1
Chrome
4
Code
12
Crawling
1
Crawling und Indexierung
126
Diskussionsforum
15
Duplicate Content
17
Dynamic Rendering
1
Einsteiger
8
Event
1
events
1
Feedback
1
Geo-Targeting
11
Google Analytics
6
Google Dance
1
Google News
1
Google Places
4
Google-Assistant
1
Google-Suche
59
Google+
9
Hacking
16
Hangouts
1
https
3
JavaScript
3
Kanonische URL
1
Kommentare
1
Konferenz
19
Lighthouse
3
Links
18
Malware
17
Mobile
38
Mobile-first indexing
1
Nachrichten-Center
16
Optimisation
3
PageSpeed Insights
2
Penalties
1
Performance
3
Ranking
1
reCaptcha v3
1
Rendering
2
Rich Snippets
18
Richtlinien für Webmaster
36
robots.txt
7
Safe Browsing
5
Search Console
19
Search Results
1
Security
4
Seitenzugriff
1
SEO
4
Sicherheit
38
Site Clinic
5
Sitemaps
30
Spam Report
9
SSL
1
Structured Data
8
Tools und Gadgets
17
Verschlüsselung
1
Video
132
Webmaster blog
1
Webmaster Community
1
Webmaster-Academy
1
Webmaster-Tools
154
webspam
3
Archiv
2020
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
2019
Dez.
Nov.
Okt.
Sept.
Juni
Mai
Feb.
Jan.
2018
Dez.
Nov.
Okt.
Sept.
Juli
Juni
Mai
Apr.
Feb.
Jan.
2017
Dez.
Nov.
Juni
Apr.
März
Jan.
2016
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Jan.
2015
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Mai
Apr.
März
Feb.
Jan.
2014
Nov.
Okt.
Sept.
Aug.
Juni
Mai
Apr.
März
Feb.
Jan.
2013
Dez.
Nov.
Okt.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2012
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2011
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2010
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2009
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2008
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2007
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feed
Forum für Webmaster
Webmaster-Sprechstunden
Webmaster-Tools-Hilfe
Developers-Site für Webmaster