Um Webseitenbesitzer besser über Indexierungsprobleme zu informieren, erhält der Indexabdeckungsbericht der Google Search Console insgesamt 4 Updates.
Dieser Indexabdeckungsbericht wurde das erste Mal im Jahr 2018 mit der Einführung der überarbeiteten Google Search Console eingeführt und ist im Vergleich zu anderen Berichten, die Google anbietet, noch neu.
Seit der Einführung des Indexabdeckungsberichts teilen Webseitenbetreiber bereits Ihr Feedback mit Google über Verbesserungen, die Sie in Zukunft gerne sehen würden.
Daher basieren die Änderung am Indexabdeckungsberichts, die heute verfügbar sein werden, auf dem Feedback der Webmaster-Community.
„Basierend auf dem Feedback, das wir von der Community erhalten haben, bieten wir signifikante Verbesserungen des Berichtes. So werden Sie besser über Probleme informiert, die Google u. U. daran hindert Ihre Seite zu crawlen und zu indexieren.“
Änderungen am Indexabdeckungsbericht der Search Console
Die Liste der Änderungen am Indexabdeckungsbericht in der Search Console umfasst Folgendes:
- Die Entfernung des generischen Problemtyps der „Crawl-Anomalie“ – Alle Crawl-Fehler werden nun einem Problem zugeordnet, das eine bessere Lösung enthält.
- Seiten die angemeldet, aber von robots.txt blockiert und indexiert wurden, werden nun als „indexiert aber blockiert“ (Warnung) gekennzeichnet, anstatt „angemeldet aber blockiert“ (Fehler) gemeldet.
- Das Hinzufügen eines neuen Problems: „Indexiert ohne Inhalt“ (Warnung).
- Die Soft 404-Berichterstattung ist jetzt genauer.
Das heißt es gibt nun kein Rätselraten mehr, wenn es um Crawl-Fehler geht, da das „Crawl-Anomalie“-Problem stattdessen mit spezifischen Problemen und Lösungen ersetzt wurde.
Webseitenbesitzer werden nun klar erkennen und wissen, ob eine von Google indexierte Seite durch robots.txt blockiert wird; denn anstatt „angemeldet aber blockiert“ wird die Meldung nun „indexiert aber blockiert“ anzeigen. Es ist nämlich etwas völlig anderes, ob eine URL angemeldet oder indexiert wurde und der Bericht wurde nun so aktualisiert, dass er dies auch zeigt.
Die Soft 404-Berichte sollen also genauer sein. Außerdem gibt es ein neues Problem, das sich „indexiert ohne Inhalt“ nennt. Lassen Sie uns gemeinsam einen genaueren Blick auf dieses Problem werfen, falls es in einem Ihrer Berichte eventuell auftaucht.
Das ist, was uns die Search Console-Hilfeseite über indexiert ohne Inhalt sagt:
„Diese Seite tauch im Google-Index auf, doch aus irgendeinem Grund konnte Google den Inhalt nicht lesen. Mögliche Gründe dafür sind, dass Ihre Seite unter Umständen für Google verschleiert ist oder die Seite ist eventuell in einem Format, welches Google nicht indexieren kann. Es handelt sich hierbei nicht um einen Fall der Blockierung durch robot.txt.“
Wenn Sie also auf das Problem indexiert ohne Inhalt stoßen, bedeutet dies, dass die URL zwar im Index von Google ist, aber der Webcrawler den Inhalt nicht betrachten kann.
Das könnte bedeutet, dass Sie versehentlich eine leere Seite veröffentlicht haben. Ein anderer Grund könnte sein, dass es einen Fehler auf Ihrer Seite gibt, der Google daran hindert den Content zu rendern.
Für weitere Hilfestellung, um den Fehler ohne Content indexiert zu beheben, ist unsere Empfehlung an alle Webseitenbesitzer, die betroffene Seite durch das Google-Tool zur URL-Überprüfung laufen zu lassen.
Denn das URL-Inspektionstool rendert Ihnen die Seite so wie Google die Seite wahrnimmt. Das kann dabei helfen zu verstehen, warum der Content für die Webcrawler von Google nicht sichtbar ist.
Diese Änderungen werden nun in dem Indexabdeckungsbericht angezeigt. Seitenbetreiber können so nun möglicherweise neue Arten von Fehlern erkennen oder die Änderungen in der Anzahl der Probleme.