Ich sehe gerade in Googles Webmaster Tools wieder einen Fehlerbericht zur BaBox.
Und ich frage mich, ob Google wirklich nicht einen 404er-HTTP-Statuscode von einem 410er unterscheiden kann.
Zur Fehlermeldung:
Website-Fehler / URL-Fehler:
Nicht gefunden - 1 Fehler:
... Adresse ...
Antwortcode: 410
Fehlerdetails:
Zuletzt gecrawlt am: 23.07.13
Erstmals erkannt am: 23.07.13
Der Googlebot konnte diese URL nicht crawlen, da keine zugehörige Seite existiert. Im Allgemeinen wirken sich 404-Codes nicht auf die Leistung Ihrer Website bei der Suche aus. Sie können sie jedoch zur Verbesserung der Nutzererfahrung verwenden.
In Sitemaps / Verlinkt über:
Keine Daten.
Hat Google WMT nun einen 404er, oder einen 410er erhalten?
Man weiss es nicht?
Nein, man weiss es: der Google Bot hat einen 410er erhalten. Sonst nix.
Die fragliche Seite wurde am 15.10.2012 gelöscht. Gleichentags wurde ein Redirect Gone in die .htaccess eingefügt. Seither sind (bezogen auf den 23.07., das "Entdeckungsdatum",) 281 Tage vergangen.
Es ist nicht das erste Mal, dass mir Google WMT das Löschen dieser Seite unter die Nase reibt. Und ich jedes Mal den angeblichen Fehler als korrigiert markiere.
Wie oft denn noch?
Und wir vertrauen einer Suchmaschine, die die elementaren Regeln nicht beherrscht?
Nachtrag, einen Tag später:
In der Rubrik Crawling-Fehler lese ich (wie schon oft in diesen Fällen):
"Keine Fehler in den letzten 90 Tagen. Super!".
Da waren Super-Programmierer am Werk ...