Auf dem Weg zurück ins Netz

Google Indexierung Suchmaschinen

Falk Dübbert Falk Dübbert formal

Ahrefs-Platzierungs-Diagramm

Wie ich in Ausgabe 705 schrieb, hat mich das November-Core-Update hart getroffen.

Zunächst bleibt die Ratlosigkeit, denn Google macht bei den Suchalgorithmen noch auf security by obscurity. Also brauchte ich ein bisschen, bis ich überhaupt herausbekam, was mich da getroffen hat. Nach dem August-Update hatte ich noch einen Push bekommen, obwohl ich ungeplant und nur Blödsinn bloggte. Dann kam das November-Update und Google deindexierte alle Einstiegsseiten.
Keine Manuelle Maßnahme, kein Sicherheitsproblem einfach nur „Dein Blog interessiert uns nicht.“

Das Ergebnis ist, dass bei einer Suche nach meinem Namen bei Google das Blog gar nicht auftaucht. Das macht nur Google. Bing, Startpage, You und Perplexity kennen und nennen das Blog. Wobei You wohl die Listenseiten von Yasni eingelesen hat und entsprechend sehr viele sehr alte Informationen anzeigt und Perplexity findet je nach Tagesform meine Masterarbeit oder behauptet, ich würde noch studieren (ich besuche zwar regelmäßig zwei Universitäten, aber nur bei der einen habe ich die Seite vom Pult gewechselt).

Zurück zum Thema. Das November-Update soll ein EEAT-Update gewesen sein, behaupten die SEOs. EEAT steht für Experience, Expertise, Authoritativeness, and Trustworthiness.

Beim erste E hatte mein Blog ein paar Probleme, weil ich lange die Bilder aus dem iphone unbearbeitet hochgeladen hatte. Die bremsen richtig und sehen komprimiert nicht gut aus. Dann habe ich große und lange CSS, die aus den HTML5-Template kamen und viele Schriften laden, und Google Fonts per API eingebunden.

Das brachte die Mobilladezeit für „langsames 4G“ jenseits der 10s und ab 4 gibt es Haue – Pagespeed ist ein Index-Kriterium. Ich habe jetzt wechselweise mit den Page-Speed-Insights und Ahrefs alle Seiten und Unterseiten des Blogs auf Geschwindigkeit geschrubbt, den meisten Bildern Alt-Texte verpasst und tatsächlich alle Bilder verkleinert. Dabei kamen die Linux-Befehle pngcrush, mogrify, convert und identify zum Einsatz. Zusätzlich habe ich die Schriften jetzt lokal abgelegt, womit auch der Zwang für das Cookie-Banner wegfällt.

Beim zweiten E kann ich außer viel Schlafen gerade nichts verbessern.
Allerdings hat Google auch Texte weggeworfen, die zumindest ich für fachlich hochwertig und für die Besucher hilfreich halte.

A und T sind extern vorzunehmende Bewertungen. Da glaube ich aber, dass Google irgendein zählbares Literal oder ein Primitiv auswertet, denn der Algorithmus hat nur ein paar Sekunden um sich für oder gegen eine Indexierung zu entscheiden.

Jetzt bleibt mir nur, zu warten.

Nachtrag:

https://www.reddit.com/r/SEO/comments/1hho2pt/google_not_crawling_my_site_anymore/
https://stackoverflow.com/questions/79348769/google-search-console-my-indexed-and-not-indexed-pages-have-flipped-i-now
https://www.hausmeister-service-keuneke.de/fail-bugs-bei-google/
https://jamesoclaire.com/2025/01/06/google-search-console-has-deindexed-nearly-my-entire-site/

Nachtrag 2, 20.1.2025:


Log-Mitschnitt der Access-Log meines Webservers

Immerhin ist nach 3 Wochen Abwesenheit der Crawler wieder da.

Nachtrag 2, 23.1.2025:



Leider war die Freude über die Crawler-Besuche nur kurz. Google liest nur die robots.txt und die ads.txt ein – die keine Bots verbieten – und geht wieder.

Dieses Substack beschreibt die aktuelle Situation ganz gut. https://indexinginsight.substack.com/p/google-core-updates-impact-indexing?utm_campaign=post&utm_medium=web
Ganz klar priorisiert Google jetzt die Seiten, die laut CRUX und Analytics mehr Traffic haben. Damit geht Google Full Circle zu Yahoo aus den Anfangstagen von einer Suchmaschine zu einem kuratiertem Katalog. Das Ergebnis wird am Ende sein: „Wenn Du keinen Wikipedia-Eintrag hast, bist Du auch nicht per Google zu finden sein.“


Kommentare

Keine Kommentare

Kommentare

Geben Sie Ihren Kommentar hier ein. * Eingabe erforderlich. Sie müssen die Vorschau vor dem Absenden ansehen.






Wenn Dir der Artikel gefallen hat, versuch Doch mal: