Falk Dübbert

Als mein Blog noch fast keine Zugriffe außer Referrer-Spammern, Kommentar-Bots und russischen Suchmaschinen hatte, habe ich die Gratis-Angebote von „SEO“-Software Anbietern genutzt und geschaut, was da los. Bzw. ich wollte schauen.
Wie sich herausstellte, war technisch fast alles in Ordnung, aber keiner mochte mich und niemand interessiert sich für das, was ich schreibe.

SEO ist für mich meistens an der Grenze zur Regenmacherei. Sobald es den eigenen Webserver und die Seiten an sich überschreitet, läuft SEO in der Regel auf halbseidene, unlautere oder wirkungslose Methoden hinaus. SEO ist eigentlich auch der falsche Begriff „GPO“ also Google-Platzierungs-Optimierung wäre bei den meisten Angeboten viel treffender.

Mein Blog hat eine Zugriffs-Kurve wie die Fallzahlen von „Kontrolldelikten“. Kontrolliert die Bahn öfter die Fahrkarten, stellt sie auch mehr Leistungserschleichungen fest. Schreibe ich mehr, habe ich auch mehr Zugriffe. Das liegt daran, dass mit jedem Update erstmal die Suchmaschinen für etwa 12 Stunden Crawler vorbeischicken und die RSS-Bots auch noch mal zugreifen. Aber auch, wenn ich diese automatischen Zugriffe mit regex-Magie ausblende, kann ich den Traffic auf dem Blog steigern oder auf ein Grundrauschen zusammenfallen lassen.

Wenn ich einen Artikel pro Tag schreibe, habe ich ungefähr 10000 Hits von etwa 900 unterschiedlichen IPs am Tag. Das kommt ziemlich gut mit den 11 bis 13 „GET“-Logzeilen hin, die ein Aufruf der Einstiegsseite mit sich bringt. Schreibe ich einen Artikel in drei Tagen, fällt die Zahl der Zugriffe pro Tag auf etwa die Hälfte. In einer Woche mit hoher Frequenz sind die Platzierungen zu generischen Suchbegriffen „besser“. Allerdings gibt es nur eine Handvoll, bei denen man die Platzierung wirklich messen kann. Die Liste behalte ich für mich, weil ich die Aussage, die sie über mein Leben macht, nicht mag.
Links auf mein Blog sind kaum ein Thema. Google findet eigentlich keine bzw. gibt es nicht zu. Yahoo/Bing findet sowieso nichts und über den Rest schweigen wir besser.

Aber zurück zu „SEO“…
Die self-service-SEO-Pakete richten sich an den Ich-AG-Webshop-Betreiber und Werbebanner-Kleber. Anders kann ich mir diese Abwesenheit von Intelligenz nicht erklären.

Da ich die vollen Texte auf der Einstiegsseite (aktuell sind es die letzten 3 ) habe, zeigen die SEO-Software-Pakete eine „hohe Absprungrate“ an.
Außer um die Kommentarfunktion, die außer von Spam-Bots eh kaum genutzt wird, zu erreichen fällt selbst mir auch kein sinnvoller Grund ein, warum ich auf meinem Blog irgendetwas anklicken wollte.
Eine Software empfiehlt mir eine Liste mit Stichwörtern zu denen ich Banner und Ads schalten soll. Sicher hat des Internet genau darauf gewartet. Danke – nein.

Alle SEO-Programme bieten System an, um „die Struktur“ der auf die Seite zeigenden Links zu analysieren und ggf. Tools um diese effektiver zu platzieren. Das ist im Grunde die Antwort auf die Frage, wie kaputt das Netz gerade ist. Es war auch schon mal kaputter, als das Internet drei Jahre lang laut Google und Yahoo nur aus Amazon und ebay bestand. Viel besser ist es nicht geworden.
Man kann sich sicher sein, dass man zu fast jedem Thema zig Seiten mit Domain-Namen im Stil von „vergaserinnenbeleuchtung-vergleich.de“ mit einem SEO-Text, also primitive Satzstrukturen, die um einen Sack voll Schlüsselworte herumgekotzt wurden. Solche Doorway-Pages oder zu Deutsch „Brücken-Seiten“ sind einfach die Pest und meiner Ansicht nach sollten die Suchmaschinenbetreiber hier durchaus nachhaltiger reagieren, also mehr digitale Todesstrafen aussprechen.

Kein SEO-Tool hat es auf die Reihe bekommen, dass es sich bei blog.falkduebbert.com um ein Reissack-Blog handelt, dem nur ein paar Kniffe im Header fehlten und bei dem anderen Webprojekt handelte es sich um ein zeitlich begrenztes Charity-Projekt. Von dem, was ich an Code gesehen habe ist da wenig Ingenieureskes unterwegs. In der Regel ist es shot-in-the-poo. Messtechnisch sind die SEOs ja auf der glücklichen Seite, dass ihre Aktionen sich in der Regel wenn erst nach Wochen auswirken. Messtechnisch gibt es also wenig, was man in eine Feedback-Schleife einspeisen könnte.
Bei der On-Site-Optimierung ist viel Schamanentum dabei mit allerhand Formeln wird eine ideale Schlüsselwortdichte „berechnet“. Das Problem dabei ist, dass wir bei einer Suchmaschine von einer Datenbank mit unbestimmter Schlüssellänge reden, also werden alle wesentlichen Funktionen, die ihr Verhalten und die Trefferwahrscheinlichkeit beschreiben, auf Normal-Verteilungen oder elliptische Funktionen zurückfallen. Die SEO-Leute wären aber mit solchen Formeln überfordert. Das komplizierteste, was ich sah war ein höhere Polynom, dass allerdings auf dem ersten Blick Mumpitz war. Die meisten versuchen mit viel Techbabble zu übertünchen, dass sie erstens über Suchmaschinentechnik, Datenbanken und Softwareentwicklung allenfalls Klappentextbildung erhalten haben und zweitens Google mittlerweile sehr gut darin ist, die genauen Kriterien zu verschleiern.
In der Regel läuft es auf Content und Links, also stumpfe Gewalt hinaus.