Falk Dübbert IT

immer noch ein privates blog

26. Dezember 2018, 14:29
von Falk Dübbert
Keine Kommentare

"Wir haben Probleme auf Ihrer Webseite gefunden"

Als mein Blog noch fast keine Zugriffe außer Referrer-Spammern, Kommentar-Bots und russischen Suchmaschinen hatte, habe ich die Gratis-Angebote von „SEO“-Software Anbietern genutzt und geschaut, was da los. Bzw. ich wollte schauen.
Wie sich herausstellte, war technisch fast alles in Ordnung, aber keiner mochte mich und niemand interessiert sich für das, was ich schreibe.

SEO ist für mich meistens an der Grenze zur Regenmacherei. Sobald es den eigenen Webserver und die Seiten an sich überschreitet, läuft SEO in der Regel auf halbseidene, unlautere oder wirkungslose Methoden hinaus. SEO ist eigentlich auch der falsche Begriff „GPO“ also Google-Platzierungs-Optimierung wäre bei den meisten Angeboten viel treffender.

Mein Blog hat eine Zugriffs-Kurve wie die Fallzahlen von „Kontrolldelikten“. Kontrolliert die Bahn öfter die Fahrkarten, stellt sie auch mehr Leistungserschleichungen fest. Schreibe ich mehr, habe ich auch mehr Zugriffe. Das liegt daran, dass mit jedem Update erstmal die Suchmaschinen für etwa 12 Stunden Crawler vorbeischicken und die RSS-Bots auch noch mal zugreifen. Aber auch, wenn ich diese automatischen Zugriffe mit regex-Magie ausblende, kann ich den Traffic auf dem Blog steigern oder auf ein Grundrauschen zusammenfallen lassen.

Wenn ich einen Artikel pro Tag schreibe, habe ich ungefähr 10000 Hits von etwa 900 unterschiedlichen IPs am Tag. Das kommt ziemlich gut mit den 11 bis 13 „GET“-Logzeilen hin, die ein Aufruf der Einstiegsseite mit sich bringt. Schreibe ich einen Artikel in drei Tagen, fällt die Zahl der Zugriffe pro Tag auf etwa die Hälfte. In einer Woche mit hoher Frequenz sind die Platzierungen zu generischen Suchbegriffen „besser“. Allerdings gibt es nur eine Handvoll, bei denen man die Platzierung wirklich messen kann. Die Liste behalte ich für mich, weil ich die Aussage, die sie über mein Leben macht, nicht mag.
Links auf mein Blog sind kaum ein Thema. Google findet eigentlich keine bzw. gibt es nicht zu. Yahoo/Bing findet sowieso nichts und über den Rest schweigen wir besser.

Aber zurück zu „SEO“…
Die self-service-SEO-Pakete richten sich an den Ich-AG-Webshop-Betreiber und Werbebanner-Kleber. Anders kann ich mir diese Abwesenheit von Intelligenz nicht erklären.

Da ich die vollen Texte auf der Einstiegsseite (aktuell sind es die letzten 3 ) habe, zeigen die SEO-Software-Pakete eine „hohe Absprungrate“ an.
Außer um die Kommentarfunktion, die außer von Spam-Bots eh kaum genutzt wird, zu erreichen fällt selbst mir auch kein sinnvoller Grund ein, warum ich auf meinem Blog irgendetwas anklicken wollte.
Eine Software empfiehlt mir eine Liste mit Stichwörtern zu denen ich Banner und Ads schalten soll. Sicher hat des Internet genau darauf gewartet. Danke – nein.

Alle SEO-Programme bieten System an, um „die Struktur“ der auf die Seite zeigenden Links zu analysieren und ggf. Tools um diese effektiver zu platzieren. Das ist im Grunde die Antwort auf die Frage, wie kaputt das Netz gerade ist. Es war auch schon mal kaputter, als das Internet drei Jahre lang laut Google und Yahoo nur aus Amazon und ebay bestand. Viel besser ist es nicht geworden.
Man kann sich sicher sein, dass man zu fast jedem Thema zig Seiten mit Domain-Namen im Stil von „vergaserinnenbeleuchtung-vergleich.de“ mit einem SEO-Text, also primitive Satzstrukturen, die um einen Sack voll Schlüsselworte herumgekotzt wurden. Solche Doorway-Pages oder zu Deutsch „Brücken-Seiten“ sind einfach die Pest und meiner Ansicht nach sollten die Suchmaschinenbetreiber hier durchaus nachhaltiger reagieren, also mehr digitale Todesstrafen aussprechen.

Kein SEO-Tool hat es auf die Reihe bekommen, dass es sich bei blog.falkduebbert.com um ein Reissack-Blog handelt, dem nur ein paar Kniffe im Header fehlten und bei dem anderen Webprojekt handelte es sich um ein zeitlich begrenztes Charity-Projekt. Von dem, was ich an Code gesehen habe ist da wenig Ingenieureskes unterwegs. In der Regel ist es shot-in-the-poo. Messtechnisch sind die SEOs ja auf der glücklichen Seite, dass ihre Aktionen sich in der Regel wenn erst nach Wochen auswirken. Messtechnisch gibt es also wenig, was man in eine Feedback-Schleife einspeisen könnte.
Bei der On-Site-Optimierung ist viel Schamanentum dabei mit allerhand Formeln wird eine ideale Schlüsselwortdichte „berechnet“. Das Problem dabei ist, dass wir bei einer Suchmaschine von einer Datenbank mit unbestimmter Schlüssellänge reden, also werden alle wesentlichen Funktionen, die ihr Verhalten und die Trefferwahrscheinlichkeit beschreiben, auf Normal-Verteilungen oder elliptische Funktionen zurückfallen. Die SEO-Leute wären aber mit solchen Formeln überfordert. Das komplizierteste, was ich sah war ein höhere Polynom, dass allerdings auf dem ersten Blick Mumpitz war. Die meisten versuchen mit viel Techbabble zu übertünchen, dass sie erstens über Suchmaschinentechnik, Datenbanken und Softwareentwicklung allenfalls Klappentextbildung erhalten haben und zweitens Google mittlerweile sehr gut darin ist, die genauen Kriterien zu verschleiern.
In der Regel läuft es auf Content und Links, also stumpfe Gewalt hinaus.

7. Dezember 2018, 20:43
von Falk Dübbert
1 Kommentar

Neues aus dem Testlab: Storage

Gelber Storage.
Ich habe meinen Frei-Tag genutzt um einerseits etwas Sport zu treiben und andererseits mein Testlab voran zu treiben. "Richtiger" Storage ist leider außerhalb meiner finanziellen Möglichkeiten. Dennoch wollte ich Block-Storage haben und jetzt nicht für das Lab einen Linux-Server mit einem NFS-Share aufsetzen. Nachdem ich eine Tüte von Open- und Closed-Source-Storages durch hatte fiel meine Wahl auf "ESOS(ESOS - Enterprise Storage OS)": https://www.esos-project.com als Grundlage.

Die Hardware besteht aus einem Dell R310 mit 16GB RAM und einem Xyratex-FC-Diskshelf, das normalerweise zu einer F-Class 3Par gehören würde.

Showstopper waren eigentlich nur festzustellen, solange ich auf einen Emulex- statt auf einen QLogic-FC-HBA gesetzt habe um die Verbindung zwischen Server und Diskbox herzustellen.
Insgesamt macht ESOS einen wirklich ausgereiften und robusten Eindruck. In meinen Augen ist das ein zu Unrecht unbekanntes Projekt. Die Konfiguration über eine Textkonsole ohne jegliche Assistenten mag etwas spröde sein, aber sie ist in jedem Fall responsiver als eine Weboberfläche, die auf ein in Ungnade gefallenes Framework wie Silverlight oder Flash setzt.

15. Oktober 2018, 20:50
von Falk Dübbert
Keine Kommentare

Webserver makeover

image

 

Ich habe am Webserver rumgespielt. Primär habe ich den Cache erhöht und mehr Logs in die RAMdisk umgeleitet.

Auf Platte wird erst mit dem Logrotate geschrieben, wobei auch die Besucherdaten verschleiert werden. GoAccess (Bild oben) und Webalizer greifen aber auf die RAMdisk zu. Da werde ich DSGVO-mäßig noch mal ranmüssen, weil gerade im Webalizer noch ein paar ReverseDNS zu eindeutig sind, selbst wenn man die letzten acht Zeichen randomisiert. 

Die Test-VMs waren auch schon mal verdockert. Die Seafile-Instanz macht aber noch ein bisschen viel Ärger, weil SDFS-Volumes aus Docker-Containern heraus sind… sagen wir mal nicht die beste Idee. Im Grunde macht es aber gar keinen Sinn einen Server, der nur eine Aufgabe hat, zu verdockern. Die Inhalte haben eh andere Schnittstellen.

Und – es klingt wieder ein bisschen Anti – aber ich habe meinen Git-Server mit Rechtsklick “… löschen” heimgesucht. Git und ich werden für meine Projekte keine guten Freunde. Auch wenn SVN an einigen Stellen etwas mehr Schminke auftragen muss und an anderen Stellen nach Verwesung riecht, fahre ich mit SVN besser. Nächste Woche kommt das SVN in eine VM beim Hoster und ich ziehe beim Aufräumen die Äste gerade.