SEO Runde 2017

Übersicht der Veränderungen in 2017 am Layout, Inhalte und Keywords um besser gefunden zu werden. Ab und an muss man auch mal Fachleute über die MSXFAQ schauen lassen. Ich kann als Consultant nicht auch noch überwachen, was Google und Co an ihren Suchalgorithmen ändern. Ich möchte natürlich vermeiden, dass der ein oder andere Fehler im Code oder Layout die Auffindbarkeit der MSXFAQ negativ beeinflussen. Wenn ich mir schon die Mühe mache, Artikel zu schreiben, dann sollten diese auch auffindbar sein. Entsprechend habe ich unter der Haube ein paar Dinge korrigiert.

HTML-Header

Im Header jeder Webseite gibt es viele verschiedene Meta-Tags, die aber Google und Co kaum mehr beachten und sogar eher verwirren. Ich hab diese dann einfach mal auskommentiert:

Dies betraf die Direktive an Google und Co die Seite nur alle 7 Tage zu indexieren. Anscheinend hält sich Google eh nicht dran und wenn Google häufiger nachschauen will, dann kann es das gerne machen.

<!--<meta name="revisit-after" content="7 days">-->

Weiterhin wurden die Keywords entfernt, da auch diese wohl kaum noch etwas zur Auffindbarkeit beitragen.

<!--<meta name="keywords" content="Exchange, Skype, UC, Lync, FAQ, POP3, Unified Messaging, Cluster, Powershell, ActiveSync">-->

HTTP-Header

Im HTTP-Header sendete mein Provider per Default ein "ETAG" mit. Das ist eine Art Prüfsumme der Seite, anhand der Cache oder Client schneller ermitteln kann, ob sich die Seite geändert hat. Allerdings führt dies auch dazu, dass eine geänderte Seite erst mit dem zweiten Request geladen wird. Da ich an die http.conf des Apache nicht herankomme, habe ich die Änderungen in der .HTACCESS addiert.

Turn ETags Off

Erster Link optimieren

Ganz linke oben ist das Logo der MSXFAQ zu sehen. Dieses Bild ist "anklickbar" und da es der erste Link ist, wird es wohl von Suchmaschinena auch genauer bewertet. Damit hier die "richtigen Worte" getroffen werden, habe ich die elementaren Schlüsselworte als alternative Beschreibung addiert:

<img src="images/msxfaqlogo2016b.jpg" title="MSXFAQ-Homepage" alt="MSXFAQ, Exchange, Skype for Buiness, Office 365, Lync, Net at Work "></a>

Header Meta Description

Im HTML-Header kann über ein Meta-Tag eine "Description" der Seite gegeben werden. Ich habe mir überlegt hier die ersten 106 Zeichen des ersten Satzes automatisiert einzufügen. Ich muss natürlich noch kontrollieren, dass in allen Seiten hier auch ein passender Satz steht. Ansonsten wirkt das ja nicht wie gewünscht. Im Code ist das natürlich schnell gemacht.

Should I tweak my titles and descriptions to improve my CTR ?
https://www.youtube.com/watch?v=THYguer_JrM 

URLs und Redirect

Ich habe in der Vergangenheit immer mal wieder die interne Seitenstruktur verändert. Zum einen ändern sich Produktnamen aber auch Versionen und letztlich muss ich ja weiter Herr über meine 2500+ HTML-Seiten bleiben. Solche Änderungen werde ich zukünftig viel sanfter angehen. Suchmaschinen merken sich nämlich je Seite eine Bewertung, die über einige Zeit verdient sein will. Eine Änderungen einer URL führt nicht nur zu 404-Seiten bei Links von anderen Seiten sondern eben auch zum Verlust des "Guthabens" der Seite. Angeblich ist dies sogar wichtiger als dass die URL einen treffenden Namen beinhaltet.

Ein bisschen kann ich natürlich gegensteuern.

404-Seite und andere

kein Redirect, da dann die 404 Seite als 200-Seite ausgeliefert wird. Damit dann aber die CSS-Formate nicht kaputt gehen, habe ich die Adressen der CSS-Seite und Images absolut codiert.

GZIP/Deflate

Um Bandbreite und Übertragungszeit zu sparen, sollten Daten möglichst komprimiert werden. Schon "Page Insights" von Google meldet mir, dass einige Dateien deutlich kleiner werden können. Da sind ein paar Bilder dabei aber vor allem kosten die CSS-Dateien Zeit, wenn diese unkomprimiert übertragen werden

Hier ist etwas Feintuning mit der HTACCESS möglich, damit auch CSS-Dateien komprimiert werden. Dazu wurde in der HTACCESS folgendes addiert.

# BEGIN GZIP
<IfModule mod_deflate.c>
AddOutputFilterByType DEFLATE text/text
AddOutputFilterByType DEFLATE text/plain
AddOutputFilterByType DEFLATE text/html
AddOutputFilterByType DEFLATE text/xml
AddOutputFilterByType DEFLATE text/shtml
AddOutputFilterByType DEFLATE text/css
AddOutputFilterByType DEFLATE application/xml
AddOutputFilterByType DEFLATE application/xhtml+xml
AddOutputFilterByType DEFLATE application/rss+xml
AddOutputFilterByType DEFLATE application/javascript
AddOutputFilterByType DEFLATE application/x-javascript
</IfModule>
# END GZIP

Wobei der Test von 1und1 bei mir zwar angezeigt hat, dass GZIP aktiv ist, aber die CSS-Typen nicht eingebunden waren. Der Test ist also nicht für alle Datei-Typen aussagekräftig.

Images mit CSS Sprites

Auf jeder Seite sind einige Bilder zu sehen. Wenn ich nun mehrere Bilder eigenständig einbinde, dann führt des Bild zu einem HTTP-Request. Besser ist es vielleicht, eine Grafik zu verwenden, die dann per CSS-Sprites an verschiedenen Stellen mit unterschiedlichen Ausschnitten angezeigt wird.

Allerdings nutzt ich viele statische Bilder die im Cache liegen und daher nur beim ersten Laden vielleicht etwas länger brauchen.

Breadcrumb Microdaten

Google kann in den Suchergebnissen die Anzeige schöner gestalten, wenn Google den Aufbau der Seite "versteht". Da hinter der MSXFAQ kein CMS steht, ist das nicht immer so einfach aber die "Breadcrumb" ist ein erster Anfang.

"Rating-Angaben

Bei vielen Webseiten gibt es die Möglichkeit als Anwender die Seite zu "bewerten". In der Regel sind das dann 1-5 Sterne, die von den Besuchern vergeben werden können. Das würde mir helfen, "verbesserungsfähige" Seiten zu erkennen aber auch gute Seiten hervor zu heben. Allerdings geht das nur mit etwas aktivem Code, da die Bewertung ja irgendwo "gespeichert" werden muss. Zudem muss verhindert werden, dass Bots u.a. die Aussagekraft durch Mehrfachabgaben unbrauchbar machen. Es muss also zumindest eine Limitierung gegen Mehrfachabstimmungen her, auch wenn das durch Bots nicht allein an einer Source-IP festgemacht werden kann.

Aktuell gibt es noch kein Rating