Google Search Konsole

Wer Webseiten betreibt und für Besucher gefunden werden soll, sollte sich um die Sichtbarkeit in Suchmaschinen kümmern. Dabei gibt es gute, sinnvoll und seriöse Weg aber auch einige Dinge, die ich noch nicht bewerten kann.

Für Webmaster können Sie aber für ihre eigene Webseite auch einen Blick in die Arbeitsweise einer Suchmaschine werfen. Natürlich müssen Sie beweisen, dass Sie auch Inhaber der Webseite sein aber dann sehen Sie interessante Daten, wie die Suchmaschine ihre Seite sieht, z.B. wie oft sie gefunden werden und wie oft Benutzer den Link auf ihre Seite anklicken.

Gibt es unter meinen Lesern einen SEO-Spezialist, der die Idee und Auswirkungen hinter den vielen eingehenden Links versteht?.

Beispiel

So präsentiert sich z.B. die MSXFAQ Anfang 2020. Sollte die MSXFAQ aber tatsächlich in den 3 Monaten insgesamt 12 Mio Mal in Google aufgeführt worden sein und dann fast 600.000 mal auch angeklickt wurde?

Interessant sind auch die Suchbegriffe und deren Klickraten.

robots.txt, Sitemap, lesbarer Content

In der Anfangszeit des Internet gab es noch kein Google sondern "Internetverzeichnisse" wie AltaVista oder Yahoo, in denen eine neue Webseite eingetragen werden sollte. Heute ist das eigentlich nicht mehr erforderlich, wenn andere Webseiten auf ihre Seite verweisen. Google und Co finden die Webseite dann irgendwann schon. Sie sollten aber dennoch ihre neue Webseite bei den bekannten Suchmaschinen addieren. Damit aber deren Besuch dann auch optimal abläuft, können Sie ihre Webseite vorbereiten

  • Robots.txt
    Diese Datei in der Wurzel ihrer Webseite erlaubt ihnen eine Steuerung der Suchmaschinen. Diese müssen sich zwar nicht dran halten aber beziehen die Anweisungen schon in ihre Analyse ein.
  • Sitemap
    Bei einige Suchmaschinen können Sie eine Liste aller Webseiten einreichen, die indexiert werden sollen. Diese Datei kann auch auf der Webseite liegen und in der robots.txt spezifiziert werden. So erreichen Sie eine möglichst umfangreiche Erfassung der Webseite.
  • "Lesbarer" Inhalt
    Die Suchmaschine kann nur maschinenlesbare Informationen verstehen. Wenn Sie Information als "Text in Grafik" ausliefern, weil es "schicker" aussieht, dann gilt das nur für Menschen. Sie sollten dann zumindest den alternativen Text einer Grafik pflegen.
    Gleiches gilt für Informationen, die erst durch JavaScript o.ä. generiert wird und damit unsichtbar ist.

Ich kann und will auf der MSXFAQ jetzt keine Anleitung für SEO-Marketing liefern. Das ist nämlich ein permanenter Wettbewerb, bei dem Agenturen ihnen gerne gegen Bezahlung versprechen durch Änderungen weiter oben auf den Suchmaschinen zu erscheinen. Auf der anderen Seite tun Suchmaschinenbetreiber natürlich alles dafür, solche Tricksereien zu erkennen und zu ignorieren oder sogar abzustrafen.

Ich betreibe keine aktive SEO-Optimierung, sondern schreibe einfach meine Artikel und hoffe, dass Google und Co schon das beste draus machen.

SEO Fail?

Sie sehen aber auch, welche anderen Seiten auf Sie verweisen. Und da gibt es durchaus einige suspekte Webseiten, deren Verhalten ich mir nicht wirklich erklären kann. Ich hatte vor langer Zeit mal eine Bitte eines großen Elektronik-Versenders, dass ich meine Links zu ihm entferne oder mit "NoFollow" kennzeichne, weil Suchmaschinen einer Webseite eine Bewertung geben und ein Teil davon auch auf verlinkte Seiten angewendet wird. Und wenn die andere Seite einen hohen "PageRank" hat, könnte der auch herunter gezogen werden.

Insofern war ich schon mal alarmiert, wenn von den 172.933 eingehenden Links ein sehr hoher Anteil von ganz wenige Seiten ausgeht.

AZSlide.com

Also habe ich mir "azslide.com" mal angeschaut und sehe, dass die 43891 Links auf gerade mal drei PDF-Dateien gehen.

Die Webseite scheint einfach PDF-Dokumente im Internet einzusammeln und lokal vorzuhalten. Beim Anzeigen einer PDF wird Werbung eingespielt und man wird per Nag-Screen zum "Spenden" über PayPal an eine Firma "SLIDEX" für ein Produkt "DATAPDF" aufgerufen.

Allerdings passt bei der Webseite überhaupt nichts, denn es gibt kein Impressum keine Adresse, keine Kontaktdaten. Einziger Kommunikationsweg ist ein Web-Formular, welche dann aber unter der Url https://silo.tips/contact erscheint. Aber auch auf der Seite gibt es keine Adresse oder Impressum. Und die "Terms" besteht aus Textbausteinen. Alles sehr lieblos gemacht.

Die IP-Adresse verweist auf Cloudflare und die Whois-Einträge über Namesilo.com und Kontakte über privacyguardian.org. Ein "Abuse-Report" über CloudFlare habe ich mal eingereicht.

Wird fortgesetzt

symptoma.*

Eine zweite Häufung findet sich bei Domänen mit dem Namensmuster "symptoma.*". Führend sind hier im negativen Beispiel die DACH Domains.

Es gibt insgesamt 35 Länder-Domains, die alle auch auf die gleichen drei PDF-Dateien verweisen.

Belohnt Google entsprechende Webseiten, die auf PDF-Dateien auf anderen erfolgreichen Seiten verweisen? Auf der Webseite von Symptoma habe ich natürlich keine Seite mit einem Link auf die MSXFAQ gefunden. Aber die Google Search Console zeigt folgendes Bild:

Also habe ich auch hier einmal "nachgefragt".

Die Antwort kam innerhalb weniger Stunden und im Dialog haben wir dann "azslide.com" als "Spamside" entfernt. Die Betreiber von symptoma.* haben auf ihrer Seite all Links zu azslide.com entfernt. Einen direkten Link zu MSXFAQ gab es aber nicht und wir vermuten einfach nur, dass azslide.com per Skript oder 302-Meldung den GoogleBot an der Nase herum geführt hat. Welchen Vorteil aber azslide.com davon gehabe hat, konnte wir noch nicht klären.

Weitere Links