PageRank und NoFollow

Die MSXFAQ gibt es seit ca. 1995 und ist immer weiter gewachsen. Natürlich gehört es bei Webseiten dazu, andere Seiten zu "verlinken". Und es sollte auch jedem klar sein, das früher Suchmaschinen diese Links auch benötigt haben, um Webseiten zu finden. Mittlerweile reichen Webmaster ja ihre "Sitemap" bei den verschiedenen Suchanbietern ein, damit die Webseite "passend" indexiert wird. Die Link zu oder von anderen Seiten werden aber von Suchmaschinen natürlich weiterhin ausgewertet um sonstige Webseiten zu finden und eine Beliebtheit und Bewertung zu erstellen. Dass es dabei auch Missbrauchspotential durch "Linkfarmen" etc. gibt, ist natürlich nicht auszuschließen.

Weckruf von anderen SEO Managern

Etwas irritiert habe ich schon geschaut, als kurz hintereinander zwei Webmaster mich gebeten haben, den Link zu ihrer Seite zu entfernen.

Erster Schreck: Wurde meine Webseite gehackt, und Google straft mich entsprechend ab oder ist das nur eine Fake-Mail? Auf der anderen Seite scheint es Firmen zu geben, die sehr intensiv ihren "PageRank" analysieren und optimieren. Vielleicht sollte ich doch noch etwas besser Google verstehen? Insbesondere die zweite Mail, bei der ein Mitbewerber von Ontrack den Link auf sein eigenes Produkt (Lucid8) entfernt haben möchte, machte mich nachdenklich.

Natürlich habe ich nie die Absicht gehabt, jemandem zu Schaden aber anscheinend ist der Google PageRank eine wichtige Größe für kommerzielle Seiten, so dass sich der Betreiber die Mühe macht, mich anzuschreiben. Mit der deutschen Firma habe ich dann Kontakt aufgenommen um die Auswirkungen zu verstehen. Warum auch immer wurde meine Seite nun "schlecht genug" eingestuft, dass das Linkziel eine Herabstufung ihrer Webseite durch den Link von einer "schlechten" Seite befürchtete. Das kann ich verstehen.

PageRank ?

Also musste ich erst mal versuchen zu verstehen, was "PageRank" eigentlich genau ist. Und welchen "Rank" meine Seite hat. Also habe ich eine ganze Menge Seien gesucht und gelesen. Hier eine Auswahl:

Es läuft also darauf hinaus, dass die eigene Seite um so "höherwertig" eingestuft wird, je mehr Links von guten Seiten auf die eigene Seite verweisen. Werden dann ausgehende Link auf andere Seiten gefunden, dann profitiert die verlinkte Seite auch von einem hohen PageRank. Kontrolliere ich die MSXFAQ, dann hatte diese Seite am 25. Sep 2013 angeblich einen PageRank von 3/10, wobei 0 recht schlecht ist und 10 natürlich sehr gut. Einer der Anfrage  hatte an dem Tag einen PageRank von 6 und war damit deutlich über der MSXFAQ. Damit war der Grund gefunden, warum ich angeschrieben wurde. der uS-Anbieter war aber auch "nur" auf 3/10.

Welche Aussagekraft der PageRank aber letztlich hat, ist immer noch umstritten. Denn auch wenn die MSXFAQ aktuell (Stand Sep 2013) einen niedrigen Rank hat, wird sie doch gefunden und die Benutzerzahlen und Treffer durch Suchmaschinen haben sich auch nicht signifikant vermindert. Den PageRank können Sie über Google-Toolbar (IE) oder verschiedene AddOns in Chrome anzeigen lassen.

Auf der Suche nach dem PageRank

Ich habe leider keine Statistiken über die PageRank-Entwicklung der MSXFAQ in den letzten Monaten oder gar Jahren. Es gibt Anbieter die Webseiten-Ranking und Analysen machen, z.B. http://www.URLtrends.com/viewtrend.php?URL=http%3A%2F%2Fmsxfaq.de oder http://www.alexa.com/siteinfo/msxfaq.de#. Dennoch ist das nicht ganz durchschaubar. Ich tippe mal darauf, dass kommerzielle Betreiber von Webseiten ganz gezielt Suchmaschinen nutzen, um Links von anderen Webseiten auf ihre Seite ausfindig zu machen und dann deren PageRank zu ermitteln und so schlechte Einflüsse zu erkennen. Das Web ist schon lange keine Veröffentlichungsplattform für Techniker schon ein Geschäftsplatz. Bleiben wir mal bei der allseits bekannten dominierenden Suchmaschine Google, die für Webmaster entsprechende "Inhaltsrichtlinien" veröffentlicht hat:

Es gibt noch einige weitere Seiten die verschiedene Themen beleuchten. Wenn ich mir diese durchlesen, dann kann ich mir schon denken, dass der PageRank die letzten Tage vielleicht abgenommen hat, denn ich organisiere die Webseite intern um, d.h. Pfade und Links ändern sich und es dauert, bis eine Suchmaschine das mit bekommt:

  • 404 Fehler
    Wenn ich eine Seite umbenenne oder verlagere, dann ist die alte Seite nicht mehr verfügbar. Das führt zu 404-Fehlern. In der Regel sollte Google und Co die "Sitemap" auslesen und schnell den aktuellen "IST"-Stand erhalten. Aber für eine kurze Zeit gibt es gehäuft 404 Fehler. Das gilt um so mehr für Links von anderen Seite auf die MSXFAQ

Hierzu gibt es wohl keine Lösung. Wenn ich nach Jahren mal wieder "umstrukturiere", wird das vermutlich den PageRank (hoffentlich kurzfristig) beeinflussen. Tipp: geben Sie einfach "MSXFAQ" als Begriff bei der Suche mit ein, dann sind Seiten der MSXFAQ in der Regel ganz oben.

  • Doppelter Content durch alte Seiten
    Um die 404 Fehler zu reduzieren habe ich angefangen die alten Seiten auf der MSXFAQ nicht sofort zu löschen, damit Sie noch ein paar Tage erreichbar sind. Damit landet eine Suche auf einer existierenden Seite aber andererseits sieht Google und Co nun eine ähnliche Seite zweimal. Und Links in der alten Seite passen auch nicht immer. Wenn Google und Co aber das "Sitemapfile" nutzen, dann sollten Sie diese alten Seiten sowieso ignorieren. Aber eine Garantie gibt es nicht.

Also nehme ich mit, dass solche "alten" Seiten nicht liegen bleiben sollten. Schade um externe Links auf diese Seiten aber von meinem vielen ausgehenden Seiten funktionieren auch einige schon nicht mehr. Aber besser ein Link auf eine Seite, auf der man dann manuell weiter schauen kann als kein Hinweis auf eine möglicherweise interessante Seite. Ewig gültige URLs sind für mich keine keine Lösung, da z.B. alte Seiten ins "Archiv" wandern oder umbenennungen von Produkten (BPOS->Office 365,  OCS -> Lync) abgebildet werden müssen. Schließlich muss ich die Seite auch effektiv verwalten können. Ich werde ja nicht für die MSXFAQ bezahlt, sondern opfere meine Freizeit dafür.

  • Doppelter Content durch mehrere URLs
    Dann könnte eine veränderte Berechnung bei Google dafür sorgen, dass die Domains msxfaq.de, msxfaq.net, msxfaq.org nun "abgestraft" werden. Ich habe die MSXFAQ auf drei Providern verteilt und jeder Provider hat einen Anteil der Zugriffe über die von ihm konfigurierten DNS-Namen. Genau genommen weiß ja niemand genau, wie Google bewertet.

Es ist einfach einer Webseite mehrere Domänennamen zu verpassen. Ich würde erwarten dass Google damit umgehen kann, zumal die Seiten ja nicht nur vom Inhalt "identisch" sind, sondern im Header auch die gleiche Google-ID haben. Die Seiten liegen aber auf verschiedenen Webservern (und damit IP-Adressen)
Man kann aber Google helfen, die "kanonische URL" zu lernen durch einen Eintrag im Header. (https://support.google.com/webmasters/answer/139066).



 Den habe ich nun auch gesetzt. Zusätzlich werden Sie feststellen, dass jeder Zugriff auf eine der anderen URLs nun alle auf "msxfa.de" umgeleitet werden-. Die "Hauptdomäne"

# Eintrag in der .htaccess zur Umleitung auf die www.msxfaq.de
Redirect permanent / http://www.msxfaq.de/

# Alternativ per ReWrite
# RewriteEngine On
# RewriteCond %{http_host} ^msxfaq.de [NC]
# RewriteRule ^(.*)$ http://www.msxfaq.de/$1 [R=301,L]

  • Google Analytics
    Andererseits weiß Google anhand der Integration in Analytics sicher sehr gut, wer die MSXFAQ besucht, wo er herkommt und wo er hingeht. Ob Google solche Daten auch in sein Ranking einbezieht ? Allerdings habe ich in Analytics sowohl die "msxfaq.net" als auch die "msxfaq.de" geführt. Die "msxfaq.net" habe ich nun entfernt in der Hoffnung, dass Google das nun nicht mehr als doppelte Seite ansieht.

IIn Google Analystics kan man eine Seite als "Hauptseite" definieren. Dsa habe ich mit der Adresse msxfaq.de nun gemacht. Vielleicht hilft es

  • Viele ausgehende Links
    Kommerzielle Firmen haben ein Interesse an einem "guten" PageRank, da Sie sich damit eine bessere Platzierung in Suchergebnissen erwarten. Daher gibt es auch Versucht diesen PageRank zu beeinflussen. Dazu zählt wohl auch der Aufbau von "Linkfarmen", also Seiten die nur dazu da sind auf andere Seiten zu verweisen um deren "Wertigkeit" darzustellen. Vergleichbar einem Wettrüsten versuchen Suchmaschinen solche Betrugsversuche zu erkennen. Eine Seite mit vielen ausgehenden Links und wenig oder keinen eingehenden Links könnte also darunter fallen.
    Soll ich wirklich die Links zu anderen weiterführenden Seiten reduzieren. Es sind eine ganze Menge asugehende Links:

    Wenn dieses Kriterium aber dazu führt, das Informationsseiten mit vielen weiterführenden Links zu anderen Seiten irrtümlich herabgestuft werden, dann sägt Google am eigenen Ast, auf dem es noch sitzt.
  • Verhältnis Eingehend/Ausgehende Links
    Angeblich versucht Google so genannt "SEO-Seiten", die den PageRank positiv beeinflussen auch anhand von Linkverhältnissen zu erkennen. Wenn also nur wenig Seiten zu mit verweisen, aber meine Seite viele andere Seiten verlinkt, dann ist kann das als eine solche Seite missverstanden werden. Sollte ich nun auch noch aktiv darum werben, damit andere Webseiten auf die MSXFAQ linken? Die MSXFAQ wird von vielen tausend Personen pro Tag besucht aber 95% über Suchmaschinen und nicht von Links aus Foren o.ä. Und ich bin sicher, dass viele auch die weiterführenden Links nutzen.

Ist das vielleicht mit ein Grund, warum einige Seiten die Links nicht mehr als einfache <a>-Tags addieren sondern mit JavaScript ausführen ?. Oh das mache ich ja auch für "Google Analytics".

Vielleicht sollte ich das auch noch mal überdenken ?/p>

  • "Schlechte" verweisende Seiten
    SSo wie die obigen Mails mich darauf hingewiesen haben, dass der PageRank meiner Seite die verlinkten Seiten abstraft, könnten natürlich auch andere Webseiten mit einem schlechten PageRank auch mich verweisen und mich damit abwerten.

Also müsste ich alle solche Seiten ebenfalls anschreiben und bitten ihren Link zu entfernen. Vielleicht sogar noch einen SEO Manager einstellen?.

Auswirkungen mit "nofollow" reduzieren ?

Nun ja die MSXFAQ hat von den Suchmaschinen ein gewisses Rating bzw. PageRank, den ich nicht direkt beeinflussen kann. Ich kann auch nicht bestimmen, der auf die MSXFAQ verlinkt. Ich kann aber sehr wohl steuern, welche Links ich selbst setze und ob diese "relevant" sind. Dazu hat Google selbst vor einiger Zeit ein neues Attribut für Links addiert, über die man dem Crawler sagen, kann, dass er diesem Link nicht folgen und damit den PageRank auf das Ziel anwenden soll.

Aber auf der Google-Seite steht selbst auch, dass der Crawler die Daten auswerten kann aber nicht muss. Also ist das kein adäquates Mittel, denn Google würde den Links dann wohl nicht folgen aber den Link dennoch zur Bewertung heran ziehen:

<!--  So koennte ich das Verfolgen aller Links unterbinden
. Ob Google das anders bewertet als ein NoFollow an jedem Link ? -->

<meta name="robots" content="nofollow" />

<!--  ein NoIndex ist keine Hilfe sondern macht die Webseite unsichtbar -->
<meta name="robots" content="noindex" />

<!--  ein Nofollow im HEEAD Bereicht sichert alle Links zusätzlich ab -->
<meta name="robots" content="nofollow">

Letztlich kann ich nur die Hyperlinks „unkenntlich“ machen, z.B. per JavaScript oder ganz weg nehmen. Sie als Besucher müssen die Adresse dann selbst z.B. per Zwischenablage übertragen. Das würde dann so aussehen:

Beide Links sind lesbar aber nicht anklickbar und hoffentlich macht Google nicht noch eine "RegEx"-Suche nach Links im Fließtext. Mal sehen wer im ApacheLog diese Seiten anspricht.

Interessant finde ich, dass z.B.: HostEurope (einer der Provider) der MSXFAQ Links in der Onlinehilfe auch "unklickbar" gestaltet.
z.B. auf der Seite zu htaccess (https://kis.hosteurope.de/support/faq/index.php?cpid=10963) findet sich einen Link zu Apache.org, der aber nicht funktioniert.



Im HTML-Code ist er aber nur als Link erkennbar aber nicht mit einem HREF versehen

Ob das Absicht ist ?

Was kann ich tun ?

Wenn ich das zusammen fasse, dann heißt das:

  • Ich möchte, dass meine Benutzer verweise auf andere Seiten „nutzen“ können
    Das ist ein Mehrwert und auch wegen der Links ist das WWW so geworden, wie es ist. Der Umweg einen Links erst abzutippen, nur damit ein Suchgigant seinen PageRank richtig ermittelt, ist keine Lösung.
  • Ich möchte nicht, dass andere Seiten negativ beeinfluss werden
    Ich sehe meine Seite als Informationsquelle für Exchange und PC Administratoren. Es ist definitiv kleine „LinkSeite“ oder ein Versuch zu tricksen und zu betrügen. Aber wenn Webmaster mit anschreiben, dann möchte ich darauf adäquat reagieren können
  • Google scheint sich nicht selbst an einen rel=“nofollow“ Eintrag am Link zu halten
    Sehr suspekt, wenn man nicht mal seine eigenen Empfehlungen folgt. Oder sollte das darauf hinauslaufen die Links "unkenntlich" zu machen ? Oder haben die beiden SEO-Manager nur den Link der MSXFAQ auf ihre Seiten gesehen aber das "nofollow" überlesen ?

Als schnelles Entgegenkommen mache ich die Link zu Webseiten, die mich Anschreiben "unklickbar", indem ich das <a></a> erst einmal in ein <noa></noa> umschreibe. Und hoffe, dass Google meinen PageRank nicht auf diese Seiten anteilig überträgt. Das kann ich später schnell wieder zurückdrehen, wenn sich der Neben lichtet.

Weitere Links