E-MAIL: INFO@SEOSMART.COM TELEFON: +49 030 2092 40 42

SEO Ranking Faktoren by Matt Cutts

30
Apr

Die Suchmaschinenoptimierung ist eine fast ausschließlich auf Erfahrungswerten basierende Online Marketing Strategie, für die es keine genormte Ausbildung und keine Zertifizierung gibt. Die Qualität der Ergebnisse steht somit in einem direkten Zusammenhang mit der Anzahl der bereits optimierten Projekte – sprich also dem erfahrungsbasierten Know-How, welches sich der SEO im Laufe der Zeit aneignen konnte.

Nicht umsonst wird die Suchmaschinenoptimierung häufig als Wissenschaft bzw. Königsdisziplin der Internetwerbung bezeichnet. Die einzigen gesicherten Erkenntnisse können aus den Aussagen der Suchmaschinen Betreiber selbst geschlossen werden. Ein schweres Unterfangen, schließlich gilt es neben den Richtlinien der Suchmaschinen über 200 Ranking Faktoren allein bei Google zu berücksichtigen.

GoogleGuy und Matt Cutts

Von besonderer Bedeutung für die SEO Branche sind in diesem Kontext der GoogleGuy und Matt Cutts. Bei beiden handelt es sich um Google Mitarbeiter – Gerüchten nach sogar um ein und dieselbe Person –, die regelmäßig Nachrichten und Kommentare rund um die Suchmaschine Google veröffentlichen. Das erlaubt SEOs, wichtige Rückschlüsse auf die Suchmaschinenoptimierung zu ziehen.

Matt Cutts’ Ranking Faktoren

Jede saubere Suchmaschinenoptimierung, die auf gute Platzierungen bei Google abzielt, stützt sich auf den Aussagen von Matt Cutts. Cutts’ Nachrichten und Kommentare, die in letzter Zeit vorwiegend über Videobotschaften erfolgen, bilden somit die Basis der Suchmaschinenoptimierung, welche durch die individuellen Erfahrungen des einzelnen ergänzt wird. Analysiert man die Äußerungen der letzten Zeit auf systematische Art und Weise, können zu den allseits bekannten SEO Basics folgende Best Practice Prinzipien abgeleitet werden:

OnPage Optimierung

1. Doppelte Inhalte. Duplicate Content hat keine Abstrafung zur Folge. Wird auf einem Internet Auftritt derselbe Content mehrmals verwendet, wird dieser lediglich einmal in den Suchergebnissen auftauchen können – sofern es sich nicht um eine sehr spezifische Nische handelt. Dabei wird der Content von der Seite in die Suchergebnisse aufgenommen, welcher Google am relevantesten erscheint. Zusätzlich versucht der Algorithmus den originalen Inhalt – zum Beispiel über das Alter bzw. Erstellungsdatum – ausfindig zu machen, um diesen zu ranken.

2. URLs und Keywords. Suchbegriffe, die in den URLs verwendet werden, können einen Einfluss auf das Ranking haben, auch wenn dieser im Vergleich zu anderen Ranking Faktoren gering ausfällt.

3. Dateierweiterungen. Wo möglich, sollte mit Dateierweiterungen in den URLs gearbeitet werden – vorzugsweise „.html“. Alternativ sollten zumindest sogenannten MIME Typen (Internet Media Typen) zum Einsatz kommen – beispielsweise „pdf“.

4. Sitemap. Sowohl für die Google Bots als auch für die User empfiehlt Cutts das Arbeiten mit einer HTML Sitemap.

5. Seiten Launches. Es können hunderte von Seiten auf einmal ins Netz gestellt werden – sofern diese über qualitativ hochwertigen Content verfügen – ohne eine Abstrafung befürchten zu müssen. Tausende neuer Seiten könnten allerdings zu einer manuellen Überprüfung führen.

6. Bindestrich und Komma statt Unterstrich. Die Trennung von Wörtern im Seitentitel bzw. der URL sollte mittels Bindestrich „-“ bzw. Komma „,“ passieren. Ein Unterstrich „_“ erfüllt nicht die Funktion eines Leerraums.

7. User IP Adresse. Wird diese zur Veränderung des Titles oder für eine lokal angepasste Seite verwendet, gibt es keine Probleme. Geo-location wird von Google nicht mit Content Cloaking assoziiert.

8. Seiten Levels. Seiten Levels spielen für das Ranking keine Rolle. So hat „beispielseite.de/nachrichten/2011/april/matt-cutts-und-seo.html“ dieselbe Chance auf ein gutes Ranking wie „beispielseite.de/matt-cutts-und-seo.html“ sofern beide Verzeichnisse von der Startseite aus verlinkt sind.

9. Drop-down und „lesen Sie mehr“. Wird hier viel Text versteckt, kann dies als Black Hat SEO Methode und somit als Spam gewertet werden. Statt JavaScript Accordion Buttons mit jeweils immer nur wenig sichtbarem Text, empfiehlt sich das Arbeiten mit Tabs, da hier keine Gefahr besteht, als Spam klassifiziert zu werden.

OffPage Optimierung und Backlinks

1. Bottom vs. Top Links. Links im oberen Abschnitt bzw. innerhalb des Content Bodys einer Seite werden anders gewichtet als Links, die sich am Ende der Seite befinden.

2. Nofollow Attribut. Auch wenn alle ausgehenden Links mit dem nofollow Attribut versehen werden, gibt es von Google keine Abstrafung. Dabei sollte allerdings beachtet werden, dass qualitativ hochwertige, ausgehende Links das Ranking positiv beeinflussen können, sofern die dahinterstehenden Seiten für User einen Mehrwert darstellen.

3. Beschränkung der seiteninternen Links. Früher konnte man in den Richtlinien von Google lesen, dass die Anzahl der seiteninternen Links pro Page auf 100 beschränkt sein sollte. Diese Beschränkung wurde mittlerweile entschärft: bei großen Portalen, die über entsprechend viele Inhalte verfügen, sind mehr Links durchaus in Ordnung. Dennoch sollte hier auf Natürlichkeit geachtet werden, da zu viele Links den Verdacht auf eine Linkfarm wecken können.

Weitere interessante Fakten

1. Mobile Seiten. Es gehört zur Best Practice für mobile Internet Auftritte mit Subdomains zu arbeiten, beispielsweise „mobile.beispielseite.de“. Die mobile Seite muss im Anschluss daran entsprechend dem Google Bot Mobile sowie den mobilen Usern zugänglich gemacht werden. Die herkömmliche Seite sollte sich im Gegensatz dazu an die Standard Internet User sowie den normalen Google Bot richten.

2. Google Bots. In einer Videobotschaft vom Februar 2011 teilte Matt Cutts mit, dass die Google Bots derzeit nur von IP Adressen crawlen, die sich in den USA befinden (keinem anderen Land).

3. Abstrafungen. Fehlerbeseitigungen und Verbesserungen, die ein Webmaster aufgrund einer vorangegangenen Abstrafung vornimmt, werden beim nächsten Besuch des Bots berücksichtigt. Wurde hingegen mit schlimmen Black Hat SEO Methoden gearbeitet, die ein manuelles Einschreiten von Google bewirkt haben, muss in jedem Fall mit einer sogenannten time-out penalty gerechnet werden, wobei sich die Länge dieser Abstrafung an der Schwere des Vergehens orientiert.

4. Twitter. Twitter wird von Google anders indiziert als eine Standard Web Präsenz. Vor allem ältere Tweets werden schneller aus dem Index ausscheiden.

5. Robots.txt. Häufig werden diverse Seiten über die robots.txt für Suchmaschinen unzugänglich gemacht. Verwendet ein User die Safe Search aus dem Hause Google, werden diese Seiten nicht angezeigt, da sich dahinter auch pornografische oder ähnlich ungeeignete Inhalte verbergen können.

Bei den eben genannten Faktoren handelt es sich um Momentaufnahmen der jüngsten Vergangenheit. Nachdem Google stets an der Verbesserung seines Algorithmus arbeitet und diesen dementsprechend verändert, können sich die Spielregeln bereits beim nächsten Update wieder ändern. Gerade deshalb muss bei der Suchmaschinenoptimierung darauf geachtet werden, so genau wie möglich zu arbeiten. Denn je sauberer in der Gegenwart gearbeitet wird, desto weniger muss eine zukünftige Abstrafung befürchtet werden.