Alles Rund um SEO, Typo3 und Usability

25.03.2013 | 
20:39

SEO Checkliste Part I

SEO Checkliste Part I, die wichtigsten Punkte der Onpage-Suchmaschinenoptimierung.

Einfach eine Website erstellen, ohne Plan dahinter funktioniert schon lange nicht mehr. Wer heute seine Firma, sein Produkt oder seine Dienstleistung präsentieren möchte, will auch gefunden werden. Und da fängt das Problem an.

Durch verschiedene Updates seitens Google in deren Suchalgorhythmus in den letzten zwei Jahren, namentlich Penguin, Panda und Venice und diverser anderer Entwicklungen wie zum Beispiel der "Digital Millennium Copyright Act" (DMCA), wird es zunehmend schwerer, den Regeln der Kunst "konforme" und rechtssichere Websites zu erstellen.

Es sind daher einige Aspekte im Seitenaufbau zu berücksichtigen. Ich möchte diese in direkte und indirekte Suchmaschinenoptimierungs-Kriterien untergliedern.
Als direkte SEO-Kriterien verstehe ich die Regeln, die die technischen Ansprüche, die die Suchmaschinen vorgeben(ok wir sprechen eigentlich von Google) berücksichtigen und die Regeln die die HTML und CSS Syntax vorgeben. So gibt es beispielsweise die klare Aussage von Google, Keywords in den meta Tags nicht mehr zu berücksichtigen. 
Als indirekte Kriterien aber deshalb nicht weniger wichtig, verstehe ich jene, die nicht unmittelbar im Zusammenhang mit Suchmaschinenoptimierung im klassischen Sinne stehen. Als Beispiel möchte ich hier verschiedene Punkte der Usability oder Barrierefreiheit anführen. Dazu aber mehr in einem weiteren Teil.

 

SEO Checkliste Part I. Die wichtigsten Punkte der Onpage-Suchmaschinenoptimierung. Beginnen werde ich zuerst mit der technischen und Quellcode bezogenen Umsetzung der Suchmaschinenoptimierung. 

Ich werde diesen Artikel immer wieder um die neuesten Kriterien erweitern. Dranbleiben lohnt sich also ;)

 

Seitenaufbau im technischen Blickwinkel


Bei der Seitenstruktur unterscheiden wir zwischen dem semantischen und syntaktischen Aufbau. Das heißt zwischen der Code-Struktur und der Inhaltsgliederung. Allerdings möchte ich auch den technischen Hintergrund einer Seite zum syntaktischen Aufbau zählen.

 

  Die Code to Text Ratio
 Die Code Struktur spielt bei der Suchmaschinenoptimierung insofern eine Rolle, da das Verhältnis von Quellcode zu Text (Code to Text Ratio) Einfluss hat. Es sollte im Idealfall zu Gunsten des letzteren ausfallen. Das wird insbesondere dann schwierig, wenn Content Management Systeme oder Shop-Systeme zum Einsatz kommen. Das sind in der Regel Datenbank gestützte  Programme, die durch ihre Komplexität viel Code "bereitstellen" - ob man ihn braucht oder nicht. 

 

  Der Page Speed
 Dadurch bedingt, tritt ein weiteres Manko solcher Systeme auf, das die Positionierung in Suchmaschinen negativ beeinflusst: die Seiten-Ladegeschwindigkeit (Page Speed). Das kann man durch verschiedene, Programm- und Server-seitige Optimierungen verbessern, wie beispielsweise caching Methoden, mod_deflate oder Komprimierungs-Plugins. Allerdings sollte man grundsätzlich im Vorfeld prüfen, welche Plugins beispielsweise innerhalb eines CMS verwendet werden sollen. Denn je weniger "Ballast" mitgeschleppt wird, desto besser die Performance.

Im Rahmen der Suchmaschinenoptimierung bedeutet mehr Seitengeschwindigkeit auch weniger nerviges Warten für den Benutzer, bis eine Seite aufgerufen wird.

 

  Die Website Gliederung
 Die Gliederung einer Website setze ich einfach mal voraus, weshalb ich diese nur grob skizzieren möchte. Header, Hauptmenü, eventuell Untermenü, Hauptinhaltsbereich (Content), Footer/Footernavigation. Allerdings muss immer beachtet werden, dass eine Internet Seite auch erwartungsgemäß ist, weshalb man nicht immer nach "Schema F" vorgehen kann. 

Gleiches gilt beispielsweise für CSS Dateien. Abgesehen von der Vorgehensweise bei der inhaltlichen Gliederung im Stylesheet (alphabetisch oder thematisch), spielt  der Code Aufbau eine Rolle. Man kann in einer Zeile oder im Block schreiben. Der Block Stil ist zwar übersichtlicher vergrößert aber die CSS Datei. Deshalb kann man diese durch Optimizer Tools von jeglichen überflüssigen Leerzeichen befreien. Was auch für andere Code Dateien gilt.

 

  Duplicate Content
 Ein weiteres Problem, das sowohl vom verwendeten System als auch von den Domain oder beidem abhängig sein kann ist "Duplicate Content" (doppelter, identischer Inhalt). Dies tritt häufig im Zusammenhang mit Content Management Systemen und der Url Generierung auf. Wenn beispielsweise eine Url in der Entwicklungsphase zuerst mit Parametern in den caching Tabellen einer Datenbank gespeichert ist und danach als eine für Benutzer lesbare Url. 
Beispiel: 
meineDomain.com/index.php?id=1&ein_paar[parameter] 
und 
meineDomain.de/ersteUnterseite.html. 
Beide Urls sind von derselben Seite und haben folglich denselben Inhalt, sind aber unter verschiedenen Adressen erreichbar.
Bei den  Domain- beziehungsweise Website-Einstellungen sollte darauf geachtet werden, dass man sich für eine Version der Url entscheidet. Also mit "www" oder ohne. Das kann man durch einen Redirect in der .htaccess Datei sehr einfach erreichen.

Das Thema "Duplicate Content" ist kontrovers. Laut den Richtlinien für Webmaster "sucht sich Google eine Version der Url aus, was zu keiner Ahndung im Ranking führt. 
Sollte Google allerdings absichtlich erzeugten, doppelten Inhalt "erkennen", führt die durchaus zur Abstrafung. Ergo lieber gleich richtig machen, dann kann auch nichts anbrennen.

 

  Das Url Rewriting
 Nicht zu vergessen ist das "Url Rewriting". Wie im vorigen Abschnitt gezeigt, besteht eine Url bei dynamisch programmierten Seiten aus Parametern. Diese lassen für den normalen Benutzer erstmal keine Rückschlüsse auf deren Sinn oder Zweck zu. Zudem sind sie schlecht lesbar.

Urls sollten immer die hierarchische Seitenstruktur und deren Inhalte sinnvoll anzeigen. Nehmen wir als Beispiel diese Url:
http://luinas.com/blog/article/seo-checkliste-part-i/ 
An ihr kann man erkennen, wo man sich gerade befindet. Nämlich auf der Unterseite Blog der Seite luinas.com. Auf dieser Seite befindet sich der Blog-Eintrag "SEO Checkliste Part I". Und wie auch zu erkennen ist, wird der Eintrag als "article" klassifiziert.

Damit ist sofort klar, wo man sich befindet und was man vor sich hat.

 

  Die Seiten-/Url-Struktur
 Der eine Punkt der Seitenstruktur ist die sinnvolle, hierarchische Abbildung. Ein anderer Punkt ist die tiefe der Struktur. Tief verschachtelte Urls sind, was die Crawlbarkeit betrifft nicht zwingend ein Problem. Viel wichtiger ist die Frage, wie lange ein Besucher braucht, um die Unterseiten zu erreichen. Im Idealfall sollte der User nicht lange suchen müssen, um zu seinem Ziel zu gelangen. Deshalb sollte sich die Link-Struktur auch weitestgehend in der Url wiederspiegeln, um dem eine maximale Orientierung zu gewährleisten und auch, um eine gewisse Konsistenz zu wahren. Es geht in diesem Fall also um die Usability (Benutzerfreundlichkeit) der Website bzw. Linkstruktur, die Einfluss auf die Suchmaschinenoptimierung hat.   

 

  Die meta tags
 Ein Punkt, der in jedes Repertoire einer Website gehört sind selbstverständlich die "meta Tags". Sie geben Aufschluss über den Seiteninhalt, teilen Suchmaschinen die Betreiberdaten mit und klären Spider darüber auf, ob eine Seite indexiert werden soll oder nicht. Auch hier möchte ich mich nicht weiter drüber auslassen, wie diese im Detail auszusehen haben. Wie eingangs erwähnt, kann man inzwischen aber auf die "keywords" verzichten.

Die "meta Tags" können aber auch durch "Open Graph" Tags (Facebook) oder andere Tags ergänzt werden die durch Social Media Portale benötigt werden, um zu kennzeichnen, welche Bereiche einer Website für diese relevant sind. 

 

  Die robots.txt Datei
 Anknüpfend an die Seitenindexierung durch Crawler oder Spider ist die "robots.txt" Datei die  eigentlich relevante. In ihr wird das Indexieren sämtlicher Verzeichnisse und Seiten explizit "verboten" oder "erlaubt". Dies kann global geschehen oder für jede Seite einzeln. Analog gilt dies für die Crawler. 

 

  Die Sitemap
 In den robots wird im Übrigen auch ein Verweis auf eine "sitemap" gemacht. diese sollte immer in konformem xml Stil sein. Darüber hinaus kann man auch eine HTML-Sitemap auf der Website selbst anlegen. Die Sitemap dient dazu, crawler die vorhandenen Seiten zu "zeigen", um sie schneller in die Suchergebnislisten zu bekommen. Grundsätzlich notwendig ist sie nicht, gehört aber zu einer sauberen Internet Präsenz.

 

  Die Richt Snippets
 Ein sehr interessantes Thema, das sich mittlerweile so weit herumgesprochen hat, dass man es langsam aber sicher zum Standard erheben muss, sind die "Rich Snippets". Mit ihnen kann man Inhalte im Quellcode Kennzeichnen, wie sie für Suchmaschinen zu verstehen sind. Das hat den Vorteil, dass noch mehr relevante Informationen in den SERPS (Suchergebnisseiten) angezeigt werden.

 

  Das hreflang Attribut
 Die neueste Google Errungenschaft ist das "hreflang" Attribut. Mit diesem sollen alternative Sprachen  gekennzeichnet sein. Das hat unter anderem den Zweck Duplicate Content zu vermeiden. Ein Beispiel für einen Sprachumschalter auf eine Englische Website-Variante, sieht lt. Google Richtlinien als a-Tag Attribut so aus:
hreflang="en" rel="alternate"

 

  Der Canonical Tag
 Eigentlich zum Thema Duplicate Content gehörig aber trotzdem wichtig genug, um es separat anzusprechen ist der "Canonical Tag". Ein Canonical Tag hilft Google, unter mehreren, inhaltlich identischen URLs die richtige zu erkennen. Dabei fügen Sie dem Quellcode im Bereich  "head" folgende Zeile hinzu:
rel=”canonical” href=”Pfad/zur/url”  

 

All dies klingt sicherlich gut, ist auch durchführbar aber hängt im Endeffekt auch vom verwendeten Framework oder CMS und nicht zuletzt von Budget und Zeit ab.  

 

Beim Schreiben dieses kleinen Abrisses, wie Suchmaschinenoptimierung Onpage funktioniert, habe ich mich unter anderem an typischen Problemstellungen orientiert, die bei der Umsetzung eines Typo3-Projekts auftreten. Damit  möchte ich für Webmaster eine kleine Hilfestellung geben.  Trotzdem ist das analog auch auf andere Projekte mit Content Management Systemen oder dynamischer Programmierung übertragbar.

Wem noch was einfällt, darf das gerne in die Kommentare posten.

Im nächsten Teil werde ich auf die Gliederung des Seiteninhalts und deren Relevanz für die Suchmaschinenoptimierung eingehen.


  •  
  • 0 Kommentar(e)
  •  

Mein Kommentar

Benachrichtige mich, wenn jemand einen Kommentar zu dieser Nachricht schreibt.

Zurück

Kopieren Sie diesen Link in Ihren RSS-Reader

Letzte Nachrichten

SEO-Checkliste Part I
25.03.2013 20:39

Meist gelesene Posts

SEO-Checkliste Part I
11493 times viewed
25.03.2013 20:39