Suchmaschinenoptimierung

PerpignanJeder Betreiber einer Website möchte normalerweise auf der ersten Seite der Suchergebnisse von Suchmaschinen wie Google und sozialen Netzwerken wie Facebook gefunden werden. Leider ist auf der ersten Seite der Suchergebnisse nicht genug Platz für alle Websites und Firmen dieser Welt, und die Nutzer der Suchmaschinen würden vermutlich auch das Vertrauen in die Suchmaschine verlieren, wenn es nur durch Suchmaschinenoptimierung einer Website möglich wäre, dort so prominent zu erscheinen.

Zu diesem Thema hat sich eine ganze Beratungsindustrie herausgebildet, die ihre Optimierungsdienste anbietet.

Ich sehe zwei Möglichkeiten zur Optimierung einer Website. Die erste Möglichkeit ist, den Suchmaschinen zu helfen, indem Sie "HTML-Standards" verwenden und den Suchmaschinen die "Wahrheit" über Ihre Website und deren Inhalte übermitteln. Die zweite Möglichkeit ist, andere Wege zu finden. :-) Dieses Kapitel befasst sich mit der ersten Möglichkeit.

Suchmaschinenoptimierung oder Search Engine Optimization (SEO) sind Maßnahmen, die dazu dienen, dass Webseiten im Suchmaschinenranking auf höheren Plätzen erscheinen.  Wikipedia

Benutzer von Suchmaschinen klicken gerne auf normale, unbezahlte Suchergebnisse anstatt auf die bezahlten Suchergebnisse daneben oder darüber. Sie vermeiden es, auf Anzeigen zu klicken. Google benutzt beispielsweise den PageRank-Algorithmus, um die "Wichtigkeit" einer Website zu bewerten, die dem Suchindex automatisiert hinzugefügt wird.

Wie kommt Ihre Seite in den Suchindex?

Suchmaschinen benutzen sogenannte Web Crawler (Roboter). Diese besuchen irgendwann einmal Ihre Seite und folgen allen Links, die sie finden können. Die besuchten Seiten werden dann im Suchindex gespeichert. Denken Sie daran, dass Roboter Ihre Seite nicht "sehen". Es sind keine Menschen, die Ihre Seite mit einem Webbrowser ansehen. Sie "sehen" nur den HTML-Quellcode Ihrer Website. Manchmal ist die Anzahl der möglichen Links auf einer Website so hoch, dass die Crawler Probleme haben, allen zu folgen. Das passiert oft bei Auflistungen von Inhalten, die unter Umständen auch noch filterbar sind oder eine Blätterfunktion haben. Endlose Kombinationen von Parametern sind möglich, und nur ein paar Kombinationen liefern echte Inhalte zurück.

Suchmaschinenfreundlich ist es, wenn Sie einfach mal "Hallo" zu den Robotern sagen und ihnen etwas mehr Informationen zu Ihrer Website geben, nachdem sie fertig ist. Suchmaschinen sind natürlich auch daran interessiert, so viel wie möglich über Ihre Website zu erfahren, da dadurch ihr Leben ebenfalls einfacher wird. Versuchen Sie es beispielsweise mit Google Webmaster Tools und der Bing Webmaster Toolbox.

Helfen Sie Ihrem Roboter

Ein Crawler besucht Ihre Website. Er kann nicht sehen und nicht lesen. Sie müssen ihm mit unterschiedlichen Methoden helfen!

  • Der Roboter sucht nach Schlüsselwörtern (Wörtern, die in Suchmaschinen gesucht werden) in Ihrem Inhalt. Denken Sie einfach daran, wenn Sie etwas schreiben. Manchmal schreiben Leute Ihre Inhalte passend zu den neuesten Ereignissen im Netz, um so eine bessere Position im Suchindex zu erhalten. Schreiben Sie nicht den 455. Blog-Eintrag über die tollen Features des neuen iPhone. :-) Seien Sie auch vorsichtig mit zu vielen Schlüsselwörtern im Text oder gar beim Einsatz von Techniken wie versteckten Schlüsselwörtern, die die gleiche Farbe haben wie der Seitenhintergrund. Die Roboter sind nicht blöd, sie brauchen nur etwas Hilfe. 
  • Der Roboter schaut sich auch die Schlüsselwörter in den Meta-Tags an. Das ist der Platz, an dem auch Sie Ihre Schlüsselwörter eintragen sollten. Joomla! bietet in fast jedem Bearbeitungsformular Möglichkeiten, Schlüsselwörter und Meta-Tags zu Ihren Inhalten einzutragen.
  • Eine der Kernideen der Auszeichnungssprache HTML ist das Verlinken von anderen Seiten. Nehmen Sie die Idee auf, und verlinken Sie ruhig mal zu anderen Seiten Ihrer Website innerhalb Ihres Inhalts.
  • Andere Websites könnten auf Ihre Website verlinken (Backlinks). Je mehr Seiten auf Ihre Site verlinken, desto besser. Links auf Ihre Startseite sind "wichtiger" als Links zu einer Seite innerhalb Ihrer Website (Deep Links). Vermeiden Sie bezahlte Links und Kommentarlinks von Seiten, die gar nichts mit Ihren Angeboten zu tun haben!
  • URL-Umschreibung ist eine Möglichkeit, um die völlige Verwirrung des Roboters zu vermeiden.
    Joomla! bietet ein paar Möglichkeiten in den SEO-Einstellungen (siehe Kapitel Konfiguration der Inhalte und der Website) sowie ein Alias-Feld unter jedem Titel in den Bearbeitungsformularen, um einen individuellen Pfad zu erstellen.

Es wäre möglich, diese Liste länger und länger zu machen. Die beiden Methoden, die technisch wichtig sind, sind die Meta-Tags und die URLs. Joomla! bietet für beides eine solide Basis und bietet mit der Umleitungskomponente zusätzlich noch eine Möglichkeit, 404-Seiten zu vermeiden.

Meine Meinung

Wenn Sie ein CMS wie Joomla! 1.6 und ein Template wie Beez2 benutzen, ist Ihr HTML-Quellcode technisch perfekt.
Wie ich bereits im Kapitel Inhalte verwalten schrieb:

Ein Inhaltsverwaltungssystem ist nützlich, um Informationen zu verwalten, die einen Wert für Ihr Publikum darstellen.

Wenn Sie nützliche Informationen mit einem Wert für Ihr Publikum bereitstellen, können Sie sicher sein, dass jede Suchmaschine dies bemerken wird.

Übrigens, haben Sie schon mal von der Hommingberger Gepardenforelle gehört?

Kommentare

>>Wenn Sie ein CMS wie Joomla! 1.6 und ein Template wie Beez2 benutzen, ist Ihr HTML-Quellcode technisch perfekt. <<
Stimmt, aber leider auch überhaupt nicht optimiert und somit auch nicht suchmaschienenfreundlich, schon garnicht bei Joomla 1.6x oder 1.7. Die Anzahl der Abfragen ist eine Zumutung, was sich leicht mit PageSpeed belegen lässt. Hier hat Joomla absolut den Trend der suchmaschinen verschlafen und nichts dazugelernt. Da nützt auch ein sauberer code nichts.

Grüße Mobby

Aus diesem Grund habe ich die Überschrift "Meine Meinung" gewählt, hilf' mir mal bitte.

1. Was ist "Der Trend"?
2. Was wurde wann "verschlafen?"

Der Trend geht nach kürzeren Ladezeiten mit so wenig Abfragen (requests) wie möglich, besonders was CSS und JS Dateien angeht. Kann man alles bei Google nachlesen. Gerade das Beez2 kommt aber nun mit mehr als reichlich CSS Dateien daher, und bei Joomla selbst ist die Anzahl auch nicht weniger geworden, was da alles ungefragt geladen wird, auch bei den JS-Dateien.
Der Normaluser hat aber überheupt keinen Plan wie er das ändern kann und ist auf Plugins angewiesen, die das für ihn erledigen, was aus meiner Sicht aber nicht Sinn der Sache ist. Solche Möglichkeiten müsste Joomla gleich mitbringen oder besser noch diese Situation vermeiden indem es nur das läd was tatsächlich gebraucht wird, den Rest als Option.
Analysieren Sie mal irgend ein Demo-Template, egal welches - mit PageSpeed, dann verstehen Sie worauf ich hinaus will.
Es macht einfach keinen Spaß oder Sinn mehr ein Template mit Image Sprites zu verschlanken wenn die Requests am Ende doch wieder höher sind weil 3-4 JS und CSS Dateien geladen werden, wo jeweils eine ausreichen würde. Für Sie und mich sicher kein Problem, aber für die Masse der Joomla-Nutzer schon. Grundsätzlich ist es aber so, dass eine solche Optimierung (requests einsparen) viel mehr bringt als Cache oder sonstwas, dieses Potential kann aber von der Mehrheit garnicht genutzt werden, weil sie nicht wissen wie. Verzeihen Sie mir, aber mich ärgert einfach, dass sich Joomla hier eher zurückentwickelt.
Grüße Mobby

Stimmt, Ladezeiten sind ein echtes Argument!
Aber ein "nacktes" Beez ist nicht sooo schlecht.
Ladezeiten spielen eine extrem wichtige Rolle bei Websites, die Werbung verkaufen und Klicks generieren wollen.
Es Ist so ein Thema, bei dem ich unsicher bin ob man Einsteiger eher verwirrt oder erleuchtet. Aber Google Page Speed werde ich ins Chapter aufnehmen (ist ja noch recht neu ...).
Hast Du sonst noch Ideen? Gerade so in Richtung Meta Tags, Kurz URLs, Social Media 'Geraffel'.
Viele Grüsse
Hagen

>>Aber ein "nacktes" Beez ist nicht sooo schlecht<<
Sorry, aber dem kann ich aus Optimierungssicht nicht zustimmen!
Ohne Bilder (Inhalte) kommt es locker bereits auf 28 Requests, was zwar nicht viel ist, aber eben an der falschen Stelle. So werden z.B. CSS nachgeladen (Import), was man nun garnicht machen soll, weil es noch mehr Abfragen generiert usw. Es ist ja nicht allein die Ladezeit, hier geht es schlicht um Geld, konkret um das von Google, denn jede Abfrage bedeutet für Google Kosten. Daher werden auch Seiten mit unnötig vielen Requests bereits jetzt schon abgewertet, was sich - in nicht so ferner Zukunft - noch viel mehr bemerkbar machen wird.
Es ist also durchaus ein Thema, was man nicht verschlafen sollte und dessen Lösung man auch nicht Erweiterungs-Entwicklern überlassen sollte, sonst wird die Gemeinde bald schrumpfen.
Alles was Sie zum Thema geschrieben haben ist natürlich absolut richtig und wichtig, nur wäre das dann der 2. Schritt
Grüße Mobby