Erster Fehler: Die Hausaufgaben vergessen

Leider erlischt die Hausaufgabenpflicht nicht mit dem Ende der Schulzeit. Erwachsene, und ganz vorne weg Unternehmenslenker, müssen fleißig bleiben. Das gilt vor allem für die SEO-Optimierung der firmeneigenen Webpräsenz.

Warum? Weil es äußerst schlecht aussieht im deutschen SEO-Land. Anhand der Studie mIndex 2015 der Internetagentur mindshape, sollten heimische Unternehmen sogar reihenweise zum Nachsitzen antreten. Es mangelt ihnen oft schon an den Grundlagen.

Deshalb zuerst ein Crashkurs zu den elementaren Vokabeln, die Sie kennen müssen, um Ihre Webseite bekannt zu machen. Dazu gehört der Terminus Indexerstellung: Damit sind Suchmaschinen wie Yahoo, Bing! und Google laufend im Internet beschäftigt. Auf jede Nutzeranfrage hin durchforsten sie das World Wide Web wie eine riesige Bibliothek nach relevanten Inhalten. Aus den vielen gefundenen Themen spucken die Fahndungsprogramme dann binnen weniger Augenblicke eine Bestenliste aus – auch bekannt als Suchergebnisse.

Die nächsten Begriffe, die Sie kennen sollten, sind Crawler, Spider oder Bot. Google und Co. schicken ständig Bots, das sind kleine Programme, durch die großen Speicherbänke des Internets, um es zu kartografieren. Und zwar in vorauseilendem Gehorsam. Heißt, wenn Sie eine Suchanfrage stellen, wird die nicht in Echtzeit bearbeitet, weil die kleinen, virtuellen Roboter schon vorher fleißig waren. Und nur deren Vorauswahl taucht später in den Suchergebnissen auf.

Das führt zur nächsten Hausaufgabe. Wenn Sie Ihre Webseite bekannt machen wollen, müssen Sie die Struktur Ihrer Homepage auch für die Legionen der kleinen Crawler optimieren. Der Google-Support weiß dazu mehr Details.

Zweiter Fehler: Die Descriptions vernachlässigen

Weiter geht's. Sie sollten nämlich noch über die Description beziehungsweise Meta-Description und Title-Description Bescheid wissen. Laut den Machern der Studie, nutzen nur 48 Prozent der untersuchten Seiten diese Beschreibungen.

Warum sind Descriptions so wichtig? Weil Sie damit Ihrer Homepage und deren Unterseiten einen Titel sowie eine Kurzbeschreibung geben. Und eben diese werden von den Roboterarmeen der Suchmaschinen gefunden, gelesen, in die Bestenliste aufgenommen und damit öffentlich.

In vielen Content Management Systemen lassen sich diese Descriptions manuell festlegen. Alternativ können Sie diese auch automatisch aus der Überschrift und dem einleitenden Absatz erstellen lassen.

Google hält sich zwar sehr bedeckt, wie der hauseigene Algorithmus dafür funktioniert. Wie Sie gute Descriptions verfassen, verrät das Unternehmen auf den Support-Seiten aber trotzdem.

Dritter Fehler: Den Roboter übersehen

Ein weiterer Fauxpas bei der Suchmaschinenoptimierung bezieht sich auf die sogenannte Robot.txt. Das ist ein spezieller Textabschnitt Ihrer Seite, der für Bots wie ein Verzeichnis ist. Darin wird festgelegt, was der Crawler NICHT auf Ihrer Seite lesen soll und was er lesen darf.

Warum sollten Sie Teile Ihrer Webpräsenz unzugänglich machen? Ganz einfach, zum Beispiel damit die Spiders keine E-Mail-Adressen auslesen oder keine unfertigen Inhalte angezeigt werden, die noch in der Entwicklung sind.

Eigentlich ist die Robot.txt zwar nur eine hübsche Dreingabe, das Fehlen zeigt aber grundsätzliche Probleme auf. Das heißt: Wer die Robot.txt vernachlässigt, der macht das auch mit dem Rest seiner Homepage.

Sie wollen mehr Informationen, wie Sie die Robot.txt nutzen, um Ihre Webseite bekannt zu machen? Auf den Support-Seiten von Google wird Ihnen geholfen.

Vierter Fehler: Responsives Design links liegen lassen

Außerdem monieren die Verfasser der mindshape-Studie die Nutzung von responsiven Designs. Oder eher deren Nichtnutzung, denn die meisten Seiten verzichten darauf. Obwohl damit die Webpräsenz für Tablets, Smartphones und den Desktopcomputer optimiert werden kann. Einen Leitfaden dafür bekommen Sie – keine Überraschung – bei Google.

Besonders schlimm: Das Fehlen von responsivem Design ist allgemein bekannt, wie wir im Artikel Responsive Webdesign: Verbesserungsbedarf bei mobilen Seiten bereits berichtet haben.

Fünfter Fehler: Die Webanalyse weglassen

Eine letzte Schelte muss noch sein: Nur rund die Hälfte aller Unternehmen nutzt Analyse-Tools, um die Wirkung der eigenen Webseite zu überprüfen. Mithin wissen viele Firmen überhaupt nicht, wie hoch die Besucherzahlen sind, wie die Zielgruppe aussieht und was angeklickt wird. Ergo, kann gar nicht optimiert werden, weil niemand weiß, wo.

Wenn Sie Ihre Webseite bekannt machen und dafür untersuchen wollen, sollten Sie auf ein Profi-Tool setzen. Wir haben die wichtigsten zusammengestellt:

  • Google Analytics. Das klassische Analysetool, mit dem Sie Ihre Unterseite detailliert abklopfen können. Für die Premium-Version müssen Sie zahlen.
  • RankingCoach von der Telekom. Für eine monatliche Gebühr erhalten Sie alles, was Sie für die SEO-Optimierung brauchen.
  • Sistrix. Mit dem kostenpflichtigen Tool bekommen Sie zum Beispiel Traffic-Zahlen Ihrer eigenen Seite und können sich mit der Konkurrenz vergleichen.
  • Searchmetrics. Sie analysieren mit dem Tool alle relevanten Daten und bekommen obendrein Prognosen.
  • Xovi. Der Anbieter verkauft unterschiedliche Pakete, mit denen Sie Daten errechnen und vorausschauend planen können.

Weiterführende Links: