Was ist SEO? Grundlagen der Suchmaschinenoptimierung 2023

Was ist SEO? Grundlagen der Suchmaschinenoptimierung 2023

Copyright © Shutterstock / Alexander Chaikin

In diesem Beitrag geht es um SEO. Hier bekommen Sie alle wichtigen Informationen rund um die Suchmaschinenoptimierung von Websites.

Table des matières

1. Was ist SEO?

SEO kommt ursprünglich aus dem Englischen und ist die Abkürzung für „Search Engine Optimization“. Übersetzt ins Deutsche bedeutet SEO „Suchmaschinenoptimierung“. Unter SEO fasst man eine Reihe von Maßnahmen zusammen, die dazu führen sollen, dass man mit der eigenen Website Top-Platzierungen innerhalb der Suchergebnisse von Suchmaschinen erreicht.

Zum SEO Erklärungs-Video

2. Geschichte von SEO – ein Rückblick

Als die ersten Suchmaschinen galten einfache Such-Systeme, die in den 90er Jahren Informationen und Dateien in bestimmten Netzwerken suchten. Die Suchmaschine “Archie” durchsuchte bspw. Dateien in FTP-Verzeichnissen. Damals gab es nur einfach Such-Operatoren, die mittels AND, OR und NOT durchgeführt worden sind. Als in den 90er Jahren das Internet geöffnet worden ist und immer mehr Websites das Licht der Welt erblickten, war es notwendig die zahlreichen Informationen einfach und schnell zugänglich zu machen.

Zu dieser Zeit entstanden dann:

  • Crawler und Spider, die im Internet gezielt nach Websites suchten
  • Indexer, die nach der Übergabe der Websites und Inhalte seitens der Crawler und Spider, diese in einen Index aufnahmen

Aus dem Index heraus konnten die Websites dann bewertet und in bestimmter Rangfolge ausgegeben werden. Lycos war dann 1994 die erste Suchmaschinen, mit der man mittels Suchbegriffen und Keywords nach Websites suchen konnte. Die Suchmaschine lieferte nach der Such-Eingabe entsprechende Ergebnisse aus, wo man bei Klick dann auf die Website gelangte. Das erleichterte die Informationsrecherche und -suche im Internet erheblich. Suchte man zu dieser Zeit nach Informationen und passenden Websites, so musste man die Domain kennen oder sich durch zahlreiche Webkataloge klicken.

Da immer mehr Websites veröffentlicht wurden, wuchs auch die Informationsmenge im Internet. Nutzer suchten nach sinnvollen Möglichkeiten diese Informationen zu finden. Webmaster verfolgen zudem auch immer mehr das Ziel, diese Inhalte auffindbar zu machen. Weitere Suchmaschinen wie Yahoo oder Altavista entstanden. 1997 kam dann Google, die mit AOL und Netscape zusammenarbeiteten. Ende der 90er Jahre verzeichnete Google mehr als 500.000 Suchanfragen pro Tag.

Das Interesse war bei Webmastern groß, bei Suchmaschinen gelistet zu werden. Viele potentielle Besucher winkten für die eigene Website. Da das Internet immer populärer und immer mehr Menschen zugänglich wurde, tummelten sich auch viele Hobby-Website-Bastler mit ihren Websites im Internet. Entsprechend war die Konkurrenz groß in den Suchergebnissen von Google und Co.

Somit stürzten sich alle langsam in die Optimierung der Website für Suchmaschinen. Die Suchmaschinenoptimierung entstand dabei. Anfangs waren die Suchmaschinen-Anbieter primär auf ein System der exakten Übereinstimmung ausgerichtet. Das bedeutet, dass aus heutiger Sicht einfache Optimierungen wie die Platzierung von Keywords im Meta-Keywords-Tag oder oft genug im Fließtext schon sehr gute Erfolge bei der Positionsbestimmung brachten.

Diese “einfachen Möglichkeiten” führten auch dazu, dass Suchergebnisse stark manipuliert wurden. So kamen Websites auf die vorderen Positionen, die keinen großen Nutzen für die Website-Besucher hatten. Im schlimmsten Fall waren diese Websites schädlich. Sogenannte Blackhat-Techniken erlebten ihren Boom.

Suchmaschinen erkannten das Problem immer mehr und sahen sich unter Druck, dass bei minderwertigen Ergebnissen weniger Nutzer ihre Suchmaschine nutzen würden. Entsprechend wurden die Bewertungsgrundlagen und Qualitätsrichtlinien stetig verbessert. Zahlreiche Algorithmus-Updates entstanden in dieser Zeit, die dazu führten, dass es immer schwieriger wurde mit Blackhat-Techniken gute Ergebnisse zu erzielen. Die Suchmaschinen – allen voran Google – gingen weg vom System der exakten Übereinstimmung hin zu einem System, der immer besser die Relevanz auf Basis geheimer Faktoren ermitteln konnte.

Dadurch hat sich SEO zu einem komplexen Themengebiet entwickelt. Viele Ranking-Faktoren bestimmen heutzutage die Ergebnisse – die meisten davon werden von Google und Co. geheim gehalten. Auf Basis von Tests und Studien lassen sich viele Faktoren jedoch ableiten. Entstanden sind dadurch die Säulen des SEO, wo die verschiedenen Ranking-Faktoren grob kategorisiert werden.

3. Einführung in die Säulen der Suchmaschinenoptimierung (SEO)

Diese Maßnahmen werden klassischerweise in SEO-Technik, Content und Linkbuilding unterteilt. Jeder dieser Bereiche verfolgt unterschiedliche Teil-Ziele, die aber gemeinsam auf das Ziel der Top-Positionen einzahlen.

  • SEO-Technik: In der SEO-Technik geht es primär darum, alle technischen Hürden, die eine Suchmaschine davon abhalten würde die eigene Website zu indexieren, aus dem Weg zu räumen. Neben der Steuerung des Crawlings geht es vor allem darum, dass die Inhalte von Suchmaschinen ausgelesen und verstanden werden können. Die SEO-Technik bildet somit die Basis der Suchmaschinenoptimierung (Google Suchmaschinenoptimierung). Erst wenn die Website in den Index von Suchmaschinen aufgenommen werden kann, ist ein Ranking überhaupt erst möglich.
  • Content: Im Content geht es darum, die Inhalte einer Website so aufzubereiten, dass sie einen Mehrwert für die Nutzer bieten. Zusätzlich müssen die Inhalte so optimiert werden, dass auch eine Suchmaschine leicht und schnell erkennt, welches Thema behandelt wird. Ist das gegeben, können Suchmaschinen wie Google oder Bing, den Inhalt einzelnen Keywords und Keyword-Kombinationen zuweisen. Allein mit guten und wertvollen Inhalten können schon gute Ergebnisse erzielt werden.
  • Linkbuilding: Möchte man aber die Top-Positionen erreichen, so kommt man an Linkbuilding nicht vorbei. Dabei handelt es sich um externe Verlinkungen von anderen Websites zur Eigenen. Diese Verlinkungen sehen Suchmaschinen als Empfehlung an. Während sich die SEO-Technik und Content auf der eigenen Website abspielt, findet Linkbuilding auf fremden Websites statt. Vor allem bei stark umkämpften Keywords, werden Backlinks wichtig, da hier Suchmaschinen neben einer technisch einwandfreien Website und guten Content auf Empfehlungen (also Backlinks) von anderen Websites angewiesen sind. Nur so kann die Suchmaschine ein Ranking sinnvoll bestimmen.

Steuerungsfaktoren der Suchmaschinenoptimierung

SEO (Suchmaschinenoptimierung) besteht also aus 3 Säulen. Diese lassen sich jedoch noch einmal gruppieren, sodass man von Onpage- und Offpage-Optimierung spricht:

  • Onpage
  • Offpage

Wir werden später noch genauer auf die einzelnen Bereiche eingehen.

4. Unterschied SEO, SEA und SEM

Bei der Suchmaschinenoptimierung denkt man immer sofort an Top-Platzierungen und an die Suchergebnis-Liste. Bei der Suchergebnis-Liste spricht man auch von der SERP. “SERP” steht im Englischen für “Search Engine Result Page” – zu deutsch “Suchmaschinen-Ergebnisseite”.

Die SERP wird jedoch nicht nur mittels SEO-Maßnahmen besetzt. Grob lässt sich die SERP daher in folgende 2 Bereiche unterteilen:

  • Bezahlter Bereich: Dieser Bereich basiert auf bezahlten Such-Anzeigen. Diese werden über das System “Google Ads” gebucht. Die Auslieferung und Positionsbestimmung funktioniert anders als bei SEO. Die Google Ads-Anzeigen werden am oberen und unteren Ende der SERPs ausgegeben. Manchmal werden sie auch als Google Shopping-Anzeigen rechts neben der klassischen SERP ausgespielt. Der bezahlte Bereich kann nicht mittels SEO-Maßnahmen direkt beeinflusst werden.
  • Organischer Bereich: Der organische Bereich ist der, der mittels SEO-Maßnahmen bestimmt wird. Grundsätzlich gibt es pro Suchergebnisseite 10 mögliche Platzierungen.

Mit diesem Hintergrundwissen lässt sich der Unterschied zwischen SEA und SEO besser verstehen:

  • SEA – “Der Sprint”
    • SEA steht für “Search Engine Advertising” und fasst alle Maßnahmen zusammen, die den bezahlten SERP-Bereich beeinflussen. Im deutschen sagt man dazu neben SEA auch Suchmaschinen-Werbung.
    • Prompte Implementierung
    • Höhere Cost-Per-Clicks
    • Reaktionsfreudig / flexibel
    • Anpassbar / kontrollierbar
  • SEO – “Der Marathon”
    • SEO (Suchmaschinenoptimierung) steht – wie anfangs erwähnt- für “Search Engine Optimization” und fasst alle Maßnahmen zusammen, die den organischen Bereich beeinflussen.
    • Längere Vorlaufzeit
    • Baut auf dem Vertrauen der Suchmaschine auf
    • Geringer CPC
    • Kontinuierlicher Arbeitsaufwand

Nach dieser Unterscheidung ist es auch noch gut zu wissen, wie diese beiden Disziplinen zusammenspielen:

Hier sollten also die Synergie-Effekte von SEO & SEA genutzt werden, denn dadurch werden wird die Klickrate erhöht und die Markenbekanntheit gesteigert. Durch den Austausch von guten Anzeigentexten kann die Klickrate im SEO Bereich gesteigert werden und aus dem SEA Bereich können ebenfalls eine bessere Auswahl für den SEO Bereich getroffen werden.

Unter dem Begriff “SEM” werden dann beide Disziplinen zusammengefasst. SEM steht für “Search Engine Marketing”, also Suchmaschinen-Marketing. Es existiert aber auch eine Definition, dass SEM = SEA ist. Es hat sich jedoch allgemein durchgesetzt, dass “SEM = SEO + SEA” ist.

Zum SEO vs. SEA Artikel

Zur SEO Agentur

Zur SEA Agentur

Zur SEM Agentur

5. Ranking-Faktoren

Alle genannten Aspekte unter “SEO-Technik”, “Content” und “Linkbuilding” zielen darauf ab, die Rankings der Domain positiv zu beeinflussen. Im SEO (Suchmaschinenoptimierung) gibt es eine Reihe an möglichen Stellschrauben. Wichtig ist dabei der Fokus auf die Ranking-Faktoren.

Dabei handelt es sich um Optimierungen, die tatsächlich eine Auswirkung auf das Ranking haben. Diesen Aspekt kann man am Beispiel der drei Meta-Angaben Title, Description und Keywords näher beschreiben:

  • Der Meta-Title ist ein wichtiges Ranking-Signal für Google. Aus diesem Grund sollte der Title kurz und prägnant sein sowie die wichtigsten Keywords enthalten. Auch 30% der User lesen diesen Titel. Die optimale Länge für den Meta-Titel sind max. 65 Zeichen.
  • Die Meta-Description ist jedoch kein Ranking-Faktoren, kann sich jedoch indirekt auf die Rankings auswirken. Eine gut formulierte Meta-Description animiert den Nutzern zum Klicken. Findet der Nutzer die Beschreibung ansprechend, laut Studien lesen 44% die Beschreibung, genug und erzeugt dies dadurch einen Klick innerhalb der SERP, dann erhöht sich auf die Klickrate (CTR). Diese wiederum ist ein – nach vielen Vermutungen – Ranking-Faktor. Hierfür sollte eine maximale Länge von 160 Zeichen mit Leerzeichen gewählt werden.
  • Die Meta-Keywords-Angaben sind kein Ranking-Faktor (mehr). Google verwendet das Element seit 2009 nicht mehr für das Ranking.
  • Motivationsfaktoren für einen Klick: exakte Suchanfrage im Title und Description, detaillierte Informationen bereits in der Description angeben, vertrauenswürdige Domain mit hoher Bekanntheit und Vertrautheit der Website, USP, CTA, Bewertungen und Rich Snippets

Während man die Ranking-Auswirkungen dieser 3 Elemente relativ gut abschätzen kann, ist das bei vielen anderen Faktoren nicht der Fall. Vor allem die Gewichtung einzelner Aspekte im Rahmen der Gesamtbewertung ist nicht bekannt. Laut Aussagen von Google fließen insgesamt über 200 Faktoren in den Algorithmus ein, um eine Website zu bewerten. Die meisten dieser Faktoren sind geheim. Einige Faktoren wie SSL oder Pagespeed kommuniziert Google offen. Bei den meisten Ranking-Faktoren handelt es sich meist um Erkenntnisse aus Erfahrungswerten, Tests und Studien, die durchgeführt worden sind.

Nachfolgend finden Sie eine kleine Liste an Ranking-Faktoren als Anhaltspunkt. Beachten Sie, dass sich die Liste jederzeit ändern kann. Auch die Gewichtung einzelner Faktoren wechselt stetig. Immer wieder werden Algorithmus-Updates veröffentlicht, wo sich Anpassungen an der Bewertungsgrundlage ergeben.

  • Benutzerfreundlichkeit: Google nimmt positive Nutzer-Signale wahr und belohnt dies mit besseren Rankings. Ein ansprechendes Design, eine übersichtliche Website-Struktur, gute Navigation und viele weitere Aspekte spielen hier eine Rolle.
  • Bounce Rate: Die Bounce Rate (oder Absprungrate) ist der Anteil der Besucher, die wieder von der Website gehen ohne eine weitere Unterseite besucht zu haben. Klickt ein Nutzer auf ein Suchergebnis, um nur wenige Sekunden später von der Website abzuspringen und um auf die Suchergebnisseite zurückzugelangen, kann Google als negatives Signal werten können. Nicht immer ist eine hohe Bounce Rate ein schlechtes Signal. So können Nutzer einen “Bounce” verursachen ohne dass sie unzufrieden sind. Das ist vor allem dann der Fall, wenn der Nutzer die gesuchten Informationen gefunden hat und wieder geht.
  • Interstitial Popups: Dieser Punkt geht Hand in Hand mit der Nutzer-Erfahrung und Benutzerfreundlichkeit. Dabei sind Websites, die Popups einsetzen im Visier. Sobald Popups die Erfassung des Hauptinhalts erschweren und sonst auch störend sind, gefährden sie die Rankings. Im offiziellen Blog-Beitrag von Google gibt es dazu detaillierte Informationen und Anleitungen.
  • Keywords: Der Keyword-Einsatz im HTML-Dokument spielen ebenfalls weiterhin eine wichtige Rolle als Ranking-Faktor. Das jeweilige Hauptkeyword der Seite sollte im Title, H1, Zwischenüberschriften und Fließtext platziert werden. Dadurch stellt man eine Relevanz zu der Suchanfrage des Nutzer her. Suchmaschinen können dadurch die Seiten den Keywords zuordnen.
  • Content: Content is King! Neben Keyword-Einsatz, Inhaltsstruktur und Lesbarkeit geht es beim Content vor allem die richtigen Themen zielgruppenspezifisch aufzubereiten. Auch die Aktualität und Regelmäßigkeit von Content-Veröffentlichungen spielen eine wichtige Rolle.
  • Backlinks: Externe Verlinkungen zu der eigenen Website sind der wichtigste Ranking-Faktor. Während man in Nischen noch mit Content gute Platzierungen erzielen kann, reicht bei stark umkämpften Keywords Content alleine nicht aus. Hier sind dann hochwertige Backlinks notwendig, um die gewünschten Erfolge zu zielen.
  • Pagespeed: Schon 2010 hat Google den Pagespeed von Websites ins Visier genommen und es zu einem Ranking-Faktor gemacht. Je schneller eine Seite lädt, desto zufriedener sind Nutzer und Suchmaschinen.
  • SSL: Im August hat Google offiziell verkündet, dass SSL ein Ranking-Faktor ist. Websites, die über HTTPS erreichbar sind, können in der Suche einen leichten Bonus erzielen. Neben dem Ranking-Effekt haben Websites mit SSL-Verschlüsselung Auswirkungen auf das Nutzer-Verhalten. Besucher fühlen sich durch den Einsatz von HTTPS sicherer auf der Website.

Teste jetzt unseren SSL Checker:

6. Indexierung und Crawling

Im Google Leitfaden wird unter anderem aufgezeigt, wie Sie Ihre Website in den Google-Index aufnehmen lassen und für angemessenes Crawling sorgen. Wir präsentieren kurz und kompakt, welche Optionen Google bereitstellt, damit Ihre Website in den Suchergebnissen auftaucht und wie Sie mit Google Suchmaschinenoptimierung beginnen.

6.1 So arbeiten Suchmaschinen

Suchmaschinen nutzen Crawler, auch Bots genannt, deren Aufgabe es ist, Webseiten zu analysieren. Crawler verhalten sich im Grunde wie normale Internetnutzer. Sie folgen den Links von Webseiten, um so auf eine andere Seite zu gelangen. Diesen Vorgang wiederholen sie immer wieder. In selteneren Fällen folgen die Crawler keinem Link, sondern starten auf einer zufälligen Webseite neu. So kann verhindert werden, dass Crawler sich immer innerhalb der gleichen Domain bewegen. Dies wäre der Fall, wenn es auf einer Domain nur interne Verlinkungen gibt.

Anhand einer Analyse entscheidet die Suchmaschine, ob die gecheckte Seite in den Index (also die Suchergebnisseite) aufgenommen wird. Dabei helfen Meta-Daten und Keywords dem Crawler zu verstehen, worum es auf einer Seite geht. Durch einen speziellen Algorithmus gibt die Suchmaschine dann eine Ergebnisliste aus, die dem Nutzer möglichst gute Ergebnisse zu seiner Suchanfrage liefern soll.

6.2 Website zur Aufnahme einreichen

Google stellt die Search Console zu Verfügung. Unter https://www.google.com/webmasters/tools/submit-url?hl=de lässt sich eine URL eintragen und einreichen. Hier geben Sie am besten die Startseite ein. Hat die Startseite eine korrekte Verlinkung zu Unterseiten, sollten all Ihre Seiten von den Bots gefunden werden. Bei komplexen Websites mit vielen Unterseiten sollte eine Sitemap eingereicht werden. Zu diesem Zweck müssen Sie unter https://google.com/webmasters/ einen Search-Console-Account erstellen, dort Ihre Website hinzufügen und die Sitemap einreichen. Kurze Zeit später sendet Google seine Bots aus, um Ihre Seiten zu scannen. Eine Aufnahme in den Index kann vonseiten Googles allerdings auch abgelehnt werden.

Da die robots.txt die erste Datei ist, die ein Crawler abruft, sollte auch hier die XML-Sitemap hinterlegt werden. So bekommt Google direkt einen Überblick über den Inhalt der Seite.

6.3 Crawlen von bestimmten Seiten verhindern

Manchmal sind Bots unerwünscht. Enthalten Unterseiten Informationen, die nicht in Suchergebnissen bei Google und Co. auftauchen sollen, können Sie robots.txt nutzen, um das Crawlen zu verhindern. Diese Datei wird im Stammverzeichnis (example.com/robots.txt) Ihrer Website platziert und enthält Anweisungen für Bots. Durch korrekt formulierte Anweisungen lassen sich bestimmte Bereiche Ihrer Internetpräsenz vom Crawling ausschließen. Um die Erstellung einer angemessenen robots.txt zu erleichtern, gibt es in der Search Console einen Generator.

Allerdings kann die robots.txt nicht das Crawling einer Website zu 100% verhindern. Gibt es zum Beispiel einen direkten Backlink auf eine Seite, oder wurde die Seite bereits schon indexiert, bevor sie durch die robots.txt gesperrt worden ist, kann sie möglicherweise auch trotz des entsprechenden Verweises in der robots.txt-Datei im Index angezeigt werden:

Eine Methode zur Verhinderung der Indexierung, an die sich alle großen Suchmaschinen halten, ist der Wert “noindex”. Dieser wird den entsprechenden Seiten als Meta -Tag zugefügt:

<meta name=”robots” content=”noindex” />

Diese Angabe besagt, dass Suchmaschinen die entsprechend ausgezeichnete Seite nicht in ihren Index aufnehmen dürfen. In dem Zuge kann auch der Wert “nofollow” verwendet werden. Er verhindert, dass die Crawler den Links der Seite folgen.

Sinnvoll kann das Verhindern der Indexierung sein, wenn Duplicate Content vermieden werden sollen. Andernfalls könnte Google sogenannte Penalties aussprechen, die dem Ranking einer Seite schaden.

7. Warum ist Suchmaschinenoptimierung (SEO) wichtig?

SEO bietet verschiedene Vorteile. Zunächst sollte man ein paar Studien heranziehen:

  1. Suchmaschinen sind laut der ARD/ZDF-Onlinestudie 2019 nach Messenger-Diensten wie Whatsapp das meist genutzte Medium im Internet. Vor allem wenn es um die Beschaffung von Informationen und den Kauf von Produkten sowie die Buchung von Dienstleistungen geht, werden vorrangig Suchmaschinen genutzt.

  2. Unter den Suchmaschinen wird wiederum Google am häufigsten genutzt. In Deutschland liegt der Google-Anteil im Suchmaschinen-Markt bei ca. 93 % laut Statcounter.

  3. Zum anderen geht es nicht einfach darum bei Suchmaschinen vertreten zu sein. Platzierungen auf den hinteren Positionen bringen nicht viel. Laut einer Studie von Backlinko erhält Position 1 ca. 32 % der Klicks, Position 2 ca. 25 % der Klicks, Position 3 nur noch ca. 18 %, etc. Zudem bekommt Seite 1 der Suchergebnisse (Positionen 1 bis 10) fast alle Klicks ab, während auf Seite 2 (Positionen 11 bis 20) kaum noch Klicks stattfinden.

Erzielt man nun mit SEO-Maßnahmen Top-Platzierungen, landen die meisten Nutzer auf der eigenen Website. Da jeder ein Stück vom Kuchen abhaben möchte, herrscht hier großer Wettbewerb um den Kampf von Top-Positionen innerhalb der SERP.

8. Vorteile von SEO (Suchmaschinenoptimierung)

Setzt man SEO-Maßnahmen gezielt ein und stellt alle wichtigen Drehschrauben sicher, kommt man in den Genuss folgender Vorteile:

  • Sichtbarkeit: Bei Top-Platzierungen erscheint man ganz oben auf den Suchergebnissen und ist somit mit der eigenen Marke sofort sichtbar bei Nutzern. Selbst wenn sie nicht die Website anklicken, so ist man mit der Marke präsent und bleibt in Erinnerung.
  • Traffic: Klicken die Nutzer jedoch auf ein Suchergebnis, so generiert man Traffic auf der eigenen Website.
  • Umsatz: Stimmen Inhalte und Nutzer-Führung (aus UX-Sicht), bekommt man so auch im besten Fall Umsätze über SEO, wenn der Nutzer auf der Website etwas kauft.

9. Überblick der Suchmaschinen

Spricht man von Suchmaschinen und SEO, dann denken die meisten sofort an Google. Woran kann das liegen? Schauen wir uns die Marktanteile der Suchmaschinen in Deutschland an, ergibt sich laut Statcounter folgendes Bild (Stand Mai 2020):

  • Google 92,88 %
  • Bing 4,15 %
  • Ecosia 0,86 %
  • Yahoo 0,71 %
  • DuckDuckGo 0,69 %
  • T-Online 0,24 %

Der weltweite Marktanteil der Suchmaschinen ergibt ein etwas anderes Bild (Quelle: Statcounter, Stand: Mai 2020):

  • Google 92,06 %
  • Bing 2,61 %
  • Yahoo 1,79 %
  • Baidu 1,16 %
  • Yandex 0,56 %

Die meisten Menschen nutzen also Google als bevorzugte Suchmaschine. Aus diesem Grund verknüpfen viele Internet-Nutzer Suchmaschinen direkt mit Google. Deshalb liegt auch der Fokus beim SEO auf Google. Wer jedoch internationales SEO (Suchmaschinenoptimierung) betreibt, sollte auch die Optimierung auf andere Suchmaschinen in die SEO-Strategie aufnehmen:

  • In Japan ist Yahoo etwas stärker vertreten (dennoch ist Google auch in Japan Marktführer)
  • In Russland laufen viele Suchanfragen über die Suchmaschine Yandex
  • In China ist Baidu Marktführer. Die Suchmaschinen Sogou und Haosou sind ebenfalls noch vor Google in der Rangliste.

10. SEO-Strategie

Mit diesem Hintergrundwissen kann nun eine nachhaltige SEO-Strategie definiert. Bevor es an die Optimierungen geht, bildet eine durchdachte SEO-Strategie die Basis für alle Maßnahmen in der Google Suchmaschinenoptimierung . Für die Erstellung einer SEO-Strategie gibt es verschiedene Frameworks, die man einsetzen kann. Eine einfache Möglichkeit, eine SEO-Strategie zu entwickeln wäre folgende Schritte:

  1. Definition Ziele und Zielgruppen
  2. Analyse
  3. Bewertung
  4. Erstellung Roadmap
  5. Laufendes Monitoring

10.1 Definition Ziele und Zielgruppen

Zunächst geht es darum, die notwendigen Rahmenbedingungen festzulegen. Vor allem die Definition der Ziele legt fest, welchen Fokus man in der Roadmap setzen muss. Im SEO (Suchmaschinenoptimierung) können verschiedene Ziele verfolgt werden. Mögliche Ziele sind:

  • Top-Positionen mit bestimmten, wichtigen und generischen Keywords besetzen
  • Die Sichtbarkeit innerhalb der SERPs steigern
  • Verbesserung der Klickraten innerhalb der Suchergebnisse
  • Den Website-Traffic über SEO erhöhen
  • Anzahl Leads und Conversions über die organische Suche erhöhen

Einige Ziele sind aufeinander aufbauend. Eine höhere Sichtbarkeit bringt meist auch gleichzeitig mehr SEO-Traffic. Es macht jedoch einen Unterschied worauf man sich fokussiert:

  • Liegt der Fokus auf die Erhöhung der Sichtbarkeit, so ist es sinnvoll zunächst eine Keyword-Analyse durchzuführen. Die Keywords mit den höchsten Suchvolumen können z.B. höher priorisiert und optimiert werden. In Folge dessen muss ausreichend Content erstellt werden, um die Sichtbarkeit zu steigern. In der SEO-Strategie sollte also genug Zeit und Budget für die Inhaltserstellung eingeplant werden.
  • Liegt der Fokus auf der Erhöhung der Leads und Conversions müssen transaktionsorientierte Suchanfragen optimiert werden. Das geschieht über die Optimierung der dazugehörigen Landingpages und die Steigerung der externen Empfehlungen. Auch UX-Optimierungen direkt auf der Seite, um die Nutzer zielgerichtet zu einer Conversion zu führen, gehören hier dazu.

Solche Gedanken muss man sich vor dem Start der Umsetzungen machen, um eine fokussierte Maßnahmenplanung erstellen zu können, die auf das Ziel ausgerichetet ist. Zusätzlich muss man sich auch Gedanken über die Zielgruppe machen:

  • Was sind die Bedürfnisse der Zielgruppen?
  • Nach welchen Informationen sucht meine Zielgruppe?
  • Was sind mögliche Pain Points, die auf der Website aus dem Weg geräumt werden müssen?
  • Wie sieht eine typische User Journey meiner Zielgruppe aus?
  • Was sind die entscheidenden Anreize, damit meine Nutzer auch zu Kunden werden?

Die Beantwortung dieser Fragen hilft, besser zu verstehen wonach die eigene Zielgruppe sucht, welche Informationsbedürfnisse sie hat und was man als Webmaster und SEO tun kann, um mögliche Hürden zu entfernen. Die Erstellung von Personas hilft dabei, sich besser in die Zielgruppen hinein zu versetzen.

10.2 Analyse

Wurden die Grundparameter definiert, kann es schon in die Analyse gehen. Ziel der Analyse ist es, sich einen Überblick über den Status Quo der Domain hinsichtlich der SEO-Performance zu verschaffen.

Mit dem Status Quo stellt man fest, wo man steht. Mit dem definierten Ziel weiß man, wo es hingehen soll. Der Raum dazwischen wird mit den notwendigen Maßnahmen befüllt.

Bei der SEO-Analyse sollten zunächst alle relevanten SEO-Kennzahlen festgehalten werden. Das ist wichtig, um nach der Umsetzung der Roadmap zu wissen, was man erreicht hat. Folgende Kennzahlen können beim Status Quo dokumentiert werden:

  • Sichtbarkeit
  • Keyword-Rankings
  • Traffic
  • Conversions über SEO (Suchmaschinenoptimierung)

Überprüft man nun den Ist-Stand der Website kann man sich anhand der 3 SEO-Säulen durcharbeiten:

  • SEO-Technik: Hier werden alle technischen Parameter geprüft. Was alles zur SEO-Technik gehört, erfahren Sie weiter unten.
  • Content: Auf Basis von Keywords wird der aktuelle Content unter die Lupe genommen.
  • Linkbuilding: Das aktuelle Backlink-Profil sollte näher analysiert werden, um anschließend Linkbuilding-Maßnahmen zu definieren.

Alle Auffälligkeiten sollten gesammelt und in eine Roadmap dokumentiert werden.

10.3 Bewertung

Gleichzeitig sollte bewertet werden, welcher der Maßnahmen zur Zielerreichung beitragen. Daraus erfolgt eine Priorisierung:

  • Wichtige Maßnahmen werden frühzeitig angegangen.
  • Maßnahmen, die stark zur Ziel-Erreichung beitragen, können zunächst in ein Backlog geschoben und zu einem späteren Zeitpunkt umgesetzt werden

10.4 Erstellung Roadmap

Daraus ergibt sich eine Roadmap, die im laufenden SEO-Prozess als Basis für die Optimierungen dient.

10.5 Laufendes Monitoring

Mit dem definierten Ziel vor Augen sollten die umgesetzten Maßnahmen laufend überwacht und bewertet werden. Wichtig ist es immer zu untersuchen, ob sich durchgeführte Optimierungen positiv auf die Kennzahlen auswirken oder nicht. So kann man rechtzeitig entgegensteuern, falls einzelne Anpassungen nicht die gewünschten Ergebnissen liefern.

11. Onpage SEO

Der Onpage-Bereich fasst SEO-Technik und Content zusammen. „Onpage“ heißt dabei so viel wie „auf der Seite“ und impliziert, dass hier Faktoren gemeint sind, die sich auf der eigenen Website abspielen. Vorteil von Onpage-SEO ist vor allem die Möglichkeit, diese Parameter bewusst beeinflussen zu können.

11.1 SEO-Technik

In der SEO-Technik dreht sich alles um technische Parameter. Ziel ist es mit technischen Optimierungen das Crawling und die Indexierung sicherzustellen. Erst wenn eine Website in den Google-Index aufgenommen wird, ist sie für Nutzer auffindbar und kann dadurch SEO-Traffic generieren.

Damit eine Website in den Index aufgenommen wird, durchläuft der Googlebot grob folgenden Prozess:

  1. Der Googlebot ruft die Website auf
  2. Die Website wird gecrawlt. Crawling bedeutet, dass mit einem Programm Daten auf einer Website gesammelt und abgerufen werden
  3. Die gesammelten Informationen werden verarbeitet
  4. Die Website landet in dem Such-Index

Crawling und Indexierung sind also zwei unterschiedliche Prozesse. Deshalb ist es wichtig, dass in der technischen Suchmaschinenoptimierung beides sichergestellt wird. Dazu gibt es verschiedene Parameter, die analysiert und auf Richtigkeit geprüft werden sollten.

Zu diesen Parametern gehören:

  • robots.txt: Die robots.txt liegt im Root-Verzeichnis der Domain und steuert das Crawling. Hier ist es besonders wichtig keine CSS- und JavaScript-Dateien auszusperren, damit Google die Website erfolgreich rendern kann. Wichtig ist auch keine URLs auszusperren, die man vom Index fernhalten möchte. Mit der robots.txt wird nämlich nicht die Indexierung gesteuert. Da die robots.txt das erste ist, was Suchmaschinen-Bots aufrufen bevor sie die Website crawlen, sollte man dort auch einen Link zur XML-Sitemap angeben.
  • XML-Sitemap: In einer Sitemap sind alle für den Index relevanten Seiten enthalten. Die Sitemap wird in der robots.txt verlinkt und sollte auch bei den Suchmaschinen eingereicht werden. Bei Google geschieht das über die Google Search Console. Wichtig ist, dass in der Sitemap nur URLs enthalten sind, die auch indexiert werden können. Noindex-Seiten, Fehlerseite und Seiten, die per Canonical auf eine andere Seite zeigen, sollten von der Sitemap ausgeschlossen werden.
  • Canonicals: Canonicals sind Meta-Angaben, die von verschiedenen Suchmaschinen eingeführt worden sind. Ziel war es, Webmastern eine Möglichkeit zu geben, die kanonische Version einer URL festzulegen. Oft kommt es vor, dass der gleiche Inhalte über verschiedene URLs hinweg aufrufbar ist. In solchen Fällen können alle “Kopien” per Canonical auf das Original zeigen. Mit der Canonical-Angabe werden alle Ranking-Signale auf die Original-URL übertragen. Zudem wird auch nur der Original-Inhalt indexiert. SEOs sollten sicherstellen, dass die Canonicals korrekt implementiert werden.
  • Pagespeed: Nutzer mögen es nicht, wenn eine Website langsam lädt. Auch Suchmaschinen schauen sich genau an, wie schnell eine Website lädt. Längst ist Pagespeed ein Ranking-Faktor. Suchmaschinen möchten damit Websites belohnen, die dem Nutzer schnell zur Verfügung stehen. Dabei sollten verschiedene Themen analysiert werden. Bilder haben tendenziell den größten Einfluss auf die Seitenladegeschwindigkeit, die optimiert werden sollten. Weitere Aspekte, die näher durchleuchtet werden sollten, sind Caching, CSS- und JavaScript-Dateien, Server-Einstellungen, CDN-Einsatz und Webfonts.
  • Hreflangs: Bei internationalen Websites, die verschiedene Sprachen und Länder abdecken, muss ein Hreflang-Konzept umgesetzt werden. Bei Hreflangs handelt es sich um Meta-Angaben, um Suchmaschinen die Sprachen- und Länder-Zugehörigkeit zu signalisieren. Dadurch sind die Suchmaschinen in der Lage, die Website-Inhalte im richtigen Land anzuzeigen.
  • SSL: Der sichere Verbindungsaufbau zwischen Browser und Server ist ein Ranking-Faktor bei Google. Ob eine Website ein SSL-Zeritifikat einsetzt erkennt man am “https” vor der Domain in der Browser-Adresszeile. Welches SSL-Zertifikat eingesetzt wird, ist für Suchmaschinen weniger relevant. Wichtig ist, dass das Zertifikat gültig ist.
  • URLs: URL steht für “Uniform Resource Locator” und gibt die eindeutige Adresse einer Seite an. Für Suchmaschinen ist es wichtig, dass diese sprechend ist. Kryptische URLs sollten vermieden werden. Sprechende URLs sollten auch aus User-Sicht eingesetzt, da damit der Inhalt einer URL erahnt werden kann. Aus SEO-Sicht können hier wichtige Keywords der Seite platziert werden, um eine höhere Relevanz zu erzeugen. Zudem sollte die URL im optimalen Fall kurz und leicht einprägsam sein.
  • 404-Fehlerseiten: Oft passiert es, dass Inhalte falsch verlinkt werden oder, dass verlinkte Inhalte nicht mehr existieren. Folgt eine Suchmaschine diesen Link, dann landet der Bot auf einer Fehlerseite. Damit diese nicht unnötig aufgerufen werden und somit auch Crawl-Budget verschwendet wird, sollten entdeckte Fehlerseiten behoben werden.
  • Strukturierte Daten (Rich Snippets): Der Einsatz von strukturierten Daten hilft Suchmaschinen, den Inhalt besser zu verstehen. Dabei werden Inhalte im Code auf Basis von Vorgaben von schema.org ausgezeichnet. Suchmaschinen lesen diese Auszeichnungen aus und verwenden die Inhalte für die Suche, indem man mit sogenannten Rich Snippets belohnt wird. Dabei handelt es sich um Erweiterungen des Standard-Snippets mit Titel, Beschreibung und URL-Angabe.
  • Überschriften-Struktur: Überschriften helfen, den Text etwas aufzulockern und besser zu strukturieren. Wichtig ist, dass Haupt- und Zwischenüberschriften als solche auch im Quellcode ausgezeichnet werden. Dazu stehen im HTML die Überschriften-Hierarchie von H1 bis H6 zur Verfügung.
  • Weitere Parameter, die für die Suche relevant sind: cache (letztes Abbild der Seite im Google Cache); site (durchsucht die angegebene Domain); link (zeigt Links auf die angegebene Domain); inurl: & allinurl (sucht in der URL nach Keywords); intitle: & allintitle (sucht im Seiten-Title nach Keywords); info (Auflistung der Informationen über eine Domain); define (Suche nach einer Definition für Keywords); filetype (Suche nach Dateiformaten)

Zum Ladezeiten optimieren Artikel

Zum Rich Snippets Artikel

Zum Sitemap XML Artikel

Zum Canonical Tag Artikel

TECHNISCHE FAKTORENBeschreibungHäufige FehlerLösungsvorschlagRelevanzAbhängigkeitNutzenAufwandPrioritätQuelle UnerreichbarkeitUnerreichbarkeit ist ein ernsthaftes Ranking-Problem. Häufige und länger auftretende Ausfälle haben einen spürbaren Einfluss auf die Platzierungen.Fehlkonfigurationen, kaputte oder volle Festplatten, Server-Umzüge oder AbbuchungsproblemeÜberprüfen Sie regelmäßig mittels Google Webmaster Tool, ob Ihre Website noch erreichbar ist.Sichtbarkeit, Usability, Indexierungxhochniedirgmittelhttp://www.suchradar.de/magazin/archiv/2013/1-2013/downtimes-unerreichbare-server.php Zugänglichkeit der SeitenWenn eine Website oder wichtige Inhaltsseiten wegen falscher Verlinkung, 404-Fehlern, (unnötigerweise) passwortgeschützten Bereichen oder anderen Gründen (z. B. noindex) nicht erreichbar sind, können sie auch nicht indexiert werden.404 Fehler durch nicht mehr vorhandene Produkte.Nicht mehr vorhandene Produkte, die 404-Fehler erzeugen, sollten auf die nächst-höhere Kategorie weitergeleitet werdenCrawlability, Usability. Rankingrobots.txt, Noindex, Nofollowhochniedirgmittel Ansicht als SuchmaschinencrawlerKomplexe Web-Applikationen sind nicht immer zu 100% vorhersehbar, was die Ausgabe an Suchmaschinencrawler angeht.Mögliche Ursachen sind versehentliches Cloaking oder das Voraussetzen von Cookies.Abruf als Googlebot: beispielsweise mit https://tools.sistrix.de/bo/ oder GWT. Sind hier Fehler ersichtlich, kann die Website natürlich auch kein gutes Ranking erzielen.Crawlability, Indexierung, Cloakingrobots.txt (User Agent)mittelniedirgniedrig CloakingDie IP-Adresse des Besuchers auszuwerten und bekannten Suchmaschinen-Crawlern gänzlich andere Inhalte zu liefern als menschlichen Besuchern ist gegen die Regeln der Suchmaschinen und führt in der Regel zum sofortigen Ausschluss.xxCrawlability, Indexierung, Abstrafungrobots.txtkeinenmittelmittelhttps://support.google.com/webmasters/answer/66355?hl=dehttps://www.distilled.net/blog/seo/7-technical-seo-wins-for-web-developers/http://googlewebmastercentral.blogspot.de/2011/11/get-post-and-safely-surfacing-more-of.html FramesFrames sind aus SEO-Sicht keine gute Wahl. Framesets ranken generell schlecht und es ist sehr schwer Linkaufbau für bestimmte Seiten innerhalb eines Framesets zu betreiben.xxRanking, Linkaufbau, Indexierungxhochhochhochhttp://www.abakus-internet-marketing.de/seo-artikel/seo-fehler.htm IframesWebsites können ihre Inhalte erweitern ohne hierfür eigene Programmierarbeit zu nutzen. Z.B. durch das eingebetteten ?Youtube?-Videos.Seo-Inhalte werden über iframes dargestellt. Einige Browsers und CMS können iframes nur bedingt darstellen.xIndexierung, Usability , Acessibilityxgeringunterschiedlichniedrig Sprechende URLsSprechende URLs sind besonders für Yahoo! und Bing ein wichtiger Ranking-Faktor, vor allem wenn sie mit Keywords angereichert sind. Darüber hinaus ist eine derartige Struktur sehr einfach für Besucher zu verstehen.Einsatz von dynamischen URLs mit Parameter und Filter. Falsche URL Einstellung in der Serverkonfiguration bzw. htaccessServerkonfiguration auf sprechende URLs einstellen. Sprechende URLS müssen im CMS oder Shop definiert sein.Usability, geringes Rankingfaktor, Duplicate ContentVerzeichnisstrukturhochmittelmittelhttp://www.seitenreport.de/kb/-/seo-ist-die-zeit-sprechender-links-vorbei.html Dynamische URLs und Eindeutigkeit der ParameterDynamische URLs (URLs mit angehängten Parametern) sollten prinzipiell vermieden werden, weil sie deutlich die Komplexität erhöhen, die für bestmögliche SEO-Ergebnisse gelöst werden muss. Suchmaschinen können zwar jede Art von URL verarbeiten, auch wenn diese eine große Menge Parameter beinhaltet. Sollte es nicht möglich sein, eine Website ohne Parameter-URLs zu betreiben, muss sorgfältig auf die Anzahl und Reihenfolge der Parameter geachtet werden.Es werden alle Filter und Parameter genutzt und nicht eingegrenzt.Google widerspricht zwar der Annahme, dass die Crawler nur dynamische URLs mit weniger als 3 Parametern lesen können. Gleichzeitig wird empfohlen die URL so kurz wie möglich zu halten. Wenn der Crawler die Parameter nicht als solche erkennt oder nicht richtig analysieren kann, führt das zum Verlust an wichtigen Informationen. Sichtbarkeit, Usability, Crawlability, Linkaufbaurobots.txt, Sitemap XML, Noindex, Nofollow, Parameterbehandlung GMTmittelmittelhttp://googlewebmastercentral-de.blogspot.de/2008/09/alles-ueber-dynamische-urls.html Quellcode QualitätDie Qualität des Quellcodes sollte so sauber wie möglich sein. Zwar lassen sich manche Fehler aufgrund von komplexer Programmierung nicht ganz W3C-konform beheben, allerdings sollte darauf geachtet werden den Quellcode so sauber wie möglich zu halten.xFehler im Quellcode gering wie möglich haltenCrawlability, Ranking, SichtbarkeitHTML, CSS, JavaScriptniedrig-mittelgering-hochhochhttp://bjoerntantau.com/onpage-seo-worauf-es-wirklich-ankommt-18122013.html Größe des HTML-CodesIdealerweise beinhaltet die Navigation einer Website direkte Links auf alle Haupt- und ggf. auch Unterbereiche. Je mehr Bereiche eine Website umfasst, desto umfangreicher wird aber auch die Navigation, was sich unter Umständen in einem großen Code-Block niederschlägt. Da das Verhältnis von Code zu tatsächlichem Inhalt aber einen geringen Einfluss auf das Ranking hat, muss hier im Zweifelsfall ein vernünftiges Mittelmaß gefunden werden.Durch Komprimierung des Quellcodes kann die Ladegeschwindigkeit des Browsers beschleunigt werden.Crawlability, Ranking, Sichtbarkeit, UsabilityHTML, CSS, JavaScriptmittelmittelniedrighttp://bjoerntantau.com/onpage-seo-worauf-es-wirklich-ankommt-18122013.html Verhältnis zwischen Text und CodeDie Text-To-Code-Ratio hat einen gewisssen Einfluss auf das Ranking, weshalb der HTML-Code immer so effektiv und schlank wie möglich gestaltet sein sollte. JavaScripts und Stylesheets sollten daher prinzipiell ausgelagert werden, was sich auch wiederum positiv auf die Ladezeiten auswirkt.Die Textrate liegt bei 12% – Ideal ist eine Textrate von über 25%. Der Text auf der Startseite ist sehr umfangreich, bietet durch eine mangelnde Formartierung dem Leser aber kaum Anreize zum lesen.Die Textrate sollte sich auf etwa 25% erhöhen. Dabei ist darauf zu achten, dass der Text den Usern einen Mehrwert bietetRanking, User ExperienceHTML, CSS, JavaScript, Whitespaces und Leerzeichenmittelniedirgmittelhttp://blog.woorank.com/2013/03/are-text-to-html-ratios-important/ Whitespaces und LeerzeichenUnnötige Leerzeichen und Whitespaces sollten vermieden werden, da sie den Quellcode unnötig aufblähen und die Größe der zu übertragenden HTML-Datei beeinflussen.Unnötige Leerzeichen und Whitespaces sollten vermieden werden, da sie den Quellcode unnötig aufblähen und die Größe der zu übertragenden HTML-Datei beeinflussen.Durch das Entfernen von Leerzeichen und Whitespaces können überflüssige Bytes entfernt werden was die Ladegeschwindigkeit des Browsers beschleunigtCrawlability, Ranking, SichtbarkeitHTML, CSS, JavaScript. Text to Code Rationiedrigniedirgniedrighttp://de.onpage.org/blog/tipps-fur-bessere-website-performance XML-SitemapAnders als eine HTML-Sitemap ist die XML-Sitemap nicht für Besucher sondern ausschließlich für Suchmaschinencrawler und informiert diese über alle existierenden Seiten einer Website. Eine XML-Sitemap sollte daher auf jeden Fall erstellt und aktuell gehalten werden. Gerade bei Erweiterungen der Website können Suchmaschinen die neuen Inhalte über die sitemap.xml üblicherweise deutlich schneller finden und indexieren als über den normalen Crawl-Vorgang.Kein XML-Sitemap im robots.txt, die XML-Sitemap ist nicht aktuell und enthält Fehlerseiten.Prüfen Sie ob die Sitemap in der robots.txt vorhanden ist. Eine XML-Sitemap sollte daher auf jeden Fall erstellt und aktuell gehalten werden. Gerade bei Erweiterungen der Website können Suchmaschinen die neuen Inhalte über die sitemap.xml üblicherweise deutlich schneller finden und indexieren als über den normalen Crawl-Vorgang.Crawlability, Indexierungrobots.txt Dateihochgeringhochhttp://seo.at/matt-cutts-sind-html-sitemaps-noch-zeitgemaess/ HTML-SitemapEine HTML-Sitemap, die alle wichtigen Kategorien oder sogar wichtige Einzelseiten auflistet, kann besonders bei sehr umfangreichen Websites einen erheblichen SEO-Vorteil bieten. Die Klicktiefe (wie viele Mausklicks von der Startseite entfernt ist ein Dokument?) hat einen Einfluss auf das Ranking. Wenn nun viele und tief verschachtelte Kategorien existieren, ist die Klicktiefe über die normale Navigation üblicherweise recht hoch. Existiert aber eine “Abkürzung” über eine von der Startseite aus zugängliche Sitemap, verringert sich die Klicktiefe der Website unter Umständen erheblich. Ziel sollte eine maximale Klicktiefe von 3 sein. Bei extrem großen Websites kann auch 4 oder 5 noch akzeptabel sein.Die HTML Sitemap fehlt, ist unvollständig.Erstellen Sie eine HTML Sitemap. Dies dient zur internen Verlinkung und besseren Nutzerführung. Die Sitemap muss alle einzelnen Seiten beinhalten.Usability, Ranking,Klick- bzw. Navigationstiefe, Interne Verlinkunggering-mittelmittelniedrighttp://seo.at/matt-cutts-sind-html-sitemaps-noch-zeitgemaess/ Ausschlüsse in der robots.txtMit Hilfe der robots.txt können Crawler gezielt von Bereichen ausgeschlossen werden. Ein frei zugängliches Entwicklungs- bzw. Testsystem sollte dabei unbedingt ein “Disallow: /” in der robots.txt haben. Auf Live-Systemen sollte regelmäßig geprüft werden, ob die Inhalte der robots.txt noch sinnvoll sind und ob sie ggf. erweitert oder geändert werden müssen.Falsche Verbote für Seitenbereiche. Verbote für falsche User Agent.Bearbeiten Sie Ihre robots.txt Datei. Diese Datei muss im Root liegen/robots.txtAußerdem muss die XML Sitemap in der robots.txt Datei erscheinenRanking, Sichtbarkeit, CrawlbarkeitNoindex, Nofollowmittelniedirgmittelhttp://www.suchmaschinentricks.de/aktuelles/seo/1468.php Einsatz von JavaScriptWenn JavaScript mit Bedacht eingesetzt wird, schadet es nicht. Wenn aber Inhalt nur dynamisch über JavaScript angezeigt wird (AJAX oder ähnliche Techniken), können Suchmaschinen diesen nicht crawlen, was entsprechend negative Auswirkungen auf das Ranking hat.Ohne JavaScript werden die horizontale Hauptnavigation und die Produktbilder nicht angezeigt.Alle wichtigen Elemente – besonders die Navigation – müssen auch ohne JavaScript erreichbar sein!Ranking, Crawlability, IndexierungHTML, CSS, JavaScriptmittelhochhochhttp://googlewebmastercentral.blogspot.ca/2014/05/understanding-web-pages-better.html HostnamenFür die Indexierung einer Seite ist wichtig zu analysieren, unter welchen Hostnamen eine Seite gefunden wird und in welchem Land die Seite gehostet wird. Auch die Sichtbarkeit der Host lässt sich mit https://tools.sistrix.de/domain/online-solutions-group.de/hosts prüfen.2 Hostnamen: domain.de und staging.doamin.de mit gleichem InhaltWofür wird die Domain staging.domain.de genutzt? Dient die Subdomain als Testumgebung, sollte sie in der robots.txt gesperrt werden.Usabilty, Duplicat ContentServerkonfigurationhochhochniedrig LadezeitenBeschreibungHäufige FehlerLösungsvorschlagRelevanzAbhängigkeitNutzenAufwandPrioritätQuelle If-Modified-Since” HeaderSuchmaschinencrawler arbeiten gerne mit dem HTTP Header “If-Modified-Since”, um unnötige Seitenabrufe für bereits indexierte und seitdem nicht mehr veränderte Inhalte zu minimieren. Der Webserver sollte also so konfiguriert sein, dass er diese Art Abfragen versteht und sinnvoll mit einer 304 Statusmeldung (“Not Modified”) beantwortet.Usability, Ladezeit, SichtbarkeitServereinstellungenhochmittelhochhttp://searchengineland.com/how-to-improve-crawl-efficiency-with-cache-control-headers-88824 LadereihenfolgeBeim Laden von verschiedenen Elementen sollte eine logische Reihenfolge beachtet werden. Es empfiehlt sich die ausgelagerten Stylesheet Elemente am Seitenanfang nach den META-Angaben unterzubringen. Die externen JavaScripte sollten erst am Ende der Website, allerdings vor dem -Tag, geladen werden. Hier ist allerdings zu beachten, dass es bei manchen Scripten unumgänglich ist sie am Seitenanfang, nach den CSS-Dateien, zu laden.JavaScript ist im Header verbaut. Außerdem kommt es zu einem mehrfache Laden von JavaScript-DateienEs empfiehlt sich die ausgelagerten Stylesheet Elemente am Seitenanfang nach den META-Angaben unterzubringen. Die externen JavaScripts sollten erst am Ende der Website, allerdings vor dem -Tag, geladen werden. Hier ist allerdings zu beachten, dass es bei manchen Scripten unumgänglich ist sie am Seitenanfang, nach den CSS-Dateien, zu laden.Usability, Ladezeit, SichtbarkeitServereinstellungenhochmittelmittelhttp://searchengineland.com/how-to-improve-crawl-efficiency-with-cache-control-headers-88824 “keep alive” HeaderWenn mehrere Objekte über die gleiche Domain geladen werden, um die Website darzustellen, empfiehlt es sich den ?keep alive? Befehl in den Webserver-Einstellungen zu aktivieren. Dadurch wird solange eine Verbindung zum Webserver aufrecht erhalten bis alle Elemente geladen sind und zwischendurch nicht unterbrochen. Dadurch muss der Ladevorgang nach jedem abgeschlossenen Objekt nicht gleich unterbrochen und beim nächsten Element wieder aufgenommen werden.Keep Alive ist nicht aktiviertDer ?keep alive? Befehl sollte in den Webserver-Einstellungen aktiviert werden. Dadurch wird solange eine Verbindung zum Webserver aufrecht erhalten bis alle Elemente geladen sind und zwischendurch nicht unterbrochen. Dadurch muss der Ladevorgang nach jedem abgeschlossenen Objekt nicht gleich unterbrochen und beim nächsten Element wieder aufgenommen werden.Usability, Ladezeit, SichtbarkeitServereinstellungenhochniedrigniedrighttp://searchengineland.com/how-to-improve-crawl-efficiency-with-cache-control-headers-88824 “browser caching” für statische ElementeFür die verschiedenen Gruppen an Dateitypen sollte eine Aufbewahrungsfrist im Browsercache festgelegt werden. Dateien die sich weniger häufiger ändern sollten dabei eine sehr lange Zeitspanne bekommen, wobei andere Elemente, die sich häufiger ändern und neu geladen werden müssen, eine kürzere Zeitspanne haben sollten.Im Browsercache gibt es keine Aufbewahrungsfrist für Dateien die sich selten ändernAufbewahrungsfrist für Dateien die sich selten ändern einführen um die Ladezeit zu verkürzen.Usability, Ladezeit, SichtbarkeitServereinstellungenhochmittelhochhttp://searchengineland.com/how-to-improve-crawl-efficiency-with-cache-control-headers-88824 Statische Elemente kombinieren (Scripte & Styles)Stylesheets in so wenig Dateien wie möglich unterbringen, sodass dadurch auch die Serveranfragen verringert werden. Bei JavaScript Dateien gilt das gleiche Prinzip. Hier sind weniger Dateien oft mehr wert.Große CSS und JavaScript Dateien erhöhen die Serveranfragen und beeinflussen die Ladezeit.Statische Elemente wie Scripte und CSS müssen kombiniert werden. Durch die Verringerung der Dateigröße werden die Serveranfragen verringert.Usability, Ladezeit, SichtbarkeitServereinstellungenhochhochmittelhttp://searchengineland.com/how-to-improve-crawl-efficiency-with-cache-control-headers-88824 Cookie VerwendungEs empfiehlt sich die Website-Elemente, die zur Darstellung der verschiedenen Seiten verwendet werden, ohne Cookie zu übertragen. Daher sollte man das Cookie entsprechend auf eine bestimmte Ebene (zum Beispiel Root Verschnis) begrenzen und die Bild, Script und Styles Ordner ausgrenzen.Cookies verwendetServer so konfigurieren, dass keine Cookies für statische Elemente gesetzt werdenUsability, Ladezeit, SichtbarkeitServereinstellungenniedrigmittelniedrighttp://de.onpage.org/wiki/Performance Verwendung von CSS-SpritesBild-Objekte, die zur Darstellung des blanken Templates benötigt werden, kann man via CSS-Sprites schneller und effektiver Laden. Dadurch lassen sich weitere http-Requests einsparen.Es werden viele einzelne Grafikdateien für Icon und Symbole verwendet.Die Verwendung von CSS Sprites kann http-Request einsparen und die Ladezeit verbessern.Usability, Ladezeit, SichtbarkeitServereinstellungenmittelmittelmittelhttp://www.tagseoblog.de/pagespeed-optimieren-mit-sprite-images-und-css-sprites Komprimierung (gzip) verwendenAlle Objektgruppen von der Website sollten via Komprimierung (z.Bsp. gzip) komprimiert übertragen werden. Diese Regelungen lassen sich in der .htaccess Datei oder direkt auf dem Webserver einstellen.Die Website verwendet keine HTML Komprimierung.Durch den Einsatz von gzip, einem Komprimierungsverfahren für HTML, CSS, JavaScript wird die Größe der zu übertragende Dateien verringert. Die Ladgeschwindigkeit einer Website wird positiv beeinflusst.Usability, Ladezeit, SichtbarkeitServereinstellungenhochmittelmittelhttp://www.toprank.at/index.php/seo-blog/162-page-speed.html serverseitiges CachingServerseitiges Caching arbeitet direkt auf dem Webserver und wird eingesetzt, um kompilierten Quellcode zwischenzuspeichern. Dem Webserver wird so Erhebliches an Berechnungszeit eingespart. Zwei der populärsten Lösungen hierfür sind Alternative PHP Cache (APC) und Memcached.Usability, Ladezeit, SichtbarkeitServereinstellungenhochmittelmittelhttp://www.seoranks.de/serverseitiges-caching-webseiten-geschwindigkeit-optimieren-teil-3/

À lire aussi  Les 10 meilleurs colliers GPS pour chien : un guide d’achat complet

11.2 Content

Wenn alle technischen SEO-Parameter sichergestellt sind, dann kann die Suchmaschine die Inhalte erfassen und indexieren. Ziel im Content ist es aus SEO-Sicht diesen so aufzubereiten, dass die Suchmaschine versteht, welches Thema die Unterseite behandelt und was die wichtigsten Keywords dabei sind. Erst dann kann die Suchmaschine den Inhalte einzelnen Keywords und Suchanfragen eindeutig zuordnen. Wenn das nicht gegeben ist, dann ist die Suchmaschine auf externe Signal angewiesen.

Zu den wichtigsten SEO-Content-Faktoren gehören:

  • Keywords: Basis für den Content sind Keywords. Daher sollte vor dem Erstellen des Contents eine umfangreiche Keyword-Analyse durchgeführt werden. Die wichtigsten Begriffe werden aus der Keyword-Analyse gewählt. Danach wird entschieden, ob eine neue Seite dazu erstellt werden soll oder ob es zu diesem Keyword und Thema schon eine Seite gibt, die man nur noch optimieren muss.
  • Title-Tag: Der Title-Tag wird in der Google-Suche direkt als anklickbarer Verweis angezeigt. Diesen kann man als Webmaster direkt selbst beeinflussen. Wichtig ist, dass jede Seite einen einzigartigen Title bekommt. Diese sollte zudem zum Klicken animieren und das Fokus-Keyword der Seite enthalten. Das Keyword sollte so weit wie möglich vorne im Title platziert werden. Zudem muss man sich an einer Zeichenbeschränkung von 70 Zeichen halten. Alles was länger ist, wird in der Google-Suche abgeschnitten.
  • Meta-Description: Die Meta-Description ist eine Beschreibung der jeweiligen Seite. Diese wird in den Suchergebnissen als zweizeiliger Textabschnitt angezeigt. Wie der Title sollte auch die Meta-Description je Seite einzigartig sein. Hier hat man eine Zeichenbeschränkung von ca. 160 Zeichen, an der man sich orientieren sollte. Alles was länger ist, wird abgeschnitten. In der Meta-Description sollten auch die wichtigsten Keywords der Zielseite enthalten sein. Zudem sollte die Meta-Description zum Klicken animieren.
  • Keyword-Einsatz: Neben dem Einsatz der relevanten Keywords für die Seite im Title und in der Meta-Description sollten die Keywords auch im Fließtext und in Überschriften untergebracht werden.
  • Bilder: Bilder lockern den Content etwas auf. Die Bilder sollten aber auch SEO-konform ausgezeichnet werden. Vor allem das Alt-Attribut ist dabei aus SEO-Sicht relevant. Das Alt-Attribut sollte den Inhalt des Bildes gut beschreiben. Gleichzeitig sollten wichtige Keywords der Seite untergebracht werden.
  • Videos: Videos können dabei helfen, dass Nutzer länger auf der Seite verweilen. Eine höhere Verweildauer könnte wiederum ein Indiz sein, dass der Nutzer zufrieden ist. Dort wo es sinnvoll ist, sollten daher gezielt Videos zum Einsatz kommen. Hinsichtlich SEO (Suchmaschinenoptimierung) sollten bei Videos die Meta-Angaben befüllt werden, damit Suchmaschinen den Inhalt des Videos bestimmen können. Dazu sind Video-Titel und die Video-Beschreibung wichtig. Zudem sollte man auch darauf achten, dass der Pagespeed der Seite aufgrund der Video-Einbindung nicht negativ beeinflusst wird. Zusätzlich sollten Videos mit schema.org ausgezeichnet werden. Bei vielen Videos auf der Website, kann auch eine Video-Sitemap erstellt werden, um alle Video-URLs für eine effiziente Indexierung an Google zu überreichen.
  • Übersichtlichkeit: Eine übersichtliche Text- und Content-Struktur hilft nicht nur Nutzern sich besser zu recht zu finden, sondern auch Suchmaschinen. Daher sollten gezielt Elemente eingesetzt werden, die zu einer besseren Übersichtlichkeit beitragen. Dazu gehören Formatierungen wie fett, farblich hervorgehoben und unterstrichen sowie Elemente wie Listen, Tabellen, Überschriften. ausreichend Abstände oder Absätze.
  • Einzigartigkeit: Jeder Text, der verfasst wird, muss einzigartig sein. Einzigartig heißt, dass es den Text in der Form auf keiner anderen Website geben darf. Falls ganze Texte kopiert und auf einer anderen Seite wiederveröffentlicht werden entstehen Kopien. Dabei spricht man dann von Duplicate Content. Im SEO (Suchmaschinenoptimierung) hat man dann das Problem, dass diese Seiten kaum Chancen haben auf ein Ranking, da sie Google aussortiert. Hintergrund ist, dass Google keine doppelten Ergebnisse ausspielen möchte, da dies für den Nutzer keinen Mehrwert darstellt.
  • Interne Links: Auf einer Website existieren verschiedene Navigationsmöglichkeiten. Neben dem Hauptmenü gibt es Footer-Links, Sidebar-Links oder auch Links zu verwandten Themen und Seiten meist am Ende eines Beitrags. Eine weitere gute Möglichkeiten wie Nutzer und Suchmaschinen weitere Seite und Inhalte erfassen können, sind interne Links aus dem Text heraus. Diese sind für SEO besonders wichtig, da man mit dem Link-Text und dem Link-Titel Informationen über die verlinkte Seite mitgeben kann. Diese Informationen werden von Suchmaschinen ausgelesen, um die Ziel-Seite besser einordnen zu können. Interne Links sind ein wichtiger Hebel im SEO (Suchmaschinenoptimierung) und sollten nicht vernachlässigt werden. Aus diesem Grund sollten alle wichtige Inhalte gezielt daraufhin überprüft werden, ob sinnvolle interne Links gesetzt sind.
  • Responsive: Unter Responsive versteht man ein Webdesign, welches auf die Eigenschaften den genutzten Endgeräts reagieren können. Der Begriff wird oft in Zusammenhang mit Smartphones gebracht. Da heutzutage im Internet viel über mobile Geräte gesurft wird, sollten Websites auch mobile gut bedienbar sein. Dabei wird das Webdesign so erstellt, dass es sich automatisch an das Endgerät anpasst. Eine Website ohne Responsive Design ist heutzutage nicht mehr wegzudenken. Aus diesem Grund sollten SEO-Analysen auch immer mit mobilen Endgeräten durchgeführt werden.
  • Inhaltstiefe: Je nach Thema muss auch eine bestimmte Inhaltstiefe gegeben sein. Komplexe Themen lassen sich nicht in ein paar Absätzen erklären. Hier sind deutlich mehr Informationen in Text-, Bild- und Videoform notwendig. Je tiefer ein Thema behandelt wird, desto größer wird auch die Seite tendenziell. Hier ist dann vor allem wieder eine gute Übersichtlichkeit und Struktur wichtig. Das sieht man auch bei sehr langen Wikipedia-Artikeln. Mit einem Inhaltsverzeichnis oder Akkordeon im mobilen Bereich stellt aber Wikipedia eine übersichtliche Struktur sicher. Andersrum sollten Themen, die in wenigen Absätzen gut erklärt werden können, nicht unnötig und künstlich in die Länge gezogen werden.
  • Aktualität: Suchen Nutzer bei Google nach Informationen, dann erwarten sie sich von der Suchmaschine, dass auch immer aktuelle Inhalte ausgegeben werden. Aus diesem Grund versucht Google dem Nutzer auch immer die aktuellen Informationen zu präsentieren. Das heißt für die eigene Website, dass Informationen immer laufend angepasst und aktuell gehalten werden sollten. Bei einem Content-Audit sollte daher auch die Aktualität der Inhalte überprüft werden. Auf dieser Basis lassen sich Optimierungen durchführen, die zu besseren Rankings führen können.

Nur über die Abdeckung weiterer Keywords kann Traffic laufend auf die Webseite kommen. Da für jedes Keyword eine passende Unterseite/Content-Seite existieren muss, ist es wichtig geeignete Content-Arten aufzubauen und zu nutzen. Hier haben wir für Sie eine Übersicht über die verschiedenen Content Arten, die Sie dafür nutzen können:

Zum Content Glossar

Zum Bilder SEO Artikel

Zum Video SEO Artikel

METATAGSMetaTagsHäufige FehlerLösungsvorschlagRelevanzAbhängigkeitNutzenAufwandPrioritätQuelle title-TagDer Seitentitel im title-Tag ist der wichtigste OnPage-Faktor. Er wird immer in den Suchergebnissen angezeigt und fungiert daher als “Köder” für potentielle Besucher, weshalb er erstens eine hohe Klickmotivation bieten und zweitens immer die wichtigsten Keywords dieser Seite enthalten sollte. Der Seitentitel sollte nicht länger als 55 Zeichen und möglichst für jede Seite individuell sein. Seitentitel ist zu lang und wird in der Serps abgeschnitten und enthält keine wichtigen Keywords.Mit dem Previewtool wird sofort erkennbar ob der Titel abgeschnitten wird. Ist der Titel zu lang, muss eine Anpassung durchgeführt werdenCTR, Rankingkeinehochhochhochhttp://t3n.de/news/seo-tipps-title-535760/ description-MetatagIn der Meta-Description sollte eine kurze, mit den wichtigsten Suchbegriffen ausgestattete Zusammenfassung des Seiteninhalts hinterlegt werden. Abgesehen davon, dass die Meta-Description in Bing und Yahoo! durchaus noch ein wenig zum Ranking beiträgt, kann eine Meta-Description als Vorschau in den Suchergebnissen erscheinen und durch geschickte Formulierung deutlich die Klickrate erhöhen. Die Meta Description sollte nicht mehr als 150 Zeichen lang sein.Keine Unique Beschreibung, wichtige Keywords fehlen, keine Produkte, Branding fehlt, keine USP oder Call-to-ActionDie Meta Description sollte nicht mehr als 150 Zeichen lang sein. Jede Meta Description muss einzigartig sein. Hauptkeywords und Brands dürfen nicht fehlen. Die Ansprach muss persönlich sein und eine Call-to-Action enthalten.Klickrate, Ranking, Usabilitykeinehochmittelmittelhttp://www.sistrix.de/frag-sistrix/onpage-optimierung/meta-element-meta-tag/wie-sieht-die-optimale-meta-description-aus/ robots-AnweisungenSuchmaschinen halten sich recht strikt an entsprechende noindex- sowie follow-/nofollow-Anweisungen im Meta-Abschnitt einer Seite. Da diese Angaben sowohl positive als auch negative Auswirkungen haben können, muss im Einzelnen sehr aufmerksam geprüft werden, ob die verwendeten Angaben sinnvoll sind oder vielleicht sogar eigentlich wichtige Inhalte ausgeschlossen werden.Falsche Verwendung von robots-Anweisungen. Nofollow Attribut für interne Verlinkung. Falsch setzen von follow Attribut für geschützte Inhalte. Bauen Sie auf allen Seiten, die Sie im Index haben wollen eine robots-Anweisung index,follow ein.Bei Seiten mit privaten Kundenangaben sollte die robots-Anweisung index,nofollow eingebaut werden. Varianten sollten auf gesetzt werdenRanking, Crawlability, Sichtbarkeitkeineniedrig-mittelmittelmittelhttp://www.suchmaschinentricks.de/aktuelles/seo/1468.php refresh-MetatagWeiterleitungen sollten generell nur über HTTP-Statuscodes gelöst werden. Jede andere Art von Redirect kann und darf nur eine befristete Notlösung sein.Der Refresh Metatag ist nach W3C veraltet und sollte nicht mehr verwendet werden.Entfernen Sie jegliche Art von Meta-Refreshes und ersetzen Sie diese durch HTTP-Weiterleitungenkeinekeinenmittelmittelhttp://www.platinpower.com/seo/sinnvolle-redirects-bedachtes-weiterleiten/ Facebook Open Graph META TagsMit den Facebook META-Tags haben Webseitenbetreibe die Möglichkeit Inhalte und Bilder für Facebook bereitzustellen. Damit ist es möglich Inhalte und Bilder, die geteilt werden zu kontrollieren.Facebook Meta Tags werden nicht verwendet. Bei teilen von Inhalten auf Facebook werden unterschiedliche Bilder und Inhalte eingeblendet.xSocial Mediakeineniedrigniedrigniedrighttp://davidwalsh.name/facebook-meta-tags Twitter META TagsIst so ähnlich wie der Facebook Meta Tag. Mit denTwitter META Tags haben Webseitenbetreibe die Möglichkeit Inhalte für Twitter bereitzustellen. Damit ist es möglich Inhalte und Bilder, die geteilt werden zu kontrollieren.Twitter Meta Tags werden nicht verwendet. Bei teilen von Inhalten auf Twitter werden unterschiedliche Inhalte eingeblendet.xSocial Mediakeineniedrigniedrigniedrighttp://davidwalsh.name/twitter-meta-tags language-MetatagSollte generell verwendet werden, auch wenn die sprachliche Zuordnung über die Domain-Endung oder sonstige Kriterien eigentlich schon festgelegt ist. Suchmaschinen erkennen zwar autonom die Sprache einer Seite anhand des tatsächlichen Inhalts und anderer Faktoren, berücksichtigen darüber hinaus aber dennoch diese Meta-Information.language-Metatag hat nach dem W3C an Bedeutung verloren. Der hreflang Standard hat sich mittlerweile etabliert.Der hreflang Standard hat sich mittlerweile etabliert.Internationalisierung, Rankingkeinehochniedrigniedrighttp://webdesign.tutsplus.com/articles/meta-tags-and-seo-webdesign-9683 keyword-MetatagDas Keyword-Metatag hat für Google praktisch keinerlei Bedeutung mehr und auch in Bing/Yahoo! verliert es zunehmend an Bedeutung. Generell kann diese Meta-Information also auch weggelassen werden. Praktischer Nutzen ergibt sich nur, wenn die interne Suchfunktion einer Website diese Information mit auswertet. Dann macht eine saubere Verschlagwortung Sinn, um die Suchergebnisse für die Website-Besucher zu verbessern.Keyword hat an Bedeutung verlorenReduzieren sie den keyword-meta-Tag auf 2-3 relevante Wörter, um Keywordspamming zu vermeiden.keinekeinenniedrigniedrig Geo-TaggingFür regionale Inhalte ist es sinnvoll, entsprechende Meta-Tags unterzubringen, um Suchmaschinen den örtlichen Bezug einer Seite zu signalisieren. In der Regel führt dies besonders bei Suchvorgängen mit regionalem Bezug zu deutlich verbesserten Platzierungen.GEO Tagging ist nach W3C in HTML 5 nicht zulässig.keinekeinenniedrigniedrighttp://www.brightlocal.com/2013/04/03/why-geo-tagging-your-images-for-local-seo-hasnt-disappeared/ INHALTLICHE EXTRASBeschreibungHäufige FehlerAbhängigkeitRelevanzNutzenAufwandPrioritätQuelle PDF-DokumenteSuchmaschinen indexieren PDF-Dokumente üblicherweise vollständig und besonders Google zeigt diese auch gerne als Suchergebnis an. Sinnvoll ist das Erstellen von PDF-Dokumenten allerdings nur für kurze Übersichten wie Datenblätter oder aber für große, mehrseitige Dokumente wie Ebooks und dergleichen, da dies auch deutlich die Benutzerfreundlichkeit erhöht. Nicht zu empfehlen ist, per se von Inhaltsseiten eine PDF-Version anzubieten (es sei denn für Druck-Zwecke – siehe hierzu den entsprechenden Punkt im Abschnitt Architektur).Als PDF ist nur die Datenschutzerklärung hinterlegt.niedrigniedrigniedrigniedrighttp://www.seo-trainee.de/seo-fuer-pdf/ VideosSuchmaschinen zeigen gerne relevante Videos als Suchergebnis. Hier gilt jedoch, dass eines der wichtigsten Ranking-Kriterien die Anzahl der Abrufe ist. Wenn die Videos auf der eigenen Website gehostet werden, wird die Anzahl der Abrufe also in den meisten Fällen überschaubar sein. Sinnvoller ist daher, die Videos beispielsweise in einem eigenen Youtube-Channel oder bei einem anderen Video-Anbieter zu hosten, dort zu promoten und nicht nur eine entsprechend vielfache Anzahl an Abrufen zu generieren, um in die Video-Suche aufzurücken, sondern hierüber generell mehr Aufmerksamkeit zu erreichen als das normalerweise über selbst gehostete Videos möglich ist. Folgende Fehler sollten dabei vermieden werden:- Falsche Titel, Schlagworte oder Beschreibungen- Nutzung von YouTube für das Video Streaming- Erstveröffentlichung auf externen Portalen- Gleiches Video, mehrere URLs- Verzicht auf Video-SitemapKeine Videos vorhanden.Ressourcenmittelmittelhochniedrighttp://www.sistrix.de/news/video-seo-vergebenes-potential/ Social Mediasoziale Signale aus Facebook, Twitter & Co. korellieren extrem stark mit guten Google-Rankings. Dies muss im Rahmen der Erstellung einer Social Media Strategie berücksichtigt werden.Die Seite ist auf facebook, Twitter und Google+ aktivmittelgeringmittel Rich SnippetsSnippets sind die wenigen Zeilen Text, die unter jedem Suchergebnis erscheinen. Sie vermitteln Nutzern eine Vorstellung davon, was die Seite enthält und warum sie für ihre Suchanfrage relevant ist. Es können auf der Website vorhandene Beurteilungen, Personen, Produkte, Unternehmen, Rezepte, Ereignisse, Musik usw. mit einem speziellen Format (Mikrodaten, Mikroformate, RDF) im Quelltext ausgezeichnet und so das Standard-Snippet “angereichert” werden (=Rich Snippets). Dadurch erhöht sich die Click-Through-Rate zum Teil erheblich.Momentan werden keine Rich Snippets in den SERPs angezeigthochmittelmittelhttp://onlinemarketing.de/news/google-autorship-google-entfernt-profilbilder-sowie-die-angaben-ueber-die-google-kreiseGoogle Authorship: Google entfernt Profilbilder sowie Angaben über die Google+ Kreise Bilder im TextEine reine Textseite ist meist für Besucher zu “langweilig”, wohingegen eine reine Bilderseite eine “SEO-Sünde” ist. Text mit thematisch relevanten Bildern aufgelockert ist dagegen perfekt und eine derart aufgebaute Seite erzielt üblicherweise auch ein besseres Ranking als eine reine Textseite.Text und Bild Verhältniss ist in Ordnung. Bie alt-Parameter sollten, wenn möglich, ein themenrelevantes Keyword enthaltenKundenbindunghochhochniedrighttp://www.searchmetrics.com/de/services/seo-glossar/alt-attribut/ Keywords in Alt-Parametern von BildernBei verlinkten Bildern nimmt der Alt-Parameter die Stelle des verlinkten Textes ein, weshalb er entsprechend wichtig ist. Bei nicht verlinkten Bildern ist die Verwendung des Alt-Parameters dennoch ratsam, da Suchmaschinen hierüber etwas über den Inhalt des Bildes erfahren und dieses Bild also beispielsweise in der Bildersuche zu diesem Begriff erscheinen können. Seiten, die den Suchbegriff zusätzlich zu den anderen relevanten Stellen (Seitentitel, Überschriften, eigentlicher Text) auch im Alt-Parameter eines Bildes enthalten, haben einen zusätzlichen Ranking-Vorteil.Das Alt Attribut wird zum Teil verwendet. Auf der Startseite wurden 4 Bilder ohne alt-Attribut gefunden.hochhttp://www.searchmetrics.com/de/services/seo-glossar/alt-attribut/ Bilder statt TextlinksBilder statt Text für Verlinkungen zu verwenden sollte immer zweite Wahl sein. Wenn nicht anders möglich, muss das Bild unbedingt mit einem alt-Parameter ausgestattet werden, in dem sinnvolle Keywords verwendet werden.Es ist sowohl das Produktbild, wie auch der Text klickbarniedrigniedrigmittelmittel FlashAuch wenn besonders Google die Inhalte von Flash-Dateien immer besser versteht und SWF-Dateien auch ab und zu in Suchergebnissen erscheinen, kann und darf man sich nicht darauf verlassen. Flash sollte also immer nur zusätzliche Informationen oder Illustrationen bieten, aber niemals exklusiv wichtige Inhalte vorhalten.niedrigniedrighochniedrighttp://www.netzmarketing.ch/gratis-ratgeber/onpage-seo/flash-seiten-websites-und-seo WerbungDer Bereich der Website above-the-fold darf nicht durch Werbung (Banner etc.) die relevanten Textinhalte in den nicht-sichtbaren Bereich verdrängen. Google bestraft diese Praxis seit neuestem recht scharf.niedrighochhttp://de.onpage.org/blog/above-the-fold-webseiten-richtig-aufbauen

12. Der Inhalt einer Website

Suchmaschinen haben sich in den letzten Jahren stark entwickelt. Es genügt nicht mehr, Inhalte nach Schema F zu konstruieren, um gut zu ranken. Inzwischen werden vor allem Webseiten positiv bewertet, die nützlich für menschliche Besucher sind. Gut aufbereitete Texte mit hoher Informationsdichte sind ein Anfang. Aber entscheidend ist, dass der Beitrag für Leser etwas zu bieten hat. Bei dem Erstellen von Inhalten ist auch der Trend “Inbound Marketing” zu beachten. Denn für Nutzer stehen besonders Informationen, Wahlfreiheit, Interaktion und Wissen im Vordergrund.

Zum Inbound Marketing Artikel

In diesem Abschnitt der SEO Guideline geht es deshalb um die Frage: Wie lässt sich der Inhalt einer Webseite optimieren?

12.1 Lesenswerte Texte werden belohnt

Laut der Google Einführung in die Google Suchmaschinenoptimierung (Bing Suchmaschinenoptimierung) hat ein Text mit echtem Mehrwert den wahrscheinlich größten Einfluss auf das Ranking einer Webseite. Hochwertige Inhalte führen dazu, dass Leser sie gerne mit Freunden und Kollegen teilen. Das leuchtet ein: Man möchte sein Umfeld nicht langweilen, sondern wertvolle und gut dargebotene Informationen weitergeben. Einen tollen Artikel teilt man deshalb bereitwillig über soziale Medien, Apps oder E-Mail. Man verlinkt ihn in Foren und auf Blogs als gute Informationsquelle. Oder man erzählt anderen Menschen ganz allgemein von der tollen Webseite mit den lesenswerten Artikeln. Diese natürliche Art, Inhalte zu verbreiten, wirkt sich positiv auf den Ruf einer Webseite aus – auch bei Suchmaschinen.

Jedoch reicht die einmalige Contenterstellung für ein Keyword nicht aus. Es sollte mittels eines geeigneten Tools laufend geprüft werden, wie sich das Ranking für ein Keyword entwickelt. So kann nachvollzogen werden, welche Seite für ein Keyword rankt und welcher Inhalt für welche Veränderungen verantwortlich ist. Sollte sich das Ranking verschlechtern, kann man augenblicklich mit neuen Inhalten reagieren und die Wirkung wiederum beobachten. Die Rankingentwicklung können Sie z.B. kostenlos über die OSG Performance Suite App prüfen.

Empfohlen:

  • Neuheiten: Der Reiz des Neuen greift auch bei Inhalten im Internet. Texte sind viel interessanter, wenn sie neue Informationen enthalten oder einzigartig formuliert wurden.
  • Zielgruppengerechte Texte: Verschiedene Keywords zum gleichen Thema locken teils sehr unterschiedliche Zielgruppen mit stark auseinandergehenden Vorkenntnissen an. SEO-Experten raten: Die Texte sollten so gestaltet sein, dass sie der jeweiligen Gruppe bestmöglich dienen.
  • Ein Keyword pro Seite: Für jedes Keyword sollte eine eigene Landingpage erstellt werden.
  • Keyword weit vorne platzieren: Das Keyword sollte weit vorne im Text erscheinen. So weiß jeder sofort (auch der Crawler), dass es im Text um das Keyword geht.
  • Fettungen einfügen: Fettungen von wichtigen Wörtern und Passagen erleichtern das Lesen. Das mag auch Google. Aber: nicht zu viele Fettungen einfügen. Das macht den Text unübersichtlich.

Zu vermeiden:

  • Inhalte kopieren: Duplicate Content ist unbedingt zu vermeiden.
  • Schlechte Rechtschreibung und Grammatik: Zu viele Fehler im Text stören den Lesefluss und wirken unprofessionell. Das wertet sogar inhaltlich ansprechende Artikel ab.
  • Kein Keyword-Spamming: Das Keyword sollte nicht zu häufig verwendet werden. Beim Lesen des Textes darf die Keywordmenge nicht unnatürlich hoch erscheinen.
  • Für die Suchmaschine schreiben: Texte sollten trotz SEO (Suchmaschinenoptimierung) für menschliche Leser geschrieben werden.

12.2 Lange Texte sind beliebter, aber kein Muss

Für die optimale Länge eines Textes gibt der SEO Guide von Google keine Tipps. Vermutlich liegt das daran, dass es keine “magische” Wortgrenze gibt. Lange Zeit galt unter SEO-Experten eine Länge von 200 – 300 Wörter als ideal. Neueste Erkenntnisse zeigen aber, dass Nutzer tendenziell längere Inhalte bevorzugen (siehe Grafik unten). Stellen Sie aber unbedingt sicher, dass die Inhalte so hochwertig wie möglich sind. John Müller von Google Schweiz bestätigt: Es gebe keine bestimmte Mindestlänge; vielmehr die Qualität des Inhalts sei entscheidend.

Empfohlen:

  • Qualität vor Quantität: Manchmal lässt sich eben nicht viel zu einem Thema sagen. Das ist in Ordnung! Solange der Text einen Mehrwert bietet und ansprechend geschrieben ist, hat er gute Chancen.
  • Themen ganzheitlich behandeln: Leser bevorzugen es, wenn sie möglichst viele Informationen auf einen Streich bekommen. Statt vieler kurzer Häppchen möchten sie lieber einen langen Text lesen, der alle wichtigen Aspekte beleuchtet.
  • Inhaltsverzeichnis: Der Text ist sehr lang und behandelt viele Facetten? Dann kann ein Inhaltsverzeichnis helfen. Unter anderem liefert es einen schnellen Überblick über den Inhalt eines Artikels. Baut man zusätzlich eine Sprungfunktion ein, fällt auch die Navigation innerhalb des Textes leichter.

Zu vermeiden:

  • Texte künstlich aufblähen: Wenn bereits alles Wichtige erwähnt wurde, muss der Text nicht auf Biegen und Brechen ausgedehnt werden. Übermäßig viele Füllworte, inhaltliche Wiederholungen und leere Phrasen senken die Qualität.
  • Den Leser mit Textblöcken erschlagen: Ein guter Text ist durch Absätze, Zwischenüberschriften, Aufzählungen, Tabellen oder multimediale Inhalte aufgelockert. Eine sinnvolle Struktur macht jeden Text angenehmer zu lesen und leichter zu verstehen. Außerdem wirkt er von vornherein interessanter, da er so auch optisch ansprechender ist.

12.3 Keyworddichte

Bei der Keyworddichte handelt es sich um den Anteil der Keywords an der gesamten Wortanzahl. Logischerweise ist die Wahrscheinlichkeit, dass ein Text für ein bestimmtes Keyword relevant ist größer, wenn dieses Keyword mindestens einmal im Text vorkommt, als wenn es nicht erscheint. Jedoch ist eine größere Keyworddichte nicht zwingend gleichbedeutend mit einer höheren Relevanz. Besteht ein Text zum Beispiel zur Hälfte aus einem Keyword (Keyworddichte von 50 %) ist er wohl kaum informativ für den Leser. Deshalb wird ein zu häufiges Vorkommen eines Wortes von Google mit einem schlechten Ranking bestraft. Dadurch soll das sogenannte Keyword Stuffing verhindert werden, welches früher oft angewendet wurde, um ein gutes Ranking zu erreichen.

Heute wird für die Bestimmung der optimalen Keywordhäufigkeit öfter der WDF*IDF-Wert verwendet als die Keyworddichte, das trifft vermutlich auch auf Suchmaschinen zu. Bestandteile dieser Kennzahl sind die Within Document Frequency (WDF) und die Inverse Document Frequency (IDF). WDF bezieht sich auf die Anzahl eines im Text vorkommenden Wortes bezogen auf die gesamte Anzahl der Wörter, IDF dagegen auf die Anzahl aller Seiten im Index, die dieses Wort enthalten. So kann das einmalige Vorkommen eines Wortes in einem Text schon einen Hinweis auf eine hohe Relevanz geben. Voraussetzung dafür ist, dass dieses Wort nur in einem sehr geringen Anteil aller Webseiten des Index erscheint. Umso größer der WDF*IDF-Wert, desto höher ist die Häufigkeit eines Wortes im Vergleich zu anderen Seiten.

Mit dem WDF*IDF-Tool von seobility* können die ersten 10 Suchtreffer für ein Keyword analysiert werden. Dabei werden die Wörter mit den höchsten WDF*IDF-Werten angezeigt. Das kann hilfreich sein, wenn es darum geht den Content einer Seite festzulegen. Jedoch sollte nicht jedes dieser Wörter eingebaut werden, da viele von ihnen keinen Bezug zum Thema haben dürften.

Der Screenshot unten zeigt eine WDF*IDF-Analyse des Keywords “Suchmaschinenoptimierung”. Hier ist der Begriff “Suchmaschinenoptimierung” derjenige mit dem höchsten durchschnittlichen WDF-IDF-Wert gefolgt von “SEO” und “Google”.

12.4 Interne Links richtig beschriften

In Googles SEO (Suchmaschinenoptimierung) Guide kommt auch die wirksame Verwendung von internen Links zur Sprache. Kernaussage ist: Links sollten mit einem möglichst aussagekräftigen Text versehen werden. Das erleichtert es Suchmaschinen, die verlinkten Seiten thematisch einzuordnen. Außerdem gibt Google folgende Tipps:

Empfohlen:

  • Präzise Linktexte: Optimal ist ein kurzer Linktext, der das Thema des verlinkten Beitrags auf den Punkt bringt.
  • Links sichtbar machen: Links sollten sich farblich vom Rest des Textes unterscheiden

Zu vermeiden:

  • Nichtssagender Linktext: Texte wie “hier” oder “mehr” sind nicht hilfreich.
  • Langer Ankertext mit übermäßig vielen Keywords

Außerdem sollten auf einer Seite nicht übermäßig viele Markennamen verlinkt werden. Das wirkt unnatürlich. Bei externen Links kann es sinnvoll sein das “nofollow”-Attribut zu verwenden, wenn verhindert werden soll, dass der Crawler diesem Link folgt.

13. Mobile First: Wie Sie Ihre Website mobilgerecht optimieren

Statistisch gesehen lag bereits im Jahr 2016 die mobile Nutzung des Internets in Deutschland bei 81%, Tendenz steigend, so der Statistikservice Destatis. Die Frage danach, ob ein Mobildesign benötigt wird, erübrigt sich also. Soll Ihre Website Besucher anziehen und ihnen einen Service bereitstellen, ist die Einrichtung eines mobilen Designs unerlässlich.

13.1 Mobile First

Bereits Ende 2016 begann Google, seinen Mobile First Index als Hauptindex zu etablieren. Für Entwickler bedeutet dies: Nur wer eine nach dem Google SEO (Suchmaschinenoptimierung) Guide optimierte Website für Mobilgeräte anbietet, kann heute perfekt gerankt werden. Auch darum lohnt sich die Überarbeitung bestehender Layouts. Der Hinweis auf diesen speziellen Algorithmus fehlt in dem Guide leider, dabei macht er einen großen Teil der heutigen Rankingerfahrung aus.

13.2 Verschiedene Arten der Anpassung für Mobilgeräte

Bei der Optimierung Ihrer Website für Mobilgeräte können Sie sich zwischen verschiedenen Arten des Anpassens entscheiden. Der Google SEO Guide selbst unterscheidet nach Responsive Webdesign, dynamischer Bereitstellung und der Nutzung verschiedener URLs. Das dynamische Design wird heute kaum genutzt. Durchgesetzt haben sich responsive Design und Zweit-URL, wobei das responsive Design in punkto Aufbaugeschwindigkeit gewinnt. Die Nutzung verschiedener URLs verlangt nach dem Aufsetzen einer zweiten Website, die das mobile Design berücksichtigt. Zu der mobilen Website wird umgeleitet, wenn ein Mobilgerät erkannt wird. Als Nutzer erkennen Sie die dritte Variante zumeist an der m.URL-Weiterleitung (Beispiel: sz-online.de, spiegel.de / m.sz-online.de, m.spiegel.de).

Besucher browsen heute laut AdColony/Wirtschaftswoche mobil zu 90% auf Smartphones und 10% auf Tablets, dabei überwiegen 55% Androidgeräte den 45% Apple-Geräten. Andere Mobilgeräte, die auch im Google Guide genannt werden, können daher vernachlässigt werden. Doch die meisten Nutzer bedienen sich dabei Apps statt Browsern. Das Investieren in eine eigene Mobilapp, die von Google automatisch vorgeschlagen wird, wenn eine mobile Website geöffnet werden soll, kann daher sehr sinnvoll sein. Voraussetzung dafür ist, dass die App von Google indexiert wurde.

13.3 Besonderheiten mobiler Layouts

Bei der Einrichtung von speziellen Mobiledesigns sollten Entwickler das Ausgabegerät ständig vor Augen haben. Smartphonebildschirme sind deutlich kleiner, bilden jedoch heute oft die gleiche Auflösung ab wie ein Desktop-Monitor. Responsive Layouts werden häufig auch auf Smart-TVs oder Konsolenbildschirmen ausgegeben. Das heißt, dass Entwickler schlicht nicht wissen können, wie der Nutzer Text und Bilder sieht. Responsive Designs bringen hier den großen Vorteil mit sich, dass sie sich selbstständig anpassen und die Darstellungsoptionen erkennen. In den meisten Geräten kann der Nutzer außerdem selbstständig Schriftgrößen anpassen.

Neben Schrift- und Bildergröße wird auch das Menü mobil anders abgebildet. Navigationsleisten werden zu Drop-Down-Menüs und ausklappbaren Schachtelmenüs. Der Screenshot unten zeigt die Navigationsleiste von amazon.de (Desktopversion). Die Untermenüs klappen sich automatisch auf, wenn man mit der Maus über einen Menüpunkt fährt. Ein Klick ist dabei nicht notwendig. So kann beispielsweise die Kategorieseite “Navigation” mit nur einem Klick erreicht werden. Mobil ist diese Technik nicht umsetzbar.

Auf der mobilen Seite sind dafür drei “Klicks” notwendig. Jedoch verwendet Amazon zum Teil Drop-Down-Menüs, sodass nicht bei jedem Klick eine neue Seite geladen wird. Dies erspart Zeit und möglicherweise mobiles Datenvolumen. Dadurch steigt die User Experience einer Website.

13.4 Sichtbarer Content zählt

Google ist kein Fan von Adblockern und verschweigt daher: Adblocker greifen mobil häufig nicht. Wer Werbeprogramme eingebunden hat, die unter Umständen Popups öffnen, sollte dies bedenken. Kann der Besucher die Werbung nicht wegklicken, kann er auch die Seiteninhalte nicht einsehen. Google straft dies sogar mit schlechteren Rankings ab. Hartnäckige Ads können über den jeweiligen Distributor ausgeschlossen werden. Die Aufbaugeschwindigkeit lässt sich durch AMP-Tools deutlich verbessern. Im Zweifel sollten Sie die eigene Website regelmäßig testen, um Darstellungsfehler und Aufbaugeschwindigkeit selbst zu bewerten.

13.5 Voice Search

Mittlerweile werden viele Suchanfragen über die Spracheingabe getätigt. Dies geschieht vor allem per Mobilgerät aber auch zunehmend durch Sprachassistenten. Schon im Mai 2016 gab Google an, dass 20 % aller Suchanfragen per Voice Search abgegeben werden. Für die Suchmaschinenoptimierung ergeben sich dadurch Änderungen, weil diese Art der Anfragen anders formuliert sind als getippte und nähern sich der normalen Sprache an. Sie sind länger und dadurch oft präziser. Der (mobile) Content sollte sich dann nicht mehr nur auf einzelne Keywords konzentrieren, sondern die Fragen der Suchenden möglichst gut beantworten.

Beispiel einer mündlichen Suchanfrage: “In welchem Modegeschäft im München gibt es momentan große Rabatte?”

14. Offpage SEO

Im Offpage-Bereich geht es darum, externe Signale bez. Vertrauen und Autorität aufzubauen. Das geschieht über Backlinks, Bewertungen, Erwähnungen und Social Signals. „Offpage“ heißt dabei so viel wie „außerhalb der Seite“ und impliziert, dass hier Faktoren gemeint sind, die sich auf fremden Websites abspielen. Diese Faktoren sind daher auch schwieriger zu beeinflussen als der Onpage-Bereich. Aus diesem Grund haben Offpage-Signale auch eine weitaus größere Auswirkung auf die Rankings.

14.1 Linkbuilding

Im Offpage-Bereich geht es darum Backlinks aufzubauen. Backlinks sind Verlinkungen von externen Websites auf die Eigene. Diese externen Verlinkungen sieht eine Suchmaschine als Empfehlung an. Aus diesem Grund sind die immer noch der wichtige Ranking-Faktor. Ziel sollte es sein, viele hochwertige Backlinks zur eignen Website aufzubauen.

Eine sinnvolle Linkbuilding-Strategie enthält 3 Bereiche:

  • Link-Audit: Im ersten Schritt wird das aktuelle Backlink-Profil analysiert. Das Audit soll einen Überblick darüber geben, wie viele Backlinks die eigene Website hat und auch in welcher Qualität. Auf dieser Basis lassen sich dann Maßnahmen ableiten, welche zusätzlichen Link-Arten aufgebaut werden sollten.
  • Monitoring: Nach dem initialen Link-Audit geht es darum das eigene Backlink-Profil laufend zu überwachen. Zum einen möchte man sicherstellen, dass aktuelle starke Backlinks bestehen bleiben. Zum anderen stellt man mit einem laufenden Monitoring sicher, dass man Backlinks, die organisch dazukommen, mitüberwachen kann. So entstehen detaillierte Insights, welche Inhalte gerne geteilt und verlinkt werden. Diese Erkenntnisse können wiederum eingesetzt werden, um zukünftig mehr Inhalte zu erstellen, die tendenziell öfter verlinkt werden.
  • Linkaufbau: Hier kommt das eigentliche Linkbuilding. Backlinks kommen nicht immer organisch zustande. Man muss hier auch selbst aktiv werden. Ob Guest Blogging, Content-Seeding, Kooperationen, Aufbau von Wettbewerberlinks oder Forenlinks. Es gibt unzählige Möglichkeiten, wie man Backlinks kommt.

Wenn man für sich Möglichkeiten entdeckt und definiert hat, dann sollten man verschiedene Aspekte im Linkbuilding beachten. Dazu gehören

  • Themenrelevanz: In erster Linie sollten die Backlinks von themengleichen Websites kommen. Für Google würde es zu manipulativ ausschauen, wenn eine Website fast ausschließlich Backlinks von themenfremden Seiten erhält.
  • Qualität: Dabei geht es um die Berücksichtigung der linkgebenden Website hinsichtlich Qualität. Die Website sollte hochwertig sein. Im besten Fall ist die Website selbst eine Autorität, die viele hochwertige Backlinks besitzt. Dadurch wird einiges von der eigenen Link-Power weitervererbt.
  • SEO-Kennzahlen: Auch wichtige SEO-Metriken sollten berücksichtigt werden, wenn Backlinks aufgebaut werden. Hat die linkgebende Website selbst eine hohe SEO-Sichtbarkeit und gute Keyword-Rankings, dann bringt das der Ziel-Seite deutlich mehr als Backlinks von SEO-schwachen Websites.
  • Link-Ziele: Das Link-Ziel ist ebenfalls entscheidend. In den meisten Fällen bekommt die Startseite die meisten Backlinks ab. Von dort aus verteilt sich dann die Link-Power durch die interne Verlinkung auf andere Seite. Es macht aber auch Sinn, gezielt Unterseiten zu verlinken. So stellt man sicher, dass wichtige Unterseiten gezielt und größtenteils von einem Backlink profitieren.
  • Ankertexte: Bei den Ankertexten handelt es sich um Keywords, Begriffe und Begriffskombinationen mit denen eine Website verlinkt wird. Tendenziell wird eine Website sehr oft mit ihren Namen oder Domain direkt verlinkt. Aber auch einzelne Keywords und Begriffe sind natürlich in einem Backlink-Profil. Die Suchmaschine ließt den Ankertext aus und kann direkt verstehen, worum es sich auf der Zielseite handeln können. Man sollte aber nicht massenhaft Keyword-Ankertexte verwenden, da die unnatürlich wirkt.
  • Herkunft der Links: Eine Website aus Deutschland sollte auch die meisten Backlinks von Website erhalten, die selbst aus Deutschland sind. Hat eine deutsche Website die meisten Links von weit entfernten Ländern, wirkt das verdächtig nach Linkkauf und somit Manipulation.

Neben den Tipps gibt es noch weitere Dinge, die Sie beachten sollten. Links von externen Websites können zum Ranking beitragen. Sorgen Sie daher für einen stetigen und organischen Link-Aufbau. Organische Links erhalten Sie durch gute Inhalte. Verzichten Sie auf automatischen Link-Aufbau. Diese Methode wird von Suchmaschinen als Betrug erkannt und kann zu starken Ranking-Einbußen führen. Achten Sie auch auf die Linkqualität. Besser sind wenig starke Links, als viele schwache Verknüpfungen. Starke Links sind solche, die von thematisch relevanten Inhalten und gut bewerteten Websites stammen. Als besonders wirksam gelten Links von Autoritätsseiten im jeweiligen Themenbereich.

Wenn Sie unsere SEO (Suchmaschinenoptimierung) Tipps berücksichtigen, taucht Ihre Website nicht nur im Suchmaschinen-Index auf. Sie beginnen mit wirkungsvoller Bing Suchmaschinenoptimierung (Google Suchmaschinenoptimierung) für bessere Rankings und Besucherzahlen.

Eine vollständige Liste aller Backlink-Eigenschaften, die man berücksichtigen sollte, finden Sie in unserem Glossar zum Thema Backlinks.

Vorgehensweise zum Linkbuilding zusammengefasst:

© OSG

Zum Linkbuilding Artikel

Testen Sie jetzt Ihre Links!

OffPage-Maßnahmenkatalog ThemaBeschreibung Linktext der eingehenden LinksDer verlinkte Text ist einer der wichtigsten externen Ranking-Faktoren. Dies gilt für Links von externen Seiten sogar noch mehr als für Links innerhalb einer Website. Wichtig ist hierbei aber, dass die Verteilung der Linktexte von aussen “natürlich” aussehen muss, d.h. eine auffällige Häufung ein- und desselben Linktexts sollte tunlichst vermieden werden. Ausnahmen sind hier natürlich der Unternehmensname sowie die URL der Website selbst. Natürlich ist, dass ein Großteil der Links genau diese Linktexte besitzt und Linktexte mit den wichtigsten Keywords nur einen geringen Anteil haben. Links von .edu und .gov Domains bzw. entsprechenden internationalen PendantsDiese Links sind sehr wertvoll, da Websites aus dem staatlichen und universitären Umfeld generell von Suchmaschinen als sehr relevant eingestuft werden. Links auf ungültige URLsAuch wenn Suchmaschinen betonen, dass Links auf nicht existierende Seiten oder ungültige URLs dem Ranking nicht schaden, wurden in der Praxis dennoch schon Effekte beobachtet, bei denen massive Verlinkung ungültiger URLs dem Ranking der Website schadeten. Es ist daher ratsam, regelmässig die entsprechenden Informationen in den Google Webmaster Tools bzw. der Bing Webmaster Console einzusehen und ggf. entgegenzuwirken, indem man beispielsweise 301-Redirects setzt oder verlinkende Webmaster um Korrektur der Links bittet. Text um den LinkDer Text direkt vor und nach dem Link trägt spürbar zum Ranking bei. Natürlich gesetzte Links betten sich in ein semantisches Umfeld von Begriffen ein, wohingegen beispielsweise Footer-Links oder als Werbung gekennzeichnete Blöcke meist völlig alleine stehen und eher auf einen künstlich (d.h. nur zur Verbesserung des Rankings) gesetzten Link hindeuten. Themenrelevante LinksLinks von ähnlichen Seiten sind sehr, sehr hilfreich. Sie zeigen eine Empfehlung der Mitbewerber und dass die verlinkte Seite innerhalb der Branche sehr populär ist. Die praktische Umsetzung ist oft schwer, da kein Mitbewerber gerne auf den direkten Konkurrenten verlinkt. Hier bieten sich Strategien an, beispielsweise allgemein gehaltene Branchen-Portale aufzubauen oder Existierende zu unterstützen, um somit indirekt Links von Mitbewerbern zu erhalten. Lokale AnkerLokale Anker (Linkziele innerhalb einer Seite, beispielsweise www.domain.de/kontakt#telefon) sind für die interne Navigation nützlich. Darüber hinaus sind sie auch für SEO-Zwecke hilfreich, da sie besondere Abschnitte nochmal betonen können Herkunft der eingehenden LinksNeben dem Linktext ist sehr wichtig, ob die verlinkende Seite selbst eine hohe Relevanz bei Google besitzt. Obwohl der Page Rank an sich nur noch eine sehr geringe Bedeutung für das Ranking besitzt, ist er oftmals leider das einzige Kriterium für die Bewertung, das ohne aufwändige Recherche und Beurteilung vieler anderer Faktoren (Domain-Alter, Linkprofil der verlinkenden Seite, IP-Nachbarschaft der verlinkenden Seite, vorhandene Rankings der Seite etc.) ermittelt werden kann. IP Adresse des eingehenden LinksGoogle sagt, dass es keine Diskriminierung von Links gibt, die von der selben IP Adresse oder aus dem gleichen Class-C-Bereich kommen, also kann für Google angenommen werden, dass die IP-Adresse keinen Einfluss auf die Wertigkeit eines Links hat. Bing und Yahoo! berücksichtigen jedoch möglicherweise die IP-Adressen bzw. IP-Klassen, weshalb es generell besser ist, Links von verschiedenen IPs und IP-Klassen zu haben. Eingehende Links von Linkfarmen und anderen “verdächtigen” SeitenEingehende Links von sogenannter “Bad Neighborhood” haben keinen schädlichen Effekt auf eine Website, da diese nicht unter Kontrolle des Website-Betreibers liegen und es ausserdem eine viel zu einfache Möglichkeit wäre, um einem Mitbewerber zu schaden. Aus Effizienzgründen sollte man beim Linkaufbau aber kurz prüfen, ob sich hinter einem Link derartige Konstrukte handelt und die Zeit besser in wirklich gute Links investieren. Cross-LinkingCross-Linking tritt auf, wenn Seite A auf Seite B verlinkt, Seite B auf Seite C verlinkt und Seite C wieder zurück auf Seite A verlinkt. Neben diesem einfachsten Fall gibt es eine Menge komplexerer Konstrukte, die aber alle nur eine erweiterte Version einfacher reziproker Links sind. Reziproke Verlinkung schadet üblicherweise nicht, bringt aber dem Ranking normalerweise auch nichts. Exzessive Verlinkung, Link SpammingEs ist schlecht für das Ranking, wenn eine Website extrem viele Links von bzw. zu einer anderen Website besitzt, da dies auf Linkkauf oder zumindest Spamming hindeutet. Natürliche Ausnahmen dieser Regel sind Querverlinkungen zwischen eigenen Projekten (beispielsweise unterschiedlichen Sprachversionen einer Website, die auf unterschiedlichen Domains liegen oder Websites anderer Unternehmen, die zum gleichen Mutterkonzern gehören etc.). Viele ausgehende LinksGoogle mag keine Seiten, die hauptsächlich nur aus Links bestehen und daneben nur wenig Inhalt bieten, weshalb man die Anzahl ausgehender Links unter 100 pro Seite halten sollte. Ausnahmen dieser Regel sind natürlich große Übersichtsseiten, Sitemaps und dergleichen, aber auch bei diesen kann man mit Hilfe geeigneter Aufteilung auf Unterseiten die Anzahl ausgehender Links in vernünftigem Rahmen halten. Pixel-LinksWenn ein Link mit Hilfe eines Bildes umgesetzt ist, das nur 1×1 Pixel groß und somit nicht für menschliche Besucher sichtbar ist, kann dieser auch nicht angeklickt werden und ist somit ein deutlicher Hinweis auf einen Versuch, die Suchmaschinen-Rankings zu manipulieren. Ausgehende Links zu Linkfarmen und anderen “verdächtigen” SeitenAnders als eingehende Links von Linkfarmen und sogenannter “Bad Neighborhood” können ausgehende Links auf solche Seiten durchaus das eigene Ranking schädigen. Es ist daher ratsam, regelmässig den Status der verlinkten Seiten zu prüfen, da sich ehemals harmlose Seiten durch Eigentümerwechsel durchaus in Bad Neighborhood verwandeln können. Deep Link RatioEine gezielte Verteilung der Backlinks auf die Startseite und Unterseiten einer Website ist ebenfalls wichtig für die OffPage Optimierung. Top Referring DomainsEine gezielte Verteilung der Backlinks auf die Startseite und Unterseiten einer Website ist ebenfalls wichtig für die OffPage Optimierung. Top-Level-DomainEine deutsche Website sollte auch viele “.de” Domain Verlinkungen haben. Andere Top-Level-Domains sollten natürlich auch nicht fehlen, die Anzahl sollte aber deutlich unter der .de Domain sein. LänderverteilungEine deutsche Website sollte auch viele Verlinkungen von deutschen Websiten haben. Ein geringerer Anteil der verlinkenden Domains aus dem Ausland sollte natürlich auch nicht fehlen. LinkzieleDurch eine Analyse der Linkziele, lässt sich schnell feststellen Seiten Typen (Foren, Blogs, CMS, Webkataloge)Zu einem natürlichen Linkmix gehören verschiedene Arten von Webseiten: Foren, Webkataloge, Statische Seiten sowie Bloglinks. Anzahl LinksEine gezielte Verteilung der Backlinks auf die Startseite und Unterseiten einer Website ist ebenfalls wichtig für die OffPage Optimierung. DomainpopularitätEine gezielte Verteilung der Backlinks auf die Startseite und Unterseiten einer Website ist ebenfalls wichtig für die OffPage Optimierung. IP-PopularitätEine gezielte Verteilung der Backlinks auf die Startseite und Unterseiten einer Website ist ebenfalls wichtig für die OffPage Optimierung. Linktexte (Coumpound, Money, Brand, Sonstige)Eine gezielte Verteilung der Backlinks auf die Startseite und Unterseiten einer Website ist ebenfalls wichtig für die OffPage Optimierung. Social MediaEine gezielte Verteilung der Backlinks auf die Startseite und Unterseiten einer Website ist ebenfalls wichtig für die OffPage Optimierung. NoFollow/Follow-LinksNoFollow Links haben zwar einen schlechten Ruf und werden daher bei einem Linkaufbau oft vermieden. Um einen organischen Linkaufbau darzustellen sollte ein prozentualer Anteil der Backlinks ein NoFollow Attribut besitzen. Hub- und Authority EmpfehlungenEine gezielte Verteilung der Backlinks auf die Startseite und Unterseiten einer Website ist ebenfalls wichtig für die OffPage Optimierung. Starke PR Seiten EmpfehlungenEine gezielte Verteilung der Backlinks auf die Startseite und Unterseiten einer Website ist ebenfalls wichtig für die OffPage Optimierung. PagerankDer Pagerank verliert zwar immer mehr an Wert, trotzdem wird der PR immer noch als Rankingfaktor berücksichtigt. Ein hoher PR zeugt immer noch von Trust und Authority einer Website. Linkaufbau der KonkurrenzEine gezielte Verteilung der Backlinks auf die Startseite und Unterseiten einer Website ist ebenfalls wichtig für die OffPage Optimierung. AC RankEine gezielte Verteilung der Backlinks auf die Startseite und Unterseiten einer Website ist ebenfalls wichtig für die OffPage Optimierung.

15. UX

Weiter oben haben wir kennengelernt (unter “Vorteile von SEO”), dass auch die UX – also Nutzer-Erfahrung – einen wichtigen Teil im SEO (Suchmaschinenoptimierung) einnimmt.

UX ist die Abkürzung für “User Experience” und fasst alle Maßnahmen zusammen, die zur einer positiven Nutzer-Erfahrung führen. Laut der Definition von Wikipedia ist UX:

Der Begriff User Experience (Abkürzung UX, deutsch wörtlich Nutzererfahrung, besser Nutzererlebnis oder Nutzungserlebnis – es wird auch häufig vom Anwendererlebnis gesprochen) umschreibt alle Aspekte der Eindrücke eines Nutzers bei der Interaktion mit einem Produkt, Dienst, einer Umgebung oder Einrichtung.

– Wikipedia: https://de.wikipedia.org/wiki/User_Experience

Für Websites bedeutet dies, dass es oberstes Ziel sein muss, den Nutzer ein positives Erlebnis beim Surfen zu liefern. Nur dadurch behält man den Nutzer auf der Website, damit man im nächsten Schritt zum Kauf oder Kontakt animiert.

Auf der Website gibt es viele Bereiche und Aspekte, die zu einer guten UX führen. Unter anderem zählen dazu:

BereichBeschreibung LadezeitenRuft der Nutzer die Website auf, dann soll diese so schnell wie möglich laden. Nutzer sind im Web ungeduldig. NavigationHier ist es wichtig, dass die Haupt-Navigation sofort erkennbar ist. Interne Links aus dem Text heraus müssen ebenfalls mit anderer Farbe und am besten auch unterstrichen als solche erkennbar sein. Zudem sollten die Link-Benennungen kurz, klar und verständlich gewählt werden. ContentDer Inhalt sollte klar strukturiert sein. Haupt- und Zwischenüberschriften helfen, dass der Nutzer den Text besser erfassen kann. Liste, Tabellen, Bilder, Videos, etc. lockern den Text etwas auf. Insgesamt sollte der Content einen einzigartigen Mehrwert bieten.

Berücksichtigt man alle UX-Aspekte so hat man einen zufriedenen Nutzer:

  • Nutzer springen nicht sofort ab, sondern bleiben auf der Website.
  • Nutzer verweilen länger auf der Website.
  • Neue Nutzer werden zu wiederkehrenden Nutzern.
  • Nutzer sind eher bereit was zu kaufen.
  • Die positiven Nutzer-Signale werten Suchmaschinen aus und belohnen das mit guten Rankings.

Beim letzteren wird sofort klar, wieso SEO (Suchmaschinenoptimierung) und UX Hand in Hand gehen. Aus diesem Grund ist es wichtig beide Disziplinen zu vereinen.

15.1 SEO + UX = SXO

Deshalb spricht man mittlerweile manchmal von SXO. “Search Experience Optimization” fasst alle Maßnahmen aus SEO und UX zu einem Begriff zusammen.

À lire aussi  5 Manières de Gagner de l’Argent avec Amazon !

Die Wichtigkeit beider Disziplinen haben wir bisher kennengelernt und können festhalten:

  • Schritt 1 SEO: Mit SEO beeinflussen wir Sichtbarkeit und Rankings bei Suchmaschinen und sorgen dadurch für Traffic auf der Website.
  • Schritt 2 UX: Landet der Nutzer über SEO auf die Website, geht es darum über UX ihn auf der Website zu halten und zu einem Kauf zu bewegen.

15.1 Der Nutzer im Zentrum – die User Journey

SXO hat dabei den Nutzer im Fokus. Gehen wir von einem typischen Nutzer aus, dann kann man den Prozess bis zum Kauf auf der Website wie folgt grob definieren:

  1. Nutzer sucht bei Google nach Informationen (SEO)

  2. Nutzer findet passende Informationen bei Google und klickt auf die Website (SEO)

  3. Nutzer surft auf der Website (UX)

  4. Nutzer ist zufrieden und kauft was (UX)

An den 4 beschriebenen Meilensteinen in der User Journey lassen sich auch konkrete Maßnahmen ableiten und Optimierungen vornehmen, um alle SXO-Vorteile abzugreifen.

15.2 Usability Konzept

Um ein Usability Konzept zu erstellen müssen Sie, die verschiedenen Stellen, die ein Kunde durchläuft überprüfen und optimieren. Am besten bestimmen Sie für eine solche Aufgabe einen neuen Mitarbeiter in Ihrem Betrieb, der noch nicht so tief im Alltagsgeschäft verankert ist, damit er mit einem frischen Blick die Seiten begutachten kann.

Dabei sollten folgende Punkte begutachtet werden:

  • Bestellprozess
  • Produktdetailseiten
  • Navigation
  • Texte
  • Kundeninformationen
  • Verlinkungen
  • Layout
  • Homepage
  • Warenkorb
  • Services
  • Zahlungsmöglichkeiten
  • Unternehmensinformationen
  • Grafik & Design
  • Suchfunktion
  • Etc.

Um solche Aufgaben zu bewältigen sollten unter anderem Webcontrolling Auswertungen, Mouse Tracking, Multivariate Tests, A/B Tests und Detailauswertungen (Mobile, Browser, Auflösung, Uhrzeit, Kanal) vorgenommen werden.

16. Algorithmus-Updates

Der Algorithmus von Google ist ein komplexes System, der verwendet wird, um Daten aus seinem Suchindex abzurufen und sofort die bestmöglichen Ergebnisse für eine Suchanfrage zu liefern. Die Suchmaschine verwendet eine Kombination aus Algorithmen und zahlreichen Ranking-Signalen, um Webseiten zu liefern, die nach Relevanz auf den Ergebnisseiten der Suchmaschine geordnet sind.

Der Google Algorithmus ist die Formel, die Google verwendet, um die aus der Anfrage eines Nutzers resultierenden Webseiten in eine Rangfolge zu bringen. Neben dem PageRank-System, das Googles wichtigster Beitrag zur Bewertung der Wichtigkeit einer Website aufgrund ihrer Popularität war, verwendet Google zahlreiche andere Kriterien, die sich regelmäßig ändern, um relevantere Ergebnisse zu liefern und um zu verhindern, dass Personen das System ausnutzen. Wenn ein Kriterium beispielsweise die Menge identischer Wörter auf der Seite wäre, könnten Spezialisten für SEO (Suchmaschinenoptimierung) mehrere Vorkommnisse des Wortes in die Seite einbetten, die für den Nutzer unsichtbar sind, aber nicht für den Suchmaschinen-Spider, der das Web durchkämmt. Wenn Google feststellt, dass die Nutzer exzessive Keyword-Füllungen vornehmen, kann dies den Wert dieses Kriteriums im Gesamtmix mindern.

In seinen Anfangsjahren hat Google nur eine Handvoll Aktualisierungen seiner Algorithmen vorgenommen. Heute nimmt Google jedes Jahr Tausende von Änderungen vor. Die meisten dieser Aktualisierungen sind so geringfügig, dass sie völlig unbemerkt bleiben. Gelegentlich führt die Suchmaschine jedoch größere algorithmische Aktualisierungen durch, die sich erheblich auf die SERPs auswirken.

16.1 Ständige Änderungen

Im Laufe der Jahre hat Google zahlreiche Algorithmusänderungen vorgenommen, von denen viele Namen und mehrere Versionen haben, darunter Boston, Caffeine, Cassandra, Dominic, Fritz, Florida, Austin, Allegra, Bourbon, Gilligan, Big Daddy, Buffy, Dewey, Panda und Pinguin. Im Jahr 2013 wurde der Hummingbird-Algorithmus grundlegend geändert, um gezieltere Ergebnisse für die Benutzer zu liefern.

Mit jeder Änderung des Algorithmus gewinnt ein gewisser Prozentsatz der Websites an Popularität, während andere an Popularität verlieren. Gelegentlich erleiden selbst große Websites einen großen Verlust.

Ein Beispiel: Das Google Panda Update

Das Panda Update hatte den Fokus “Content”. Dieses beeinflusste 6-9% aller Suchanfragen in Deutschland. Mittlerweile gibt es die Version 3.9. Für die Suchmaschinenoptimierung sind die Konsequenzen, dass zu stark SEO optimierte Texte und den Fokus nicht auf Mehrwert und Qualität gesetzt hatten, abgestraft werden.

Negative Effekte:

Wikio.de

Geizkragen.de

Ciao.de

Positive Effekte:

Gutefrage.net

Siemens-home.de

16.2 Wichtigste Google Algorithmus-Updates

Im Folgenden haben wir die wichtigsten Google Algorithmus-Updates aufgelistet:

  • 2012: Penguin-Update
  • 2013: Humingbird-Update
  • 2014: Pigeon-Update
  • 2015: Google Mobile-Update

Das Pinguin-Update und seine Auswirkungen

Besonders unnatürlicher Linkaufbau, zu viele Keyword-Verlinkungen und generische Keywords werden mit diesen Update abgestraft. Das Linkprofil und hochwertiger Content wird immer wichtiger.

Tagesgold.org

Onlinekredite.cc

Check24

Das Venice-Update

Bei diesem Update wurde der Fokus besonders auf die lokale Suche gelegt. Dies hatte nur Auswirkungen auf die organischen Suchergebnisse, wobei die Google local Treffer nicht betroffen sind. Besonders auffällig war hierbei aber, dass es kaum Veränderungen in den Top 5 Suchergebnissen und bei stark umkämpften Keywords gab.

Vergleich: Google Suche mit Standort in München mit Berlin

17. Wie mache ich meinen Inhalt für Google verständlich?

Im Abschnitt “Google (und Nutzern) Ihre Inhalte verständlich machen” befasst sich der SEO (Suchmaschinenoptimierung) Leitfaden des Suchmaschinenbetreibers ausführlich mit den spezifischen Tags Meta-Title und Meta-Description sowie den Snippets, die als kurze Inhaltsangaben in Suchergebnissen auftauchen.

17.1 Der Meta-Title sollte eine Webseite wie eine Postanschrift identifizieren

Meta-Tags gehören als Metadaten einer Webseite in den Kopf (“<head>”) der Datei. Google empfiehlt, für jede Seite einen individuellen und aussagekräftigen Titel zu erstellen. Dieser sollte natürlich klingen und den Seiteninhalt treffend zusammenfassen. Vorteilhafte, optionale Zusatzinformationen sind der Name der Seite oder ein Firmenname und -standort sowie Angebotsschwerpunkte.

Ein No-Go sind dagegen Überschriften ohne jeden Bezug zum Inhalt sowie generische Titel, wie sie von Editierprogrammen beim Öffnen einer neuen Seite erstellt werden. Auch wenn Googles SEO Einführung duplizierte Überschriften auf unterschiedlichen Webseiten nicht grundsätzlich ablehnt, führt er die Verwendung derselben Titelangabe auf vielen oder allen Seiten einer Site explizit als “zu vermeiden” auf.

In der Kürze liegt die Würze

Abschließend geht Google im Abschnitt zum Meta-Title noch auf die Länge ein und warnt vor zu langen Überschriften sowie vor der Überfrachtung mit überflüssigen Schlüsselwörtern. Google verwendet den Inhalt der Title-Tags zwar vorzugsweise bei der Auflistung in SERPs, kürzt oder ersetzt diese aber, wenn sie zu lang oder irrelevant erscheinen. Der Meta-Title sollte daher eine Länge von ca. 60 Zeichen nicht überschreiten. Der Snippet-Generator von Sistrix hilft bei der Optimierung von Snippets und zeigt, wie Google-Nutzer einen Suchtreffer der betreffenden Seite sehen.

17.2 Meta-Description: die Chance für eine kostenlose Werbeanzeige

Auf die kurze Seitenbeschreibung in der Meta-Description geht Googles SEO (Suchmaschinenoptimierung) Leitfaden zunächst mit dem Hinweis ein, dass ihre Qualität mit der Search Console des Suchmaschinenbetreibers überprüfbar ist. Sie identifiziert übermäßig lange oder kurze Meta-Descriptions ebenso wie zu häufig kopierte Einträge. Anschließend zeigt der SEO Guide den Vorteil einer Verwendung des optionalen Meta-Tags auf, das die Suchmaschine als Quelle für Snippets heranzieht, und verweist auf weitergehende Beiträge zur Optimierung von Meta-Description und Snippets.

Best Practices und No-Gos

Im Abschnitt zu den bewährten Vorgehensweisen empfiehlt Google, den Inhalt des Tags so zu formulieren, dass er den Suchmaschinennutzer informiert und interessiert. Konkreter lässt sich das so formulieren, dass die Meta-Description einen Call-To-Action enthalten und den Nutzer kurz darüber informieren sollte, was ihn auf der verlinkten Webseite erwartet. In den SERPs hat sie die Aufgabe einer Werbeanzeige, die den Suchenden zum Besuch der Webseite veranlassen soll.

Weiterhin geht der Leitfaden auf die Länge der Meta-Description ein, deren Grenzen nicht allgemeingültig bezifferbar sind, da diese von den individuellen Randbedingungen einer Suchanfrage abhängen. Allgemeinhin gilt eine Anzahl von 300 Zeichen als die Länge, die maximal verwendet werden sollte.

Die Liste der No-Gos zur Meta-Description dupliziert zunächst die beim Meta-Title genannten Einträge. Zusätzlich verbietet sie Inhalte des Meta-Tags, die ausschließlich aus Schlüsselwörtern bestehen oder den gesamten Textinhalt der Webseite duplizieren. Abschließend erläutert der Leitfaden noch, warum auch die Meta-Description möglichst für jede Webseite individuell erstellt werden sollte und warnt, wie beim Meta-Title, davor, dieselbe Description für alle oder zahlreiche Seiten zu verwenden.

17.3 Weitere wichtige Tags für SEO (Suchmaschinenoptimierung)

Die Überschrift-Tags h1, h2, h3 und dergleichen zählen zwar nicht zu den Meta-Tags, sind aber ebenfalls für die Suchmaschinenoptimierung von Bedeutung. Der Google SEO Leitfaden empfiehlt hier, mit diesen Tags eine hierarchische Struktur in Form einer Gliederung des Webseitentexts zu schaffen, die seine inhaltlichen Haupt- und Unterpunkte widerspiegelt. Er warnt hingegen davor, Überschrift-Tags für Textauszeichnungen zu missbrauchen, die keine Beziehung zur Textstruktur haben. Beispielsweise sollten h-Tags nur bei Inhalten und nicht sinnlos im Footer verwendet werden.

Bei den Überschriften ist auch die Gewichtung der Hierarchie entscheidend. Der h1 kommt eine höhere Gewichtung zu, als der h3-Überschrift usw. Verwenden Sie nach Möglichkeit ein wichtiges Keyword in den relevanten Überschriften.

17.4 Einfache und reiche Snippets

Die in SERPs angezeigten, textmäßigen Snippets sind in dieser SEO (Suchmaschinenoptimierung) Guideline bereits bei der Meta-Description erwähnt. Googles Leitfaden geht aber noch auf eine andere Art von Snippets ein, die mittels sogenannter Strukturierter Daten spezifiziert werden. Diese dienen ebenfalls der Angabe von Metadaten, die Suchmaschinen auswerten können, bieten aber weitergehende Möglichkeiten, insbesondere das Referenzieren attraktiver Multimedia-Inhalte.

Google verwendet solche Rich-Snippets um Suchergebnisse durch zusätzliche Angaben aufzuwerten. Sie qualifizieren eine Webseite aber auch für Sonderfunktionen wie Sternebewertungen. Google bietet mehrere Tools mit denen Strukturierte Daten, respektive Rich Snippets überprüft, aber auch ohne Änderung am Webseiten-Quelltext ausprobiert werden können.

Mit dem kostenlosen Rich Snippet Testing Tool von Google können erstelle Rich-Snippets überprüft werden.

18. Die Hierarchie einer Website

Ob Erstpräsentation oder umfassende Neugestaltung einer vorhandenen Website: Die Planung des Grundgerüstes ist eine essenzielle Vorabmaßnahme. Dieses Fundament soll sämtliche künftigen Änderungen auf der Seite zu tragen imstande sein: die Struktur und Hierarchie der Website. Ein solides Konzept unter Berücksichtigung einer Handvoll Regeln erspart Ihnen einiges an nachträglicher Flickerei und damit viel Ärger.

18.1 Die Startseite als Zentrum der Navigation

Für diese hierarchische Strukturgebung hat die Einführung in die Google Suchmaschinenoptimierung nützliche und nachvollziehbare Ratschläge parat – Dos und Dont’s, welche Ihnen als Ersteller und Betreiber einer Website bei der Realisierung des Projektes behilflich sind. Aller Anfang ist die Startseite – von hier aus generieren Sie die Navigationsstruktur. Google empfiehlt in seinen einführenden SEO Tipps den Aufbau organisch sinnvoller Hierarchien: stets vom Allgemeinen, Grobstofflichen hin zum Konkreten, Speziellen. Zum einen soll eine inhaltlich schlüssige Ordnung erkennbar sein, zum anderen ist auf eine möglichst unkomplizierte Ordnerstruktur zu achten. Zu tief verzweigte Unterverzeichnisse bergen die Gefahr, dass die Übersicht verloren geht. Von der Startseite aus sollte jeder Inhalt mit wenigen Klicks erreichbar sein.

18.2 Navigationspfade und Sitemap

Ebenso legt Google die Einrichtung von Navigationspfaden, den Breadcrumbs nahe – so weiß der Besucher stets, auf welchem hierarchischen Level er sich befindet. Navigationspfade stärken somit die Usability.

Die Breadcrums einer Seite lassen sich ebenfalls über strukturierte Daten auszeichnet – das erleichtert es Suchmaschinencrawlern die Hierachie der Website richtig zu erfassen. Darüber hinaus propagiert Google wie oben erwähnt die Einreichung einer XML-Sitemap – diese erleichtert der Suchmaschine die Orientierung und ist daher auch der Indexierung von Seiten in tiefer platzierten Ebenen förderlich. Die Einreichung einer XML-Sitemap ist erfahrungsgemäß jedoch nur sinnvoll bei großen Websites mit mehr als 5.000 URLs. Es lohnt sich dennoch, Googles einführende SEO (Suchmaschinenoptimierung) Tipps bei Planung und Aufbau im Hinterkopf zu behalten.

Zum Sitemap Artikel

18.3 Übersichtlichkeit für den Nutzer sicherstellen

Eine umsichtige Konzeption ist der Schlüssel für den Erfolg Ihres Webauftrittes. Ihr Themenschwerpunkt markiert üblicherweise den Ausgangspunkt der hierarchischen Aufstellung, bei kommerziellen Websites ist es zumeist der Unternehmensgegenstand. Von der Startseite ausgehend gilt es, Haupt- und Unterkategorien festzulegen, die in absteigender Hierarchie jeweils abnehmende Relevanz aufweisen. Bevorzugen Sie flache Hierarchien: Je knapper Sie die Anzahl an Unterebenen (Verzeichnistiefe) bemessen, desto einfacher machen Sie es sowohl Ihren Besuchern als auch den Suchmaschinen.

Vor allem bei großen Websites mit vielen URLs leidet die User Experience sehr schnell. Daher sollte auch auf eine niedrige Klickpfadtiefe geachtet werden. Die Klickpfadtiefe gibt die Anzahl der benötigten Klicks an, um auf eine bestimmte Unterseite zu gelangen.

Benennen Sie Verzeichnisebenen und Kategorien anhand thematisch plausibler Keywords. Achten Sie darauf, dass ein und dasselbe Keyword nicht gehäuft, beispielsweise in einer URL mehrmals (www.example.de/keyword/keyword_123/keyword_abc), vorkommt. Wählen Sie beim Betiteln Ihrer Verzeichnisse kurze Worte und Begriffe mit Themenbezug: Suchmaschinentreffer zeigen die ersten Worte einer URL an – so erhält der Besucher schon vor dem Anklicken Informationen zum Seiteninhalt.

Tipp: Verwenden Sie das Rich Snippet Breadcrumbs. Es wird im Suchtreffer anstelle der URL angezeigt und dient der besseren Übersicht.

18.4 Gefahren einer ungepflegten Hierarchiestruktur

Dont’s, die dem erfolgreichen Start Ihres Internetauftritts abträglich sind: sinnfrei verschachtelte Verzeichnisstrukturen, nachlässige Navigation mit schlampiger interner Verlinkung: Das Entstehen wilder URLs kann zu Duplicate Content und in weiterer Folge zur Abwertung seitens der Suchmaschinen führen. Google und Co. halten sich an klare Qualitätsvorgaben – beugen Sie dem unkontrollierbaren Wuchern unbeabsichtigter URLs vor, indem Sie von Anfang an die gebotene Sorgfalt an den Tag legen. Sorgfalt bei einer hierarchisch nachvollziehbaren Struktur, Sorgfalt bei Ihren sprechenden und themenzugehörigen Dateinamen. Übereinstimmender Standpunkt vieler Experten: Der Zeitaufwand, den Sie in diese organisatorische Vorarbeit investieren, wird sich bezahlt machen.

Mit dem Entwurf der Seitenstruktur und einer hierarchischen Gliederung schaffen Sie die solide Grundlage für alle weiteren Aktivitäten. Suchmaschinen folgen dem Nutzerverhalten – beherzigen Sie diesen Punkt. Lassen Sie Suchmaschinen-Algorithmen zwar nicht außer Acht, aber denken Sie in erster Linie an die Personen, die durch Ihre Seiten navigieren. Trends und Suchverhalten ändern sich und Algorithmen folgen diesen Trends. Mit einem starken Fundament können Sie den eigenen Auftritt neuen äußeren Umständen flexibel anpassen.

19. Keywordstrategie

Dieser Teil unseres SEO Guide skizziert, welche Ziele mit der Auswahl bestimmter Keywords erreicht werden sollen, wie die optimalen Keywords auf Grundlage einer individuellen Keywordstrategie gefunden werden und welche Tools für die Keyword -Recherche Webmastern und SEOs zur Verfügung stehen. Im Google Leitfaden wird auf dieses Thema kaum eingegangen.

19.1 Welche Bedeutung hat der Begriff Keyword?

Es ist wichtig zu wissen, dass der Begriff “Keyword” zwei unterschiedliche Dinge beschreibt. Zum einen werden bedeutungsvolle Worte oder Phrasen, die den Inhalt eines Textes beschreiben, als Keywords bezeichnet. Zum anderen ist ein Keyword jedes Wort, das von einem Benutzer in eine Suchmaschine eingegeben wird, um eine Online-Suche zu starten.

Es gibt verschiedene Arten von Keywords: Moneykeywords, Compound, Brand, generische Keywords und Kombinationen aus diesen.

Am besten stuft man Keywords auf einer Webseite nach den Kriterien Suchvolumen, Themenrelevanz, Saisonalität und andere Faktoren ein.

Zum SEO Keywords Artikel

19.2 Die Ziele der Keywordwahl

Durch das Targeting bestimmter Keywords über verschiedene Suchmaschinen-Marketing-Techniken können Webseitenbesitzer ihre Chancen verbessern, in den Ergebnislisten der Suchmaschinen weit oben platziert zu werden. Grundsätzlich sind Keywords unverzichtbar, damit eine Webseite von Google & Co zu einem bestimmten Thema indexiert und bei einer Suchanfrage zu diesem Thema angezeigt werden kann. Die Wahl relevanter Keywords ist eine Voraussetzung für möglichst hohen Traffic und in der Folge für den wirtschaftlichen Erfolg einer Webseite und des dahinterstehenden Unternehmens.

19.3 Wie finden Webseitenbetreiber die optimalen Keywords?

Am Anfang der Keyword-Recherche steht die Festlegung, welches Ziel mit einer Webseite erreicht werden soll. Dabei spielt es keine Rolle, ob Produkte oder Dienstleistungen verkauft werden, oder ob sich Besucher für einen Newsletter eintragen oder Informationen anfordern sollen. All dies können Ziele einer Webseite sein. Wichtig ist immer, dass die Keywords den Inhalt einer Seite möglichst präzise beschreiben.

Der zweite wichtige Schritt ist mit geeigneten Tools die Suchintention und die Nutzerintention herauszufinden. Das heißt, zu verstehen wie und warum Suchmaschinennutzer suchen. Die Unterschiede sind für Google wichtig. Die Suchmaschine liefert zum gleichen Thema unterschiedliche Ergebnisse, abhängig zum Beispiel davon, ob jemand etwas kaufen will oder nur Informationen sucht. Es werden je nach Intention der Nutzer fünf Arten von Keywords unterschieden. Diese sind:

  • Informational: Der User sucht nach Informationen, Z.B. “gute Radtouren auf Mallorca”
  • Transactional: Der User hat eine Kaufabsicht, z.B. “rote ballerinas in gr. 38”, “ballerinas kaufen”
  • Navigational: Der User benutzt die Suchmaschine als Navigation und sucht z.B. direkt nach “Zalando.de”
  • Brand-Keywords: Kombinationen mit der Marke, z.B. “s.Oliver T-Shirts”

In kaum einem SEO Guide wird erwähnt, dass Webmaster je nach Ausrichtung der Webseite, regionale Unterschiede bei den Keywords berücksichtigen müssen. Ein Beispiel: in Berlin werden Buletten gegessen. Im Westen des Landes heißen sie Frikadellen und in Baden-Württemberg Fleischküchle. In Bayern werden aus den Fleischbällchen schließlich Fleischpflanzerl.

Auch die Lände der Keywords süielt dabei eine große Rolle. Eine Studie des amerikanischen SEO-Tool-Anbieters Ahrefs hat gezeigt, dass der größte Teil der Google-Suchanfragen aus mindestens drei Wörtern und fast die Hälfte aus fünf oder mehr Wörtern besteht. Diese Ergebnisse basieren auf einer Analyse von insgesamt 1,4 Milliarden Keywords:

Weitere wertvolle Informationen für die Keyword-Auswahl erhalten Webmaster durch eine Analyse, mit welchen Keywords Wettbewerber in den Google-Suchergebnissen ranken. Kostenlose Tools unterstützen SEOs und Webmaster bei der Keyword-Recherche und helfen, neue Ideen für eine individuelle Keywordstrategie zu entwickeln.

Zum Keyword Analyse Artikel

19.4 Kostenlose Webmaster-Tools für die Keyword-Recherche

Google Keyword-Planner

Die erste Empfehlung in unserem SEO (Suchmaschinenoptimierung) Guide ist der Google Keyword-Planner. Dieses Tool wurde für bezahlte Werbekampagnen mit Google AdWords konzipiert. Dennoch kann der Keyword-Planner für SEO oder Content-Marketing-Kampagnen genutzt werden. Nach Eingabe der für eine Webseite relevanten Phrasen oder Keywords liefert das Tool Informationen zum Suchvolumen für diese Keywords und Informationen zur Wettbewerbssituation.

Moz Keyword Explorer

Die Informationen, die der Moz Keyword Explorer liefert, ähneln denen im Keyword-Planner von Google. Es wird jedoch behauptet, dass diese genauer sind, da Google seine Daten rundet und bei der Bewertung nicht so gründlich ist. Das Tool bietet detailliertere Keyword-Empfehlungen und bewertet den kumulativen Wert jedes eingegebenen Keywords qualitativ.

Hypersuggest

Die Stärke von Hypersuggest liegt darin, SEOs und Webmaster bei der Entwicklung neuer Keyword-Ideen zu unterstützen. Dazu wird einfach eine Suchanfrage in die Suchmaschine von Hypersuggest eingegeben und das kostenlose Keyword Tool stellt eine Liste mit Dutzenden von Keyword-Vorschlägen zusammen. Diese werden nicht aufgrund des Suchvolumens, der Konkurrenz oder des potenziellen Werts empfohlen, sondern helfen dabei, spezifischere, relevantere und vielfältigere Ideen für eine Kampagne zu entwickeln. Insbesondere, wenn Webmaster mit der Keyword Recherche noch nicht sehr vertraut sind, ist Hypersuggest ein unverzichtbares Tool.

19.5 Wie sollte man bei der Keywordstrategie vorgehen?

  • Keywords für die der Text ranken soll, identifizieren
  • Erstellen Sie sinnvolle Texte für Ihre Besucher
  • Description und Title müssen eindeutig, informativ und attraktiv sein!
  • Decken Sie alle Synonyme und Erweiterungen des Keywords ab! Überprüfen Sie, wie häufig ein bestimmtes Keyword bzw. ein Synonym tatsächlich gesucht wird! Am besten Tools nutzen.
  • Nennen Sie Schlüsselwörter (Keywords) mehrmals im Text! Finden Sie eine optimale Balance zwischen guter Keyworddichte (2% und maximal 5%) und guter Lesbarkeit. Vermeiden Sie Keyword-Stuffing (überoptimierte Texte)
  • Achten Sie auf eine prominente Platzierung des Keywords
  • Keinen Duplicate Content erstellen!
  • Nutzen Sie interne und externe Links um Ihre Unterseite zu pushen
  • Je länger der Text ist und je mehr weiterführende Inhalte wie Bilder existieren desto besser werden Sie ranken.

20. Bilder optimieren

Auch um die eigene Website leserfreundlich aufzubereiten, sollten Sie Ihren Content mit Bildmaterial bestücken. Die Funktion der Bilder beschränkt sich jedoch nicht mit der des dekorativen Beiwerks – sie können weit mehr: In Bildern steckt viel SEO-Potenzial und das Optimieren von Bildern sollte bei der Suchmaschinenoptimierung unbedingt berücksichtigt werden.

20.1 Alt-Attribut, Dateiname und -format

Googles Einführung in die Google Suchmaschinenoptimierung liefert praktische Tipps zur Verwendung von Bildern: Google empfiehlt aussagekräftige Kurzbeschreibungen als Alt-Attribut und kurze, treffende Dateinamen. Das Alt-Attribut (auch Alt-Tag) dient der Beschreibung von Bildern auf Webseiten. Wenn beispielsweise aufgrund von technischen Problemen ein Bild nicht angezeigt werden kann, erscheint stattdessen der im Alt-Tag angegebene Text. Auch den Suchmaschinen gibt das Attribut Informationen zum Inhalt des Bildes, da sie diesen nur zum Teil selbstständig erkennen können. So wird auch das Erscheinen in der Bildersuche ermöglicht. Ebenso kann das Ranking in den SERPs durch das Verwenden von Alt-Tags verbessert werden.

Vermeiden Sie generische Dateinamen, die nichts über den Bildinhalt aussagen – Beispiel “bild1.jpg” oder “img1.png”. Ebenfalls verpönt sind überlange Dateinamen und Keyword Stuffing im Alt-Tag. Zudem rät Google davon ab, ausschließlich Bilder als Navigationslinks heranzuziehen. Der Leitfaden legt die Verwendung von gängigen Dateiformaten wie JPEG, GIF, PNG und BMP nahe und empfiehlt das Anlegen eigener Bilder-Sitemaps.

Der kurze, aussagekräftige Dateiname kommt ohne Umlaute und Großbuchstaben aus und enthält das Keyword – Beispiel “weisse-maeuse.jpg”. Trennen Sie Worte per Bindestrich. Der Title-Tag, der bei Mouseover erscheint, kann dem Dateinamen entsprechen, wird jedoch aus Usabilitygründen regulär geschrieben – Beispiel “Weiße Mäuse”. Der Alt-Tag, die Bildbeschreibung, darf länger sein – perfekt geeignet für die Einbringung eines Long Tail Keywords.

20.2 Große Bilder komprimieren

Google erwähnt Dateiformat und passenden Dateinamen. Darüber hinaus sollen Bilddateien die Ladezeit der Seite nicht unnötig erhöhen: Belassen Sie die Dateigröße optimalerweise unter 150 kB. Das Layout der Google Bildersuche hat sich gewandelt: Treffer werden in hoher Bildqualität und entsprechender Größe angezeigt – ein Vorteil für größere Bilder. Komprimieren Sie hochauflösende Bilder, um das optimale Verhältnis von Dateigröße und Bildabmessungen zu erzielen. Dafür bieten sich Grafikprogramme oder Onlinedienste wie https://tinyjpg.com/ oder http://optimizilla.com/de/ an. Ein 1024 px breites Bild ist für Googles neue Bildersuche ausreichend. Ziehen Sie Bilder im Querformat den hochformatigen vor.

20.3 Die Positionierung von Bildern

Suchmaschinen achten auf die richtige Positionierung des Bildes – nebeneinander befindliche Bild- und Textelemente sollen kontextuell übereinstimmen. So weiß Google, dass die Bilder dem Leser nützlich sind und nicht vom eigentlichen Thema abweichen. Ferner gilt die Konsistenz von Bilddateien als wichtiger Rankingfaktor: Eine mehrmalige Verwendung auf verschiedenen Unterseiten wird durchaus gerne gesehen – beachten Sie dabei jedoch, dass Sie ein und dieselbe Bilddatei stets im gleichen Zusammenhang verwenden.

20.4 Die Auswahl von Bildern

Eigene Bilder sind bessere Blickfänger als stereotype Stockphotos. Sie eignen sich zudem für das Branding in Form von Wasserzeichen, zum Beispiel Ihres Firmenlogos. Als Hingucker haben sich Infografiken mit Mehrwert erwiesen: In selbst erstellten Infografiken steckt beachtliches Traffic-Potenzial. Auf eindeutige Stockphotos sollte außerdem verzichtet werden, da Google diese mittlerweile sehr gut erkennt (siehe Bilder unten) und einzigartigen Inhalt bevorzugt.

Die 2017 umgestaltete Google Bildersuche hat etliche Websitebetreiber verstimmt und ein kleineres Update 2018 hat daran nichts geändert: Google-Treffer leiten nun erst mit einem zweiten Klick auf “Besuchen” direkt zur Seite weiter. Dennoch bleibt das Bilder-Optimieren für jeden Websitebetreiber auch weiterhin eine wichtige und lukrative Maßnahme der Google Suchmaschinenoptimierung.

21. Website bekannt machen: Interaktion lernen

Eine Website ist nach SEO-Anforderungen dann erfolgreich, wenn sie weit oben in der Suche zu einem relevanten Keyword in Google erscheint. Dann sind ein höherer Umsatz durch hohen Traffic und dadurch neue Kunden und Interessenten möglich. Backlinks und bewusstes Teilen der Seitenlinks durch Kunden steigern den Traffic und erhöhen den Rank. Darum rät der Google SEO (Suchmaschinenoptimierung) Guide dazu, die eigene Zielgruppe besser kennenzulernen. Aber genügt das?

21.1 Social Networking ausbauen

In den Sozialen Medien wie Twitter, Facebook, aber auch Snapchat oder Instagram, geht es darum, möglichst viele Menschen mit den eigenen Inhalten zu erreichen. Das gleiche Ziel verfolgen Sie als Unternehmer mit Ihrer Website. Kein Wunder also, dass sich diese beiden Medien nicht nur ergänzen, sondern auch bedingen. Laut statistischem Bundesamt nutzten im Jahr 2017 41 % der Unternehmen in Deutschland Netzwerke wie Facebook, LinkedIn oder Xing und 7% Dienste wie Twitter oder Communote. Rund 14 % verbreiteten eigene Inhalte über YouTube, Picasa oder einen eigenen Podcast.

Diese Zahlen zeigen einmal mehr, wie weit Deutschland in digitalen Fragen zurückgefallen ist. Laut MarketingSherpa stimmten 2017 95% der US-Nutzer zu, dass sie Social Networks nutzen würden oder bereits nutzen, um Marken zu folgen, die sie mögen. Laut The Drum wurden 52 % der Facebooknutzer im Jahr 2017 durch Onlineads und Inhalte in ihrem Einkaufsverhalten beeinflusst. 2014 waren es noch 36 %. Auf Deutschland übertragen wären das rund 15,5 Millionen der 31 Millionen Facebooknutzer, die ihre Kaufentscheidungen danach treffen, welche Unternehmen und Marken sie online wahrnehmen.

21.2 Nutzer und Kunden kennenlernen

Konkret empfiehlt die Google SEO (Suchmaschinenoptimierung) Guideline Websitebetreibern daher, den sicheren Umgang mit den sozialen Medien zu erlernen und für die Website gewinnbringend einzusetzen. Was der Guide verschweigt ist, dass Sie Idealerweise dazu selbst eine Weile lang beobachten, interagieren und einen privaten Account nutzen sollten. So vermeiden Sie typische Fallen wie das Spammen von verkürzten Links, das als störend empfunden wird.

Google rät außerdem dazu, nicht jeden neuen Inhalt zu pushen, sondern lieber Highlights zu bewerben. Während also eine neue Unterseite auf der Website für Besucher möglicherweise uninteressant ist, kann eine Blogartikelserie zu bestimmten Themen rund um Ihr Unternehmen neue Leser gewinnen. Ein Tipp, der in der Tat besonders dann wichtig wird, wenn man seine Zielgruppe noch nicht kennt. Die Zielgruppe kennenzulernen, das klappt besonders gut per Facebook. Eine Test-Ad, mit der Sie eine Nutzergruppe targeten, die bereits die Konkurrenz mit “Gefällt mir” markiert hat, zeigt Ihnen, mit wem Sie es zu tun haben. Geschlecht und Alter, Onlineverhalten und Nutzungszeiten werden klar. Die ermittelten Daten der User können auch genutzt werden, um z. B. Interessen und Verhaltensweisen anderer Personen besser einschätzen zu können.

21.3 Linktauschprogramme

Veraltete Methoden wie die Teilnahme an Linkaustauschprogrammen lehnt Google ab. Ebenso sollten Menschen nicht gebeten werden, Links in ihre Partnerseiten aufzunehmen. Dass SEO-Entwickler dies entgegen des Google SEO Guidelines noch immer praktizieren liegt vor allen Dingen an der Zeitersparnis für Backlinks bei verwandten Unternehmen.

Besser: Die Nutzer zur Interaktion mit den Social Media Posts auffordern, beispielsweise durch Aktionen und Hashtags. Verboten sind allerdings mittlerweile Posts, die Reaction-Clickbait (“Love wenn du das auch kennst”, “Like oder Hate?”) fördern. Sie werden in den Netzwerken selbst schlechter geranked und bei mehrfachem Verstoß versteckt. Der Kauf von Forenlinks wird gemeinhin ebenfalls als unseriös gewertet.

22. Analysetools

In seinem Leitfaden für die Google Suchmaschinenoptimierung (Bing Suchmaschinenoptimierung) geht Google in zwei Abschnitten auf Analysetools für die Suchleistung und das Nutzerverhalten von Webseiten ein. Diese Werkzeuge helfen bei der Optimierung der Seiten, indem sie einerseits Problemstellen identifizieren, die Suchmaschinen bei der Indexierung der Webseiten behindern. Andererseits lassen sich damit die Effekte von SEO-Maßnahmen messen. Dieser Teil des SEO (Suchmaschinenoptimierung) Guides stellt diese und weitere für die Suchmaschinenoptimierung nützliche Analysetools vor und diskutiert ihre Anwendung.

22.1 Welche Analyse-Werkzeuge empfiehlt Google?

Es kann kaum überraschen, dass der führende Suchmaschinenbetreiber in seinem SEO-Leitfaden im Wesentlichen auf eigene Analysetools eingeht, die Search Console, ehemals Webmaster Tools genannt, und Google Analytics.

SEO vorbereiten mit der Search Console

Die Search Console bietet zunächst Funktionen für die Analyse, ob die Bots der Suchmaschine die veröffentlichten Inhalte überhaupt finden können. Darüber hinaus liefert sie Informationen über die Wirkung der analysierten Webseiten innerhalb der Suchmaschine. Damit sind folgende Funktionen gemeint:

  • Identifizieren von Problembereichen für das Crawlen der Website
  • Bereitstellung und Analyse von Hinweisen für das Crawlen in Sitemaps, robots.txt Dateien und Angaben bevorzugter Domains
  • Darstellung der Webseiten, wie die Suchmaschine sie sieht
  • Untersuchung von Meta-Title und Meta-Description Angaben
  • Ermittlung von Suchanfragen, die bevorzugt Nutzer auf die Webseiten lenken
  • Benachrichtigungen bei Verletzung von Qualitätsrichtlinien des Suchmaschinenbetreibers
  • Anforderung einer Neuprüfung der Site nach Abstellung vorgenannter Probleme

SEO-Effekte mit Google Analytics messen

Das zweite Analysetool von Google informiert über den Effekt der Maßnahmen anhand des Nutzerverhaltens und dessen Veränderung. Damit liefert es natürlich auch Hinweise für eine weitere Analyse. Relevante Informationen sind hier, auf welchen Wegen Nutzer auf eine Webseite gelangt sind, welche Teile einer Website besonders großes Interesse finden und wie sich die Anzahl der Zugriffe entwickelt.

Allerdings verärgert Google seine Analytics Nutzer zunehmend mit den Reportings zur organischen Suche. Statt der Suchbegriffe wird teilweise der Ausdruck “not Provided” angezeigt. Dadurch möchte Google die Privatsphäre der eigenen Nutzer schützen.

22.2 Welche Analysetools sind im SEO Guide darüber hinaus zu erwähnen?

Die in Googles Leitfaden genannten Analysewerkzeuge dienen im Wesentlichen der klassischen Suchmaschinenoptimierung. Sie konzentrieren sich auf Anfragen mit Schlüsselwörtern und wie Suchmaschinen sie verarbeiten. Aufgrund der wachsenden Bedeutung sollten darüber hinaus gehende Bereiche ebenfalls Berücksichtigung im SEO finden. Dazu zählen insbesondere Social Media Signale und neue Suchmethoden wie die Websuche per Spracheingabe oder mittels der Kameras von Mobilgeräten.

SEO-Tools für die Analyse von Social Media

Social Media Signale werden von Tools wie Buzzsumo, Ryte* (Onpage) oder Socialyser analysiert. Der Like Explorer erfasst die Anzahl der Likes einer Website in gängigen Social Media Kanälen. Impactana und Onalytica fokussieren zudem auf die Identifizierung relevanter Influenzer.

Suchmaschinenoptimierung mit Blick auf Voice- und Video-Search

Sprach- und visuelle Suche erfordern nicht unbedingt andere SEO-Analysetools, aber einen geänderten Umgang mit ihnen. Gesprochene Suchanfragen sind tendenziell anders strukturiert, länger, enthalten mehr Keywords und oft charakteristische Fragewörter. Dagegen generiert die Suchmaschine die Anfrage bei der visuellen Suche vollständig selbst, aus dem von der Kamera aufgezeichneten Bildinhalt.

22.3 Alternativen zu den Analysetools von Google & Co

Die Daten der Analysetools von Google sind oft beschränkt, daher empfehlen wir die Nutzung weiterer Tools. Für ein gutes SEO (Suchmaschinenoptimierung) ist das Reporting ein wichtiger Faktor. Wichtige KPIs können so leicht beobachtet und auf Entwicklungen reagiert werden. Das OSG Performance Suite der OSG vereint zum Beispiel die Daten der wichtigsten Tools wie die Google Seach Console, Google Analytics, Google AdWords, Sistrix und andere. Mit der App für Apple oder Android können auch von unterwegs tagesaktuelle Auswertungen aus dem SEO, SEA, Webcontrolling, etc. abgerufen werden.

Darüber hinaus bietet der kostenlose SEO onPage Check der OSG die Möglichkeit, technische Faktoren hinsichtlich der Einhaltung der Google-Richtlinien zu überprüfen.

Dem Thema SEO Reporting haben wir einen eigenen Blogartikel gewidmet. Dort wird erläutert, warum das SEO Reporting so wichtig ist. Außerdem werden einige Tools vorgestellt.

23. SEO Tools: Warum SEO Daten nie stimmen

Auch bei der Google Suchmaschinenoptimierung ist es von großer Bedeutung die gesteckten Ziele zu erreichen. Um sicherzustellen, dass diese auch erreicht werden, müssen verschiedene Daten erhoben und analysiert werden. Hierfür stehen verschiedene SEO-Tools zur Verfügung, die neben den aktuellen Daten auch zur Unterstützung bei der Optimierung genutzt werden können.

Ob Sichtbarkeit, Traffic oder Impressionen – die unterschiedlichen Tools liefern für identische Analysen unterschiedliche Resultate. Wenn man die Zahlen der einzelnen SEO-Tools miteinander vergleicht, so wirkt es, als würden SEO (Suchmaschinenoptimierung) Daten nie wirklich stimmen.

23.1 Suchvolumen und Impressionen

Mit dem Suchvolumen wird die Anzahl der durchschnittlichen monatlichen Suchanfragen für ein Keyword angegeben, unabhängig davon, wie viele Personen diese Anfrage gestellt haben. Der Wert für das Suchvolumen setzt sich auf Basis des Durchschnitts sämtlicher Suchanfragen der letzten zwölf Monaten zusammen.

In diesem Zusammenhang wird das Suchvolumen auch mit den Daten bezüglich der Impressionen – Google Search Console und SEA – verglichen.

Betrachtet man nun sowohl das Suchvolumen als auch die Impressionen für die Keywords in der Google Search Console (GSC) bzw. die SEA Impressionen, so scheinen die Daten nicht wirklich übereinzustimmen. Bei der Analyse der Daten ist zu beachten, dass das Suchvolumen bekanntlich einem monatlichen Durchschnittswert entspricht und nur zur Orientierung oder zum Einschätzen des Potenzials eines Keywords dient. Zusätzlich spielt bei den Impressionen, die in der Search Console erfasst werden, auch die Position des Suchbegriffs in den Suchergebnissen eine wichtige Rolle. So werden die Impressionen weniger, je schlechter die Position in den Google Suchergebnissen.

Es gibt keine Garantie, dass das Suchvolumen auch tatsächlich erreicht werden kann. Letztendlich handelt es sich beim Suchvolumen um eine Momentaufnahme, die in Form eines monatlichen Durchschnitts der vergangenen zwölf Monaten dargestellt wird.

23.2 Domain Popularität

Mit der Domain Popularität wird die Anzahl an Backlinks angegeben, die von verschiedenen Domains auf eine Website verweisen. Dies bietet nützliche Informationen, unter anderem zur Bewertung von Links bei der Backlink-Analyse.

MOZ, Majestic, Ahref oder SEOkicks – es gibt eine Vielzahl an Tools zur Analyse von Backlinks. Diese Tools helfen dabei, die Anzahl und Qualität der Backlinks und verlinkenden Domains auszuwerten. Dabei fließen einige Faktoren wie der TrustRank oder die Linkpopularität, aber auch die Qualität der verlinkenden Seite mit in die Bewertung ein.

Analysiert man die verweisenden Links einer Domain mit den Tools Majestic und MOZ, so erhält man unterschiedliche Resultate. Die folgende Tabelle zeigt einen Vergleich der Anzahl der verweisenden Domains für die OSG und einige unserer Kunden.

Betrachtet man die Tabelle genauer, fallen sofort die Unterschiede bezüglich der verweisenden Domains der beiden Tools auf. Dies ist auf die verschiedenen Datengrundlagen der jeweiligen Tools zurückzuführen. Sowohl Majestic als auch MOZ haben ihre individuellen Stärken. Die MOZ-Werte sind vor allem dann interessant, wenn mehrere Domains verglichen werden sollen. Dahingegen bietet Majestic eine große Datenbank bereits gecrawlter URLs. Diese werden in einen aktuellen und einen historischen (älter als 3 Monate) Index unterteilt.

Unabhänigig davon, bieten MOZ und Majestic, aber auch die anderen Backlink-Analysetools, nützliche Kennzahlen und Einblicke in die verlinkenden Domains und die Entwicklung der einzelnen Backlinks – so ist es beispielsweise möglich festzustellen, ob es neue Links zu einer Website gibt oder zuvor existieren Links nicht länger vorhanden sind.

23.3 Sichtbarkeit

Mit dem Sichtbarkeitsindex wird angegeben, wie sichtbar eine Domain in den Google Suchergebnissen ist. Je nach Tool – Sistrix, Searchmetrics oder XOVI* – werden unterschiedliche Methoden zur Bewertung des Website-Rankings und somit zur Berechnung der Sichtbarkeit verwendet. Diese unterschiedlichen Berechnungsansätze können zu unterschiedlichen Entwicklungen der Sichtbarkeit führen. Daher sollte man sich auch fragen, wie aussagekräftig der Sichtbarkeitsindex wirklich ist.

Die Grafik zeigt deutlich, dass die Sichtbarkeitsentwicklung unterschiedlich verläuft. Dabei ist jedoch zu beachten, dass sowohl Sistrix als auch XOVI die Sichtbarkeit mit verschiedenen Skalen darstellen und diese auch auf unterschiedlich Weise berechnen.

Betrachtet man die Kennzahlen beider Tools separat, so erkennt man weitere Unterschiede im Verlauf der Sichtbarkeitswerte.

Die Graphen zeigen, dass der Sichtbarkeitsindex bei Sistrix stärker auf Schwankungen reagiert und volatiler, als dies bei XOVI* der Fall ist. Dies liegt vorrangig an den ungleichen Berechnungen der Sichtbarkeitswerte. So berechnet sich die Sichtbarkeit bei Sistrix durch eine Gewichtung der Rankings und des Traffics eines Keywords. Dieser Wert wird dann für alle Keywords summiert und bildet den Sichtbarkeitsindex. Dahingegen berechnet XOVI die Sichtbarkeit auf Basis des quantitativen und qualitativen Rankings der Domain für die einzelnen Keywords.

Die OSG Performance Suite hat einen eigenen Sichtbarkeitswert entwickelt, der sich aus dem Suchvolumen und dem Ranking der einzelnen Keywords zusammensetzt. Dabei werden nur die, für die Website hinterlegten Keywords berücksichtigt, welche für die Domain relevant sind.

23.4 Website-Traffic

Es ist wichtig zu wissen, wie viele Besuche eine Website bekommt. Mit den kostenlosen Tools Google Analytics und Google Search Console (GSC) erhält man nützliche Kennzahlen, zum Beispiel bezüglich der Suchanfragen oder der Seitenzugriffe. Anhand verschiedener Berichte ist es so möglich, Einblicke in das Verhalten der Besucher auf der Seite zu bekommen.

Sowohl Analytics als auch die Search Console sammeln Traffic-Daten einer Website. Daher bietet es sich an, die Zugriffszahlen für Websites von ausgewählten Kunden mit den beiden genannten Tools zu vergleichen. Eigentlich sollte man annehmen, dass die erfassten Zugriffe bei beiden Tools identisch sind.

Die folgende Tabelle vergleicht somit die von der GSC erfassten SEO (Suchmaschinenoptimierung) Klicks auf eine Website mit den in Analytics erfassten Sitzungen über eine zuvor definierte Zeitspanne (Februar 2019).

Aber auch hier zeigen sich Widersprüche in den SEO-Daten. Abweichende Website-Besucherzahlen, die von den beiden Google Tools ausgeben werden, sind deutlich erkennbar. Dabei fällt auf, dass die Traffic-Kennzahlen bei stärker besuchten Seiten einen größeren Unterschied aufweisen. Folglich stimmen die Daten für “kleinere” Kunden eher überein als bei den “großen” Kunden.

Auffällig ist zudem, dass Google Analytics im Vergleich geringere Traffic-Zahlen ausgibt als die Google Search Console. Diese spiegelt sich auch in der prozentualen Abweichung wider.

Mittlerweile gibt es eine Vielzahl von SEO-Tools, die bei der Analyse behilflich sein sollen. Werden jedoch Strategien auf Basis von fehlerhaften Auswertungen entwickelt, kann das fatale Folgen haben. Mit unserer OSG Performance Suite benötigen Sie nur noch ein Tool zur Analyse Ihrer SEO-Daten. Das Konzept hinter der Performance Suite verfolgt, als Datawarehouse-System und Business-Intellegence-System, ein altbekanntes Ziel: Daten werden zentral gesammelt, um diese dann einfacher auswerten und interpretieren zu können. Ein Modell aus der IT, das vor fast einem halben Jahrhundert erstmalig von Barry Devlin verwendet wurde, kommt nun auch in der nächsten Phase des Online Marketings zum Einsatz.

Sie können die OSG Performance Suite auch als App auf Ihren iOS- oder Android-Geräten kostenlos nutzen. Laden Sie diese hierzu aus dem Apple App Store oder dem Google Play Store herunter.

24. Suchmaschinenoptimierung 2.0: Wie modernes SEO funktioniert

Das Rennen zwischen Suchmaschinen und Suchmaschinen-Optimierern erinnert auf den ersten Blick an den Wettkampf zwischen Hase und Igel: Egal, wie sehr sich die Seitenbetreiber ins Zeug legen – Google hat immer die Nase vorn. Doch der erste Eindruck täuscht. Wer technisch und inhaltlich am Ball bleibt, seinen Content gezielt im Netz verbreitet und das Angebot optimal auf die Zielgruppe ausrichtet, der wird sogar belohnt.

24.1 Suchmaschinenoptimierung (SEO) ist und bleibt der wichtigste Kanal

Unbestrittener Fakt ist: Wer einen erfolgreichen Online-Shop betreiben will, der kommt um Suchmaschinenoptimierung (SEO) nicht herum. Das bestätigt auch eine Untersuchung der Londoner Firma Similar Web, die auf das Sammeln von Daten und deren Analyse spezialisiert ist. Demnach beträgt der Anteil der organischen Suche am Traffic, also der Zahl der Webseiten-Besucher, in der Kategorie „Shopping“ international knapp 95 Prozent. Zwar unterscheiden sich die genauen Ergebnisse je nach Branche und Land, doch der Grundtenor ist klar: Eine gründliche und fundierte Suchmaschinenoptimierung ist für Online Shops nach wie vor unabdingbar.

Doch nicht nur, wenn es darum geht, interessierte Nutzer auf die Seite zu holen, ist Suchmaschinenoptimierung (SEO) entscheidend. In den USA wurden im Jahr 2015 im Rahmen einer Studie für den Softwarehersteller Adestra 1000 Marketing-Experten nach der Profitabilität der verschiedenen Marketing-Kanäle gefragt. Dabei schätzten 27 Prozent der Marketeers den SEO-Kanal als exzellent und weitere 46 Prozent als gut ein. Damit liegt SEO (Suchmaschinenoptimierung) deutlich vor dem zweitstärksten Kanal, dem E-Mail-Marketing. Eine Investition in professionelle Google Suchmaschinenoptimierung (Bing Suchmaschinenoptimierung) lohnt sich also gleich in mehrfacher Hinsicht.

24.2 Suchmaschinenoptimierung (SEO) im Wandel: immer am Ball bleiben

Dabei hat wohl kaum ein Kanal in den letzten zehn Jahren eine solche Wandlung vollzogen wie SEO. Ging es in den Anfangszeiten in erster Linie darum, eine möglichst hohe Keyword-Dichte auf den Webseiten zu garantieren, so steht heute vor allem die User-Experience im Fokus. Modernes SEO ist ein Kanal mit vielen Schnittstellen. Nur wer eine ganzheitliche Strategie für alle Online Marketing Kanäle findet, kann langfristig bestehen. Gerade für kleine und mittlere Unternehmen ist es darum wichtig, nachhaltig zu planen und immer am Ball zu bleiben. Denn während die Online Marketing Experten ihre Tools und Techniken immer weiter verbessern, bleibt auch Google nicht untätig. Mit immer neuen Updates und Verfeinerungen im Such-Algorithmus will die größte aller Suchmaschinen kontinuierlich die Seiten ausmustern, die ihren Besuchern keinen Mehrwert bieten.

Es ist also nicht damit getan, beim Aufsetzen eines Online Shops alle Seiten nach den aktuellen SEO-Kriterien zu optimieren und sich dann zurückzulehnen: Wer im Rennen um die Top Ten Platzierungen nicht ständig am Ball bleibt, fällt schnell zurück. Und wer einmal den Anschluss verloren hat, muss um ein Vielfaches härter arbeiten, um sich wieder nach vorne zu bringen. Erschwert wird dies dadurch, dass die organische Suche zwar immer wichtiger wird – die Anzahl der organischen Ergebnisse auf der ersten Seite jedoch abnimmt. Von zehn organischen Suchergebnissen sind inzwischen nur noch acht bis neun übrig. Bezahlte Ergebnisse und Werbeplätze buhlen zudem um die Aufmerksamkeit der User. Echte Top-Platzierungen sind also wichtiger denn je.

Hier kommen Online Marketing Agenturen wie die Online Solutions Group GmbH ins Spiel. Mit dezidierten Spezialisten für die verschiedenen Online Marketing Kanäle unterstützt sie Unternehmen bei der Entwicklung einer ganzheitlichen und nachhaltigen Strategie. Die Experten haben die neuesten Trends immer auf den Schirm und können auf Änderungen schnell reagieren, sodass gute Platzierungen erhalten bleiben und schwache Keywords kontinuierlich nach vorne gebracht werden.

24.3 Wie funktioniert moderne Suchmaschinenoptimierung (SEO)?

Was will Google eigentlich? Eine Frage, die sich vermutlich jeder Seitenbetreiber schon einmal verzweifelt gestellt hat. Die Antwort ist mittlerweile ziemlich einfach: Google will, dass jeder Nutzer für seine Suchanfrage das perfekte Ergebnis erhält. Also eine Seite, die seine Frage beantwortet, seine Bedürfnisse erfüllt oder das richtige Produkt für ihn anbietet.

Um zu garantieren, dass ein Online Shop diese Anforderung erfüllt, sind SEO Manager längst keine Einzelkämpfer mehr. Die Vernetzung mit anderen Kanälen, allen voran SEA und Social Media, sowie ein Fokus auf technische On-Site-Verbesserungen sind entscheidend für den SEO-Erfolg. Wichtig ist dabei auch, dass es kaum noch einen Unterschied macht, über welche Zielmaschine die Nutzer eine Seite aufrufen – ob sie also am PC, auf dem Smartphone oder einem Tablet darauf zugreifen. Moderne Websites müssen auf jeder Plattform ideal angezeigt werden und entsprechend dafür optimiert sein, um Seitenbesucher und Suchmaschinen gleichermaßen zu überzeugen. Erst kürzlich hat Google bestätigt, dass in Zukunft das Ranking überwiegend auf der mobilen Website basieren wird.

Auf welche Kriterien achtet also Google, wenn es um die Bewertung der User Experience geht? Ein wichtiger Bestandteil ist die sogenannte Bounce Rate. Diese misst, wie viele Nutzer die Website unmittelbar wieder verlassen, nachdem die auf der Startseite gelandet sind. Ist die Bounce Rate sehr hoch, geht Google davon aus, dass die Inhalte auf der Seite nicht zur Suchanfrage passen und die User dort nicht finden, was sie erwartet haben.

Ebenfalls wichtig ist die Verweildauer. Je länger die Nutzer auf einer Seite bleiben und je öfter sie innerhalb der Seite klicken und neue Inhalte aufrufen, desto relevanter erscheint das Suchergebnis für Google. Auch die Frage, wie gut sich ein Kunde auf der Seite zurechtfindet, spielt eine Rolle. Die „Klick-through-Rate“ bezeichnet, wie schnell ein Kunde auf der Seite zu den gewünschten Inhalten kommt und ob er einen Bestellvorgang schnell abschließen kann.

À lire aussi  Le tiercé PMU : trouvez les 3 chevaux qui franchiront la ligne d’arrivée en premier

24.3.1 Accessibility und technische OnPage-Optimierung

Wenn der Suchmaschinen-Crawler auf einer Seite nicht weiterkommt, wird er davon ausgehen, dass es den menschlichen Nutzern ähnlich geht. Damit die Inhalte einer Seite also gute Rankings erzielen können, muss zunächst einmal die Grundlage stimmen. Das bedeutet: Die Seite muss übersichtlich, gut strukturiert und leicht zugänglich sein. Nicht umsonst steht dieser Aspekt der Optimierung unter der Überschrift „Accessibility“, also Barrierefreiheit.

Dafür müssen insbesondere folgende Punkte erfüllt sein:

  • Keine 404-Fehler: Einrichtung von 301-Weiterleitungen für „kaputte“ oder gelöschte Seiten
  • Sauberer Seitenquelltext: kein überflüssiger Code, komprimierte Inhalte
  • Klare Seitenstrukturen: Gezielter Einsatz von Header-Tags
  • Übersichtlicher Content: Bullet-Listen, Fettungen, Absätze
  • Verschiedene Content-Arten: Text, Bild, Video
  • Vermeidung von JavaScript und Flash-Animationen
  • Saubere Meta-Daten: Individuelle Title und Description für jede Seite

24.3.2 Engagement und Social Signals: Den Nutzer abholen und neue Nutzer gewinnen

Ein Nutzer, der sich auf einer Seite wohl fühlt, der hält sich gerne dort auf. Er klickt sich durch die Inhalte und führt Bestellungen aus oder versendet Anfragen. Im Idealfall bleibt es aber nicht dabei: Überzeugte Nutzer sind mehr als nur Kunden. Sie werden zu wahren Fans, kommentieren Texte oder Produkte und teilen den Content der Website aktiv mit ihrem digitalen Freundeskreis. Wenn dies der Fall ist, spricht man von Engagement.

Wichtige Social Signals sind:

  • Shares und Likes auf sozialen Plattformen wie Facebook
  • Kommentare im eigenen Blog
  • Reichweite in Social Media

Zwar hat Google erklärt, dass Social Signals derzeit nicht Teil des Such-Algorithmus sind – das heißt aber nicht, dass dies auf Dauer so bleiben wird. Zudem sind sie wichtig für die Kundenbindung und die Markenbekanntheit. Auf jeden Fall sollte eine strukturierte und fundierte Social Media Strategie unbedingt Teil des Online Marketing Plans sein. Denn abgesehen von den positiven Markeneffekten kann heute niemand zuverlässig sagen, ob Social Signals nicht in Zukunft eine größere Rolle in den Rankings spielen werden. Zu guter Letzt darf man nicht vergessen, dass Google zwar mit Abstand der größte, nicht aber der einzige Player auf dem Markt ist. Die Betreiber der am zweithäufigsten genutzte Suchmaschine, Bing, haben im schriftlichen Interview mit der Online Zeitschrift Search Engine Land bereits erklärt, dass sie Social Signals sehr wohl in ihre Suchergebnisse mit einbeziehen.

Zitat aus dem Interview vom 1.12.2010 – Quelle: www.searchengineland.com

24.3.3 Interaktiv und spannend: Rich Content und Rich Media

Ein Punkt, an dem man allerdings auf keinen Fall vorbei kommt, wenn man erfolgreiche Suchmaschinenoptimierung (SEO) betreiben möchte, ist der sogenannte Rich Content. Unter Rich Content oder auch Rich Media versteht man Inhalte, die über den klassischen Text und statische Bilder hinausgehen. Zu solchen Formaten gehören Videos und Podcasts aber auch eBooks oder Whitepaper. Laut einer Studie von Cisco sollen Videos bis 2019 ganze 80 Prozent der Internetnutzung ausmachen.

Groß im Kommen ist auch interaktiver Content wie Fragebögen, Tests und klickbare Infografiken. Alles, was den User auf der Seite hält, ihn informiert und unterhält, ist erlaubt. Dabei sollte allerdings der klassische Content nicht zu kurz kommen, denn für die Suchmaschinen ist er immer noch einer der wichtigsten Indikatoren. Wie so oft macht es hier die Mischung: Ein gelungener Mix aus hochwertigen Texten und unterhaltsamen Content Formen ist die beste Strategie.

24.4 Die Grundlagen: Ohne Keywords geht nichts!

Totgesagte leben länger – für das Keyword gilt dieses Sprichwort auf jeden Fall. Schon oft wurde es für tot erklärt, doch jedes Mal bewies sich aufs Neue: Ohne Keywords geht nichts im SEO. Kein Wunder, ist doch „Keyword“ letztendlich nichts anderes als ein Synonym für die Suchanfrage – und die ist und bleibt der Dreh- und Angelpunkt in der Google Suchmaschinenoptimierung. Wahr ist allerdings, dass sich im Umgang mit dem Keyword und der Optimierung darauf einiges geändert hat. Die reine Keyworddichte ist längst nicht mehr ausschlaggebend.

24.4.1 Wie findet man die richtigen Keywords?

Grundsätzlich ergibt sich die Keyword-Auswahl aus dem Thema einer Seite, der Produktauswahl in einem Shop und den Kundenbedürfnissen, die mit der Seite erfüllt werden sollen. Hier lohnt sich auch immer ein Blick auf die Wettbewerber: Für welche Keywords rankt die Konkurrenz? Hierbei helfen SEO-Tools wie Sistrix oder der Keyword Monitor, die einen Überblick über die Rankings der Wettbewerber liefern. Wenn ein Unternehmen bereits im SEA aktiv ist und dort Kampagnen schaltet, können die erfolgreichsten Keywords daraus auch für SEO-Strategie genutzt werden.

Google Keyword Planer

Mit dem Keyword Planer gibt Google den SEO-Experten ein Tool an die Hand, mit dem sie nicht nur das Suchvolumen für bestimmte Keywords abrufen können, sondern auch Vorschläge für Keywords rund um ihr Kernthema erhalten. Man bekommt außerdem eine Vorstellung davon, wie hart umkämpft ein Keyword ist. Der Nachteil: Mittlerweile erhält man nur dann genaue Informationen über das Suchvolumen, wenn mit dem Google Account mindestens eine aktive Kampagne angelegt wurde. Nichtsdestotrotz ist der Keyword Planer eines der wichtigsten Tools für eine gründliche Keyword Analyse.

Google Suggest

Google weiß, was die Nutzer suchen, bevor sie es selbst wissen – das ist die Idee hinter Google Suggest. Wird ein Suchbegriff in die Suchmaske von Google eingegeben, so ergänzt Google den Begriff und schlägt die am häufigsten gesuchten Phrasen in diesem Zusammenhang vor.

W-Fragen Tool

Interessant ist auch das W-Fragen-Tool. Dieses erstellt mögliche Kundenfragen rund um ein bestimmtes Keyword. Dies ist insbesondere spannend, da immer mehr Nutzer die Suchmaschinen wie einen Ratgeber verwenden und tatsächliche Anfragen in die Suche eintippen. Das Wissen um die Kundenfragen hilft außerdem dabei, relevanten Content zu erstellen und wichtige Keywords entsprechend auf den Seiten einzubinden.

24.4.2 Suchvolumen ­- wie wichtig ist es wirklich?

Es ist verlockend, sich auf die Keywords zu beschränken, die ein hohes Suchvolumen aufweisen. Tatsächlich machen diese aber weniger als ein Drittel aller Suchanfragen aus. Ganze 70 Prozent der täglichen Anfragen erfolgen über die sogenannten „Long-tail-Keywords“, die jedes für sich genommen zwar nur wenig Suchvolumen haben – in Summe jedoch viel Traffic generieren können. Hier heißt es also: Die Masse macht’s! Um die Kraft der Long-tail-Keywords optimal nutzen zu können, sind Content-Quellen wie produktgruppenspezifische Unterseiten und Blog-Artikel unerlässlich. Am besten bestehen Keywords aus 2 bis max. 4 Keywords, die auch in einen Satz eingebunden sein können. Denn laut OneSat.com bestehen mehr als 33% der Suchanfragen aus zwei Wörtern.

Wenn die relevanten Keywords ermittelt wurden, müssen sie nach Priorität geordnet werden: Die wichtigsten Suchbegriffe sollten über die Startseite abgedeckt werden. In der Regel handelt es sich hierbei eher um suchvolumenstarke Short-tail-Keywords. Im weiteren Verlauf werden die Keywords weiter nach Kategorien und Produkten unterteilt. Je tiefer sich eine Seite in der Seitenhierarchie befindet, desto länger ist für gewöhnlich das Keyword und desto geringer das Suchvolumen. Idealerweise hat jedes relevante Keyword, zum Beispiel jede Produktgruppe, seine eigene Unterseite.

Bei der Priorisierung sollte stets das Kundenbedürfnis im Fokus stehen:

  • Ist das Keyword wirklich interessant für die Zielgruppe?
  • Finden die User relevante Inhalte zu diesem Keyword auf der Seite?
  • Welche Keywords sind in AdWords bereits erfolgreich?
  • Haben Nutzer, die dieses Keyword suchen, eine Kaufabsicht?

Der letzte Punkt ist besonders wichtig, wenn mit einer Seite auch Umsatz erzielt werden soll. Nicht jede Suchanfrage geht mit einer Kaufabsicht einher. Werden nur solche Keywords abgedeckt, die nicht zum Kauf führen, leidet die Conversion. Das heißt aber nicht, dass andere Keywords vernachlässigt werden können: Kunden, die sich heute nur informieren wollen, kaufen morgen im Shop ein. Die Frage ist also weniger ob, sondern vielmehr wie und wo ein Keyword abgedeckt wird: So gehören conversion-starke Keywords eher in den Shop und Keywords mit hohem Informationscharakter eher in einen Blog oder Ratgeber.

Die Bedeutung von Long-tail-Keywords und W-Fragen dürfte aufgrund neuer Entwicklungen in den nächsten Jahren noch zunehmen. Mit Amazon Echo hat Amazon den Grundstein für einen interessanten Trend gelegt: Der intelligente Voice-Assistent mit dem Rufnamen Alexa wird in der Wohnung aufgestellt und erkennt und beantwortet einfache Fragen, zum Beispiel nach dem Wetter. Ähnlich wie Apples Sprachassistentin Siri ist Amazon Echo ein Schritt hin zur flächendeckenden Nutzung von Sprachsteuerung. Auch Google hat mit Google Home bereits ein entsprechendes System vorgestellt.

Schon heute nutzen 51 Prozent der User ihren Sprachassistenten regelmäßig im Auto, 39 Prozent machen zuhause Gebrauch davon. Und Google CEO Sundar Pichai erklärte in der Google I/O Keynote im Mai 2016, dass bereits 20 Prozent der mobilen Suchanfragen über die Sprachfunktion eingehen. Es ist also durchaus zu erwarten, dass Suchanfragen, die dem normalen Sprachgebrauch entsprechen, in Zukunft eine immer größere Rolle spielen – denn wer sich mit Alexa, Google OK oder Siri unterhält, der sagt nicht: „Alexa, Wetter München“, sondern fragt: „Alexa, wie ist das Wetter heute in München?“.

24.5 Mit welchen Techniken arbeitet die Suchmaschinenoptimierung 2.0?

Wie bereits erwähnt, ist die eigene Seite die Basis aller SEO-Aktivitäten. Wenn hier nicht alles stimmt, können Maßnahmen wie Content-Optimierung oder Linkaufbau nur bedingt fruchten. Als Grundlage für die Suchmaschinenoptimierung sollte also die Seite technisch geprüft und wenn nötig auf Vordermann gebracht werden.

Sehr wichtige Aspekte sind hierbei:

  • Geringe Ladezeiten
  • Übersichtliches Design
  • Optimierung für mobile Endgeräte
  • Sauberer Quellcode
  • Saubere URL-Struktur
  • Übersichtliche Navigation

Dabei sollten stets auch die neuesten Technologien zum Einsatz kommen – denn wer sich auf veraltete Technik verlässt, wird schneller abgehängt als ihm lieb ist. Eine der wichtigsten Neuerungen ist beispielsweise die Veröffentlichung der Programmiersprache PHP 7, die deutlich schneller und sparsamer im Speicherverbrauch ist als die Vorgängerversion. Wer wettbewerbsfähig bleiben will, wird um einen Umstieg nicht herum kommen, zumal 2017 auch der Support für den elf Jahre alten Vorgänger PHP 5 vollständig eingestellt werden soll. Zukunftsweisend für schnelleres Surfen ist zudem die Verwendung von HTTP/2, die Weiterentwicklung des klassischen Hypertext Transfer Protocol (http), ohne das Webseiten nicht im Browser angezeigt werden können. Unter dem Slogan „Make the web faster“ hat Google selbst die Entwicklung seit 2009 maßgeblich vorangetrieben. Nach aktuellem Stand im November 2016 nutzen 10,4 Prozent der Seiten bereits HTTP/2 – Tendenz stark steigend.

Auch das Projekt Google AMP (Accelerates Mobile Pages) zeigt, wohin die Reise in Zukunft geht: Mobile Seiten können mit dieser Technik bis zu viermal schneller laden – mit bis zu zehnmal geringerer Datenlast als herkömmliche mobile Seiten. Websites, die von Google als AMPs klassifiziert wurden, werden seit September 2016 mit einem entsprechenden Symbol in den Suchergebnissen markiert. Mehr als 600 Millionen AMP sind laut Google weltweit bereits im Einsatz.

Ist die Technik in Ordnung, geht es an den Seitenaufbau. Das A und O ist hierbei die Optimierung der Landingpages. Je granularer die Keywords mit eigenen Seiten abgedeckt werden, desto höher ist die Wahrscheinlichkeit für bessere Rankings: Gibt es in einem Online-Shop für Mode beispielsweise eine Unterseite für „rote Kleider“, so kommt diese leichter für dieses Keyword in die Top Ten als eine allgemeine Kategorieseite für „Kleider“. Die SEO-Experten von der Online Solutions Group GmbH haben sogar ein eigenes Tool entwickelt, das die Erstellung von Landingpages nach diesem Prinzip erleichtert.

24.6 Optimierung von Seitenaufbau und Seitentexten

Die Internetnutzer sind nicht mehr so „scrollfaul“ wie noch vor einigen Jahren angenommen. Auch längere Seiten werden inzwischen durchaus bis zum Schluss in Augenschein genommen – vorausgesetzt, sie bieten ein ansprechendes Design und interessante Inhalte.

Die wichtigsten Bestandteile sollten aber dennoch immer „above the fold“ angezeigt werden, also in dem Fenster, das den Nutzer begrüßt, wenn er auf die Seite kommt. Buttons mit einem Call-to-Action, wichtige Produktbeschreibungen und Bilder sollte der User zu sehen bekommen, ohne das Scroll-Rad betätigen zu müssen. Außerdem muss auf den ersten Blick erkennbar sein, worum es auf der Seite geht und was den Nutzer hier erwartet.

Design und Inhalt müssen hier immer Hand in Hand gehen. Eine Headergrafik, die den ganzen Bildschirm in Anspruch nimmt, mag genial aussehen. Wenn der Kunde aber nicht weiß, ob er gerade in einem Online Shop oder auf einem Blog gelandet ist, steigt die Wahrscheinlichkeit eines frühen Absprungs.

24.6.1 Optimierung von Seitentexten

Google liebt Text. Je mehr, desto besser. Wurden bis vor kurzem noch 300 Wörter als Minimum für einen Seitentext genannt, so sollten gute Webseitentexte mittlerweile mindestens 600 Wörter lang sein. Kategoriebeschreibungen vom 1000 und mehr Wörtern sind aber längst keine Seltenheit mehr. Und es stellt sich heraus: Auch die Nutzer lieben Texte. Allerdings nur, wenn sie informativ und unterhaltsam sind. Die Grenzen zwischen Ratgeber-Artikel und Produktbeschreibung verschwimmen zunehmend. Die Kunden wollen nicht mehr nur einfach wissen: Was kann das Produkt? Sondern vor allem: Was kann ich damit machen?

Texte müssen also nicht nur lang sein – sie müssen auch einen klaren Mehrwert bieten. Die Keyword-Optimierung tritt gegenüber den Inhalten in den Hintergrund. Natürlich müssen die Fokus-Keywords dennoch im Text abgedeckt sein, die Keyword-Dichte nimmt aber deutlich ab. Umso wichtiger werden gut gepflegte, aussagekräftige Metadaten, die den Suchbegriff beinhalten. Sie übernehmen die Rolle eines Teasers, wecken Interesse und locken die Nutzer auf die Seite.

Es gibt allerdings keine allgemeingültige Lösung – denn die Nutzerintention steht stärker denn je im Mittelpunkt. Bei der Seitengestaltung muss daher immer die Frage im Vordergrund stehen: Was erwarten die Nutzer? Je nach Intention können Textlänge und Gestaltung variieren, um optimale Ergebnisse zu erzielen. Eine Nutzerin, die beispielsweise nach einer Frisur für den Besuch einer Hochzeit sucht, wünscht sich vermutlich eher eine detaillierte Bild- oder Video-Anleitung mit eher wenig Text. Eine Nutzerin auf der Suche nach einem Kleid für das Event, möchte voraussichtlich auf einer übersichtlichen Produktseite landen, auf der Text eine untergeordnete Rolle spielt. Eine Design-Studentin, die sich mit der historischen Entwicklung der Brautmode auseinandersetzt, braucht dagegen einen tiefgehenden, sehr informativen und langen Text. Diese unterschiedlichen Bedürfnisse sind Google bewusst und sie werden immer stärker in den Rankings berücksichtigt. Die Suchmaschinenoptimierung (SEO) muss in Zukunft also deutlich flexibler und individueller gestaltet werden als bisher.

Ein wichtiges Tool bei der Suche nach der richtigen Keyword-Dichte ist die WDF*IDF-Analyse. Sie wertet Texte mit Blick auf die Relevanz des Inhalts für ein bestimmtes Keyword aus. WDF steht dabei für „within document frequency“ und untersucht, wie oft ein Begriff im Text vorkommt. IDF steht für „inverse document frequency“ und untersucht die Häufigkeit im Vergleich zu anderen Texten, zum Beispiel den Seitentexten der Konkurrenz. WDF*IDF ermittelt also die Gewichtung eines Begriffs anstatt nur die reine Dichte zu analysieren.

24.6.2 Gestaltung von Texten

Weil lange Texte alleine nicht nur unschön aussehen, sondern auch schwer zu lesen sind, spielt die Textgestaltung ebenfalls eine wichtige Rolle. Fließtext muss gut strukturiert werden, in sinnvolle Abschnitte untergliedert und mit Bildern oder Videos aufgelockert werden. Aufzählungen und Info-Kästen sorgen zusätzlich für ein besseres Textbild.

Schließlich ist eine sinnvolle interne Verlinkung entscheidend, damit sich sowohl die Suchmaschinen-Crawler als auch die Nutzer auf der Website zurecht finden. Eine Seite ohne Links ist wie eine Sackgasse. Darum sollten alle Seitentexte nach Möglichkeit auf verwandte Kategorie-Seiten oder Blogtexte verweisen. Das sorgt nicht nur für mehr Überblick, sondern stärkt außerdem die angelinkten Seiten.

24.7 Wie wichtig sind Links im modernen SEO?

Der Grundgedanke ist einfach: Je häufiger eine Seite von anderen Webseiten verlinkt wird, desto besser wird sie von Google bewertet. Die Suchmaschine sieht den externen Link quasi als eine Empfehlung, die auf die Relevanz der Seite hindeutet. Daran hat sich bis heute nichts geändert. Nach wie vor zählen Links zu den Top Drei Bewertungskriterien im Google Algorithmus. Dies bestätigte sogar Google-Sprecher Andrey Lippatsev selbst. Auf die Frage nach den beiden wichtigsten Kriterien neben RankBrain, Googles künstlicher Intelligenz auf Basis von Machine-Learning-Technologie, erklärte er: „I can tell you what they are. It’s content and links going into your site.“

Die US-Beratungsagentur Stone Temple Consulting untersuchte 2016 in einer großangelegten Studie die Korrelation zwischen eingehenden Links und Rankings und bestätigte diese Aussage. Es wurden jeweils die Top 50 Ergebnisse auf 6.000 unterschiedlichen Suchergebnisseiten untersucht. Gut platzierte Seiten hatten auffällig häufig auch viele eingehende Links. Die Experten kamen zu dem Schluss, dass ein Zusammenhang zwischen guter Platzierung und Anzahl der Links tatsächlich sehr wahrscheinlich ist.

Doch Google hat dazu gelernt: Nicht mehr die Masse der Links ist entscheidend, sondern die Qualität der Seiten, die auf eine Website verweisen. Wer also nach altem Muster auf reine Linkschleudern oder qualitativ minderwertige Seiten setzt, der erlebt aktuell eine böse Überraschung. Mit dem neuen Update Penguin 4.0 reagiert Google nun besser auf Änderungen in diesem Bereich: Wer sein Linkprofil bereinigt und sich um Links aus hochwertigen Quellen bemüht, der sieht schneller Erfolge als zuvor.

Wurde eine Seite von Google abgestraft oder hat massiv an Sichtbarkeit verloren, so lohnt es sich also, das Linkprofil zu überprüfen. Eine „DTOX“-Analyse verrät, welche Linkquellen möglicherweise schädlich sein könnten. Solche Links sollten abgebaut oder über das Disavow-Tool von Google unschädlich gemacht werden.

Positive Links dagegen sind Links auf starken Seiten, zum Beispiel in zielgruppenrelevanten Foren, wenn hilfreiche Blog-Beiträge oder Produktempfehlungen verlinkt werden. Auch Gastbeträge, zum Beispiel in themenverwandten Blogs führen zu wertvollen Links. Doch auch hier ist Google möglichen Tricksern auf den Fersen: Bezahlte Beiträge mit reiner Werbefunktion sollen die Suchergebnisse nicht verfälschen. Solche Artikel müssen daher als Werbung gekennzeichnet und die Links auf „nofollow“ gesetzt werden, was ihren Wert für SEO (Suchmaschinenoptimierung) mindert. Zwar bleiben auch solche Maßnahmen Teil einer ganzheitlichen SEO-Strategie. Sie müssen aber durch moderne Lösungen ergänzt werden. Die Zukunft gehört dem Content Marketing, also dem gezielten Verbreiten hochwertiger, viraler Inhalte. Nur wer Inhalte erstellt, die von Zielgruppe und Influencern freiwillig geteilt werden, hat langfristig eine Chance. Wichtig sind dabei stets die größtmögliche Transparenz und ein guter Überblick über die bestehenden Links.

24.8 Starker Content ist Pflicht

Der Weg zu starken organischen Links geht über hochwertigen Content. Wer es schafft, dass seine Inhalte im Web freiwillig verbreitet werden und dass andere Blogs oder Seitenbetreiber über seine Services berichten, der profitiert nicht nur von einem höheren Bekanntheitsgrad, sonders stärkt auch die Sichtbarkeit seiner Seite.

Es reicht in der Google Suchmaschinenoptimierung (SEO) also nicht mehr aus, die Website mit guten Kategorietexten zu füllen. Es müssen weitere Content-Maßnahmen getroffen werden. Beispiele hierfür sind eigene Blogs oder Ratgeber mit fundierten, umfangreichen Inhalten. Eine immer größere Rolle spielt außerdem der User Generated Content, also Beiträge die Nutzer und Kunden liefern – zum Beispiel in Form von Produktrezensionen auf der Seite, Kommentaren oder Kundenstimmen.

Egal, welche Content-Formen auf einer Seite abgedeckt werden, es gilt: Qualität ist entscheidend – aber nur erfolgreicher Content ist wirklich guter Content. Wie aber misst man den Erfolg von Inhalten auf einer Website? Eine aussagekräftige Größe ist beispielsweise die Absprungquote. Verlassen viele Nutzer die Seite sofort wieder, deutet dies auf uninteressanten oder schlecht präsentierten Content hin. Aber auch andere Größen geben Aufschluss darüber, wie erfolgreich der Inhalt einer Seite ist:

  • Wie lange bleiben die Nutzer auf einer Seite?
  • Scrollen sie bis zum Seitenende?
  • Folgen sie einem Klickpfad bis zum Schluss, z.B. in einer Bilderstrecke?
  • Klicken sie auf interne Links?
  • Gibt es eine hohe Conversion Rate?

All diese sogenannten User Signals verraten, ob der Content einer Seite die Nutzer fasziniert und sie gegebenenfalls sogar zum Kauf oder einer Anfrage animiert.

24.8.1 Welche Rolle spielt Content Marketing?

Content Marketing hat mehrere Aufgaben: Grundsätzlich geht es darum, eigene Inhalte auf möglichst vielen anderen Seiten zu verbreiten. Dadurch werden zum einen hochwertige organische Links aufgebaut. Dies geschieht entweder automatisch, weil andere Seitenbetreiber oder Blogger bestimmte Beiträge teilen, oder es wird aktiv unterstützt, indem interessante Inhalte möglichen Partnern zur Veröffentlichung angeboten werden.

Zudem übernimmt Content Marketing im Web die Rolle der klassischen PR. Wie eine Pressemeldung werden Artikel, Videos und andere Inhalte im Content Marketing an Medien, Blogger und Influencer verteilt. Dadurch steigt die Markenbekanntheit und die Zielgruppe wird beispielsweise über Neuigkeiten informiert. Zudem helfen hochwertige Inhalte auf starken Partnerseiten einer Marke dabei, ihre Expertise zu untermauern und so das Vertrauen der Kunden zu gewinnen und bestehende Kunden stärker an sich zu binden. Content Marketing sollte darum nicht nur mit SEO (Suchmaschinenoptimierung) und SEM sondern auch mit dem klassischen Marketing fein abgestimmt werden, sodass eine ganzheitliche Kommunikation auf allen Kanälen entsteht – online wie offline.

Dabei darf auch der bereits erwähnte Rich Content nicht außer Acht gelassen werden. Videos, interaktive Grafiken und Gamification-Ansätze erhöhen die Wahrscheinlichkeit, dass Inhalte verbreitet werden und sollten als Ergänzung zu hochwertigen Texten immer in Betracht gezogen werden.

24.9 Monitoring – aber richtig!

Man darf sich nicht auf seinen Lorbeeren ausruhen. Diese Weisheit gilt in vielen Disziplinen der Geschäftswelt. Im SEO ist sie aber ganz besonders wichtig. Eine Seite die heute noch gut rankt, kann schon morgen auf die hinteren Ränge verwiesen werden. Modernes SEO heißt vor allem auch, dass man ständig die aktuellen Trends im Auge behält, die eigenen Maßnahmen überprüft und gegebenenfalls nachbessert. Auf Änderungen wie beispielsweise das Penguin 4.0-Update muss schnell und nachhaltig reagiert werden, um dauerhaft erfolgreich zu bleiben.

Es gibt zahlreiche Tools, die moderne SEO (Suchmaschinenoptimierung) Manager in ihrer Arbeit unterstützen – und ständig kommen neue hinzu. Welche für eine bestimmte Seite besonders nützlich sind, hängt unter anderem von der Ausrichtung der Seite und deren Zielsetzung ab. Ist etwa eine Seite auch in Social Media besonders aktiv, so sollten zusätzlich zu den klassischen Tools noch spezialisierte Services zum Monitoring der Social Media Aktivitäten in Betracht gezogen werden.

25.9.1 Tools zur Web Analyse

Web Analyse Tools wie etwa Google Analytics und die Google Webmaster Tools (Google Search Console) geben Aufschluss über Besucherzahlen, Traffic-Quellen und Conversions. Hier sieht man zum Beispiel, welches Keyword besonders viele Besucher auf die Seite gebracht hat, oder ob ein Link in einem Gastbeitrag die Visits oder gar den Umsatz steigern konnte.

Unter den kostenpflichtigen Tools ist Omniture von Adobe eines der bekanntesten Beispiele. Welches Tool benötigt wird, hängt von den Anforderungen ab und vom Umfang der benötigten Informationen. Bei der Auswahl helfen folgende Fragen:

  • Welche Inhalte sollen getrackt werden?
  • Benötige ich die genauen Klickpfade?
  • Soll der gesamte Funnel angezeigt werden?

Wichtig beim Einsatz von Web Analyse Tools ist der Abgleich mit dem Datenschutz und ein Hinweis auf die Nutzung in den Datenschutzbestimmungen. Die Nutzer müssen wissen, dass und wofür ihre Daten erfasst werden. Die Datenschutzregelungen sind in Deutschland sehr streng, Verstöße können teuer werden.

24.9.2 Tools zur Messung der Sichtbarkeit und Rankings

Unverzichtbar sind außerdem die Tools zur Messung der Sichtbarkeit und Rankings. Nur wer die Performance seiner Seite ständig im Blick hat, der kann langfristig erfolgreiche Suchmaschinenoptimierung (SEO) betreiben. Je nachdem, welche Maßnahmen ergriffen wurden, sind erste Erfolge nach etwa drei bis sechs Monaten messbar. Für gewöhnlich gilt: Zuerst werden Rankings erzielt, dann steigt die Sichtbarkeit. Mit zunehmender Sichtbarkeit zieht der Traffic an und schließlich steigen auch die Umsätze.

Über SEO-Tools wie z.B. Sistrix und XOVI* kann zum einen die Sichtbarkeit einer Seite beobachtet werden, zum anderen werden hier die aktuellen Rankings gelistet. Besonders spannend: Über Sistrix können die eigenen Rankings mit denen der Konkurrenz abgeglichen werden und es wird deutlich, an welchen Stellen nachgebessert werden muss.

Tools wie der KeywordMonitor zeigen die Entwicklung vorgegebener Keywords im Verlauf an. Sie eignen sich besonders gut, um die Performance der Keywords zu ermitteln, die in Rahmen der Keyword-Analyse als besonders relevant eingeschätzt wurden. Zudem lässt sich hier die Seitenoptimierung überprüfen: Wechseln sich zum Beispiel mehrere Seiten mit den Rankings für dasselbe Keyword ab, so ist dies ein Hinweis darauf, dass die Seiten nicht eindeutig genug auf ein Keyword optimiert sind. Das schwächt die Rankings für alle betroffenen Seiten. Durch Nachbesserungen an den Seitentexten und der internen Verlinkung kann eine klare Zielseite für das gewünschte Keyword festgelegt werden.

Schön ist es, wenn alle Fäden in einer Hand zusammen laufen. Die logische Weiterentwicklung dazu, sich alle Informationen aus verschiedenen Quellen zusammenzusuchen ist es, alle wichtigen Daten gebündelt zur Hand zu haben – und das am besten auf allen Endgeräten, im Web und sogar als App. Wer über ein eigenes Data Warehouse verfügt, ist im Informationsfluss immer einen Schritt voraus. Die Online Solutions Group GmbH hat mit ihrer OSG Performance Suite ein Tool entwickelt, in dem die Kunden alle relevanten Daten aus dem unterschiedlichen SEO-Tools auf einen Blick versammelt finden. Rankings, Sichtbarkeitsverlauf und Ladezeiten werden übersichtlich präsentiert und bieten größtmögliche Transparenz über den Erfolg der vorgenommenen Suchmaschinenoptimierung.

Und wie ist Ihr Unternehmen aufgestellt in Sachen Online Marketing? Finden Sie es jetzt heraus – mit einem kostenlosen Audit!

25. Die 10 wichtigsten SEO-Regeln

Das Erstellen einer Website ist heute so einfach wie noch nie. Unzählige Tools ermöglichen es uns innerhalb von wenigen Minuten eine Webpräsenz samt eigenem Shop zu erstellen. Und genau da ist das Problem: Es gibt zu allen Themen, Produkten und Dienstleistungen zahllose Seiten. In diesem riesigen Pool an Angebot und Information, scheint es unmöglich gesehen zu werden. Aus diesem Grund beschäftigen sich (fast) alle früher oder später mit Suchmaschinenoptimierung, kurz SEO. Doch scheint es für Laien oft wie ein Buch mit sieben Siegeln. In diesem Text werden wir dir zeigen, dass es nur 10 einfache SEO Regeln zu befolgen gibt, um ganz oben zu stehen. Vorneweg gesagt gilt: Gesehen wird nicht der, der am lautesten schreit, sondern der mit dem besten Inhalt!

25.1 SEO Regel Nr. 1: Kreiere holistischen Content mit Mehrwert für den User

Und da sind wir schon beim Thema Inhalte. Die erste SEO Regel beschäftigt sich mit einem Satz der den meisten wohl schon zu den Ohren raus kommt ist: “Content ist King!”. Der Ausdruck hat zwar schon einen Bart, ist jedoch noch immer topaktuell. Inhalte bzw. Content ist das was der User auf deiner Seite sieht, aber auch das was Google auf deiner Seite crawlt. Und obwohl es immer noch eine text-basierte Suchmaschine ist, kann sie mittlerweile bewerten ob es sich um eine Seite mit Mehrwert für den Nutzer handelt. Aber nicht nur Google ist anspruchsvoll mit dem Inhalt deiner Seite, auch der Nutzer möchte neben einer einfach Bedienbarkeit auch Inhalte die gefallen, beschäftigen und den gewünschten Mehrwert bieten. Wie sieht so ein Text aus? Er sollte:

  • besagten Mehrwert bringen
  • strukturiert sein
  • passende Keywords verwenden
  • Interesse des Lesers wecken

Die Liste kann an diesem Punkt beliebig erweitert werden. Das Wichtigste ist, wie die Überschrift dieser SEO Regeln schon erahnen lässt, jedoch nicht das Interesse und den User aus den Augen zu verlieren! Also setze dich an deine Texte, überarbeite und verlängere sie, um wichtige Aspekte und Punkte die du bisher noch nicht berücksichtigt hast. Nur so bleibst du relevant und bist deinem Ziel auf dem Weg zur Nummer eins wieder ein Schritt näher.

25.2 SEO Regel Nr. 2: Aufbau vertrauenswürdiger Backlinks

Ein nicht unumstrittenes Thema im Online Marketing sind Backlinks. Noch vor wenigen Jahren stand die Quantität vor der Qualität, je mehr Links auf die Seite verwiesen, desto besser. Heute sieht das ganze etwas anders aus. Wer dubiosen Angeboten wie “100 Links für 100€” vertraut, riskiert nicht nur, dass Spamseiten auf einen verweisen, nein auch das Risiko einer Abstrafung steigt gewaltig. So sollte dein erster Schritt vor dem Linkaufbau sein, deine aktuellen Backlinks zu überprüfen. Für so ein sogenanntes Link Detox stehen wir dir gerne mit Rat und Tat zur Seite!

Du hast dich von all den schlechten Links befreit und bist bereit für frischen Linkjuice? (Was das schon wieder ist erfährst du hier) Dann ist es Zeit für die zweite SEO (Suchmaschinenoptimierung) Regel! Wie im echten Leben ist es wichtig, dass die Richtigen auf dich verweisen. Niemand möchte eine Empfehlung von jemanden erhalten, dem man nicht vertraut. Selbiges gilt auch für die Backlinks. Mit einer sorgfältigen OnPage Optimierung, wie zum Beispiel mit holistischem Content, guten Meta Tags (dazu später mehr) und kurzen Ladezeiten kommen die Backlinks fast ganz von alleine. Und für den Anfang lohnt es sich neben der Optimierung der eignen Seite, auch die Kooperationen mit anderen Webpräsenzen. Neben Gastartikeln sind auch Influencer teil der OffPage Optimierung und aus dem Online Marketing nicht mehr wegzudenken.

25.3 SEO Regel Nr. 3: Optimiere deine Ladezeit

Wer Anfang der Jahrtausendwende eine Website laden wollte, musste viel Geduld mitbringen. Heute stehen Modems höchstens noch in Vitrinen als Relikte längst vergangener Tage und die meisten Internetnutzer werden sich an das Pipsen und Pfeifen bei einem Verbindungsaufbau wohl nicht einmal mehr erinnern. Heute geht es bei der Ladezeit mehr denn je um Geschwindigkeit. Laut den Google Analytics Trends 2018 sind die Nutzer so ungeduldig wie noch nie. Aber auch Google selbst hat es gerne wenn es schnell geht und das nicht nur an deinem Rechner. Während der sogenannte PageSpeed seit April 2010 ein offizieller Rankingfaktor ist, wird auch die Ladegeschwindigkeit auf mobilen Endgeräten ab Juni 2018 ein Teil des Bewertungssystems. Und aus diesem Grund ist die Ladezeit auch die dritte unserer SEO Regeln. Aber bevor du nun wild das Optimieren beginnst solltest du erst einmal die aktuelle Geschwindigkeit deiner Seite messen. Hierzu gibt es eine Vielzahl von Tools. Einige sind davon auch kostenfrei. Das bekannteste stellt Google mit dem Google PageSpeed Insights selbst. Auf TestMySite kanndu die Ladezeiten deiner mobilen Version testen und mit den Wettbewerbern vergleichen. Aber auch mit dem kostenlosen SEO Check der OSG kannst du deine Ladegeschwindigkeit prüfen!

Ist die Geschwindigkeit geprüft, kann mit der Optimierung deiner Ladezeit begonnen werden. Auch wenn deine Seite schon schnell lädt, ein bisschen was geht noch immer, und warum unnötig Potential verschenken? Dein Wettbewerb schläft nicht! Die wichtigsten Stellschrauben an denen du drehen kannst sind:

  • Komprimierung der Ressourcen mit „gzip“ oder „deflate“
  • Nutzen des Browser-Cachings
  • Reduzierung des JavaScript- und CSS-Codes
  • Formatierung und Komprimierung von Bildern

Mit der Ladezeit und der Ladezeitoptimierung hat sich Jörg Niethammer näher beschäftigt und einen spannenden Artikel in unserm OSG Blog veröffentlicht! Lies dich hier am besten ein und deine Website wird im nu schnell wie der Blitz.

25.4 SEO Regel Nr. 4: Technik muss stimmen – Fehler suchen und analysieren

Eine Website die an jeder Ecke einen Fehler ausspuckt nutzt niemand gerne und auch der Google Crawler findet das eher suboptimal. SEO Regel Nummer Vier soll dich daran erinnern, deine Inhalte sowohl für den User, als auch für die Suchmaschinen erreichbar zu machen. Sorge für eine flache und saubere Informationsarchitektur innerhalb deiner Seite. Kein Inhalt sollte mehr als 3-4 Klicks brauchen um aufgerufen zu werden. Du vergisst nur einen Klick und schon ist deine Seite nicht mehr im Index. Ein noindex kann oft nützlich sein, ist er ungewollt ist es ein Fehler, der leicht vermeidbar und günstig zu beheben ist. Um zu prüfen ob deine Seite indexiert ist, kannst du die “Site-Abfrage”(site:domain.de) in der Google Suche nutzen.

Neben der Indexierung kann es auch zu technischen Fehlern auf deiner Seite kommen. Eine “404- Seite nicht gefunden” Fehlermeldung hatte wohl schon jeder einmal von uns auf seinem Bildschirm. Das nervt nicht nur dich als User, auch der Suchmaschinenbot ist davon nur wenig begeistert. Zur Identifizierung solcher 404 Seiten gibt es verschiedene Tools die du nutzen kannst. Nutze die Google Search Console oder auch den kostenlose SEO-Check der OSG, um sie ausfindig zu machen. Wie du genau mit der Fehlermeldung umgehen solltest erfährst du in diesem Beitrag. Generell gilt auch hier, suche nach Fehlern und analysiere diese gründlich! Fehlerhafte Seiten sind nicht nur ärgerlich, sondern schaden auch deinem Ranking. Also behalte SEO (Suchmaschinenoptimierung) Regeln Nummer Vier immer im Kopf und checke deine Technik! Falls der User sich doch einmal vertippt, auf einer fehlerhaften Seite landet, sollte diese entsprechend userfreundlich aufbereitet werden.

25.5 SEO Regel Nr. 5: Verfasse relevante Meta Titles und Descriptions

Auch Meta Titels und Descriptions zählen zu den mehr als 200 SEO-Rankingfaktoren und damit auch in die Top Ten unserer SEO Regeln, außerdem sind sie im Prinzip leicht zu pflegen. Du musst es eben einfach machen! Besonders der Title Tag sollte oberste Priorität bei der Optimierung deiner Seite haben. Dieser wird sowohl im Browser als auch in der SERP angezeigt und sogar im Quelltext taucht dieser auf. Er sollte nicht mehr als 70 Zeichen haben und bei jeder URL individuell sein. Das Keyword auf welches deine Seite optimiert ist steht im besten Fall ganz vorne im Title. Auch sollte der Title den User dazu animieren auf deine Seite zu klicken. Um zu sehen wie am Ende dein Meta Title angezeigt wird kannst du beispielsweise den SISTRIX Snippet Generator nutzen!

Nicht direkt für den Nutzer auf deiner Seite sichtbar, aber für die Sucherergebnisse unabdingbar sind die Meta Descriptions. Auch diese lassen sich leicht pflegen und sind leicht zu optimieren. Hierbei gelten ein paar einfach Faustregeln:

  • Es sollten nicht weniger als 120 Zeichen sein und nicht mehr als 220 Zeichen. Sind es zu viele, dann schneidet sie Google einfach ab.
  • Ähnlich wie beim Meta Title, sollte das Keyword recht weit am Anfang stehen.
  • Die Description solltest du werblich und klar formulieren. Du hast nur wenige Zeichen zu Verfügung, nutze sie sinnvoll!
  • Es lassen sich auch Sonderzeichen wie Pfeile, Herzen oder ähnliches nutzen. Gehe damit aber sparsam um!

Auch hier kannst du den SISTRIX Snippet Generator nutzen um deine Arbeit zu überprüfen. So lässt sich diese SEO Regel ganz einfach Umsetzen.

25.6 SEO Regel Nr. 6: Verwende gut lesbare und aussagekräftige URLs

Oft und gerne vergessen bzw. vernachlässigt ist die Verwendung von sogenannten “sprechenden” URLs. Diese bestehen statt aus kryptischen Zeichenfolgen und IDs aus lesbaren Worten und beinhalten im Idealfall auch dein Keyword! Eine gut lesbare URL erhöht deine Klickrate, da der User schon sieht was ihn auf der Seite erwarten wird. Um nicht in den Suchmaschinen abgeschnitten zu werden sollte deine URL von den möglichen 200 Zeichen nicht mehr als 74 verwenden. Für ein erfolgreiche Optimierung deiner URLs solltest du folgende Regeln beachten:

  • Nutze deine Keywörter
  • Lass die Finger von Füllwörtern
  • Verzichte auf Sonderzeichen
  • Trenne die Worte mit einem Minuszeichen
  • Aber am wichtigsten: Keep it short and simple!

25.7 SEO Regel Nr. 7: Keywords – auch für Beitragsbilder

Deine Keywords sollten nicht nur für deine Texte bewusst gewählt werden, auch deine Bilder auf deiner Website sollten dahingehend optimiert werden. So kannst du auch über die Bildersuche der Suchmaschinen gefunden werden. Wie genau du die siebte SEO (Suchmaschinenoptimierung) Regel umsetzten kannst, erfährst du in unserem Leitfaden zur Bildoptimierung. Dabei ist es wichtig, den Nutzer und seine Suchintention zu verstehen, nur so findest du das richtige Keyword. Es ist dabei hilfreich einen Blick auf deine Konkurrenz zu werfen und zu sehen mit welchen Keywords diese ranken. Schau dir dafür die ersten 10 Suchergebnisse an und wäge ab wie schwierig es ist höher als der Rest in der SERP zu stehen. Um weitere Ideen für Keywords zu finden rät es sich, einen Keyword Planner zu nutzen. Bei der Auswahl der Keywords ist es ratsam lieber ein kleines Keyword zu nutzen mit dem man auf Seite 1 ranken kann, als ein großes zu verwenden und auf Seite 2 oder schlechter zu stehen. Es ist auch einfacher sich bei der Auswahl auf seine Kompetenzen zu besinnen, so lassen sich leichter Keywords finden und Inhalte kreieren. Da sagt sowohl der Nutzer als auch der Crawler danke!

25.8 SEO Regel Nr. 8: Sei responsive – sowohl im Design als auch auf Fragen der User

Wie bei den Ladenzeiten schon erwähnt, nimmt der Fokus auf die mobilen Endgeräte zu. Google teilte den Schritt zum “Mobile First Index” mit und möchte so nicht mehr zwischen Desktop-Index und Mobile-Index unterscheiden. Es ist also ratsam, dass du deine Website für die mobile Darstellung fit machst. Durch ein sich selbst-anpassendes Design erhöht sich die Verweildauer der User auf deiner Seite und somit auch die Bounce Rate. Als Grundregeln für die mobile Bedienbarkeit gelten:

  • (Überraschung) Schnelle Ladezeit
  • Erkennbare Schriftgröße
  • Leichte Bedienbarkeit aka. “Wurstfinger”-Bedienbarkeit

Ist das umgesetzt, kommt man schon fast zum letzten unserer SEO Regeln!

25.9 SEO Regel Nr. 9: Nutze soziale Medien für deine Vorteile

Jetzt hast du richtig guten Content zu den perfekten Keywords geschrieben, eine rasend schnelle Seite die auf allen Endgeräten hervorragend benutzbar ist, eine Menge Backlinks gesammelt, super tolle Meta Tags und Descriptions und auch deine URLs sind optimiert. Nun ist die neunte SEO (Suchmaschinenoptimierung) Regel an der Reihe: Lass die Leute von deiner überragenden Seite wissen! Auch wenn es ein bisschen Überwindung kosten kann, fordere die Leute zum teilen deiner Inhalte auf! Dafür solltest du im Vorfeld dafür gesorgt haben, dass das so einfach wie möglich passiert. Mit der Implementierung von Share Buttons geht das am leichtesten und du steigerst deine Reichweite. Für die ideale Darstellung deiner Inhalte in den sozialen Medien solltest du deine Open Graph Informationen nutzen. So hast du im Handumdrehen eine neue Traffic-Quelle und mit etwas Muse und Glück auch eine treue Community!

25.10 SEO Regel Nr. 10: Laufend Prüfen

Zusammenfassend steht am Ende der SEO Regeln Nummer Zehn, die laufende Prüfung. So wichtig alle vorangegangenen SEO Regeln auch sind, nur die stetige Umsetzung und Aktualisierung gewährleistet deinen nachhaltigen SEO (Suchmaschinenoptimierung) Erfolg. Guter holistischer Content sollte regelmäßig überprüft und aktualisiert werden. SEO Regel Zwei, die Backlinks, ist auch eine Aufgabe die ohne regelmäßige Überprüfung nicht auskommt. Selbiges gilt natürlich für die Ladezeit und die Technik. Nur so kannst du deinen ganz oben in der SERP halten, denn auch deine Konkurrenten können lesen und werden optimieren! Mit unserem kostenlosen SEO-Check kannst du ganz einfach selbst prüfen, wie es um deine Website steht. In wenigen Sekunden bekommst du alle Informationen und Tipps für dein. Geprüft werden 20 Unterseiten und SEO-kritische Prüfpunkte sind rot hervorgehoben – so siehst du schnell, welche der SEO Regeln noch nicht beherzigt wird.

Gerne unterstützen wir dich bei der Umsetzung aller weiteren SEO Regeln. Aber ebenso wie deine Website solltest du dich selbst auch immer auf dem Laufenden halten, aus diesem Grund empfehle ich dir die Lektüre von SEO Büchern. Tim Lagemann hat die besten in einem Blogartikel für dich zusammengefasst! Bis dahin viel Spaß und Erfolg bei der Umsetzung der 10 SEO Regeln.

26. Case: Was passiert, wenn SEO Aktivitäten gestoppt werden

Wer heute eine Internetpräsenz betreibt, wird um das Thema Suchmaschinenoptimierung (SEO) nicht herumkommen. Im digitalen Zeitalter wird selbst die schönste Website keinen Erfolg haben, wenn sie von der Zielgruppe nicht gefunden wird. Es gibt viele Möglichkeiten Traffic für die eigene Internetpräsenz zu generieren oder einzukaufen, zum Beispiel über Adwords-Werbung und Affiliate. SEO ist mittel- bis langfristig jedoch der kosteneffizienteste Kanal, denn im Vergleich zu anderen Online Marketing Kanälen entstehen keine Klickkosten. Warum SEO (Suchmaschinenoptimierung) für jede Website so wichtig ist, haben wir auf unserer SEO Agentur Seite zusammengefasst. Doch was passiert eigentlich, wenn man im SEO erfolgreich ist und die SEO-Maßnahmen stoppt? Den “Worst-Case” haben wir zusammengefasst.

26.1 Stark umkämpfte Finanzbranche

Bei dem Projekt geht es um einen Finanzvergleich. Hierfür wurde eine Internetpräsenz auf Basis von WordPress erstellt und eine SEO-Strategie entwickelt. Aufgrund der hohen Klickkosten in Adwords in dieser Branche, lag der Fokus von Anfang an auf der Google Suchmaschinenoptimierung (Bing Suchmaschinenoptimierung). Bei der Umsetzung der Website wurden technische SEO-Kriterien beachtet (Mobile-Friendly, saubere Struktur, schnelle Ladezeiten usw.). Anhand der besten Wettbewerber und eigenen Ideen wurde ein Konzept für die Content-Optimierung und den Linkaufbau aufgestellt. Die Entwicklung wurde laufend überwacht, besprochen und je nach Entwicklung angepasst, um langfristig beste Ergebnisse für wichtige Keywords zu erzielen.

Das Projekt wurde im Juni 2016 gestartet. Eckdaten nach 1,5 Jahren Arbeit:

  • 215 Top10 Rankings
  • 5.558 Rankings Gesamt
  • 205 erstellte Texte
  • 76 hochwertige Backlinks

Durch die Erstellung der Texte unter Berücksichtigung von Qualitätsmerkmalen für Content ist die Anzahl der indexierten Seiten laufend gestiegen:

Die Sichtbarkeit der Seite ist im Gegensatz zum Indexierungsstatus in den ersten Monaten nur langsam gestiegen. Da viele SEO-Maßnahmen erst nachwirken, konnte die Sichtbarkeit nach den ersten 6 Monaten dafür monatlich umso stärker wachsen. In der Grafik ist zu erkennen, dass zu Beginn mehr SEO-Maßnahmen (goldene Flags) umgesetzt worden sind, die Sichtbarkeit (blaue Linie) später jedoch stärker steigt:

Seit Anfang 2018 ist der Traffic über Organic Search bereits um 23% gestiegen – und das obwohl, die größten Optimierungen und die meisten Texte bereits 2016 erbracht worden sind. Bei gleichbleibender Entwicklung und gleichem Invest könnte sich der SEO Traffic in den nächsten Monaten wie folgt entwickeln (lässt man Google Updates außer Acht und geht vom aktuellen Stand aus):

Der Case zeigt bereits, dass SEO (Suchmaschinenoptimierung) ein Kanal ist, der nachläuft. Aber was passiert, wenn man alle Aktivitäten komplett stoppt? War die ganze bisherige Arbeit umsonst?

26.2 SEO gestoppt – und nun?

Ende Februar 2018 wurde die Arbeit für das Projekt eingestellt. Um die Auswirkungen des SEO Stopps zu verstehen, muss die Sichtbarkeit über einen längeren Zeitraum betrachtet werden. In der Grafik ist der Stopp rot markiert:

Auffällig ist, dass die Sichtbarkeit nach dem SEO Stopp zunächst weiter gestiegen ist und in den letzten Wochen wieder rapide gesunken ist. Nach insgesamt 4 Monaten (Ende Februar 2018 bis Anfang Juli 2018) ist die Sichtbarkeit jedoch weiterhin leicht höher als vor Einstellung der Arbeit.

In der nachfolgenden Grafik haben wir den Traffic über SEO (Suchmaschinenoptimierung) mit den Sichtbarkeiten aus Sistrix und Xovi* verglichen:

Der Traffic über Organic Search nimmt seit Ende Juni leicht ab – jedoch nicht so stark wie die Sichtbarkeit. Der SEO Traffic liegt etwa auf dem gleichen Level wie kurz vor dem SEO Stopp.

Auf die Rankingverteilung gab es bisher keine negativen Auswirkungen. Die Anzahl der rankenden Keywords auf Seite 1 und 2 bei Google ist sogar gestiegen:

Insgesamt gab es nach dem SEO Stopp innerhalb von vier Monaten keine gravierenden Verluste oder Gewinne – und das obwohl die Seite mit starken Wettbewerbern wie Check24 und Verivox konkurriert. Der Case steht jedoch nicht stellvertretend für alle Projekte – ja nach Branche und Konkurrenzdruck können Verluste früher oder später eintreten. Je besser die Ausgangslage, desto höher die Wahrscheinlichkeit, dass sich das Einstellungen der SEO Leistungen erst Wochen oder Monate später bemerkbar macht. Nischenseiten, die eher unbekannte Keywords abdecken, können auch noch Jahre später gute Rankings erzielen. Langfristig sollte man im SEO jedoch nicht pausieren, wenn man vor hat sein Projekt auch künftig profitabel zu vermarkten. Im oben genannten Case gab es zwar keine Verluste, allerdings kann auch nicht mehr von den Gewinnen (bessere Sichtbarkeit, mehr Rankings) profitiert werden, die zunächst angestiegen sind.

26.3 Anderer Case – ähnliches Szenario

Auch bei einem weiteren Case gibt es ein ähnliches Szenario. bei diesem Projekt wurde der Webauftritt einer lokalen Praxis optimiert. Nachdem die SEO (Suchmaschinenoptimierung) Maßnehmen im Herbst 2017 gestoppt worden sind, ist die Sichtbarkeit zunächst erst noch angestiegen, danach jedoch stetig gesunken:

Content und Linkaufbau gehören neben einer ansprechenden Usability und sauberen Technik weiterhin zu den wichtigsten Rankingfaktoren. Dies wurde mehrmals von Google Mitarbeitern wie Andrey Lipattsev (2016) bestätigt:

“It’s content and links pointing to your site.”

Die Gewichtung der Rankingfaktoren kann je nach Suchanfrage und Branche variieren. Gemeinsamen haben alle Rankingkriterien jedoch, dass eine einmalige Optimierung oft nicht reicht. Google nimmt regelmäßig Änderungen am Algorithmus vor, um den Usern die besten Ergebnisse in den SERPs anzuzeigen. Als Unternehmen hat Google selbst das Ziel profitabel zu arbeiten. Werden Usern Ergebnisse angezeigt, die nicht aktuell sind, springen diese irgendwann ab und nutzen andere Quellen zur Recherche. Aktuell hat Google auf nationaler Ebene und vielen weiteren Ländern eine klare Vormachtstellung und diese wird das Unternehmen auch in den nächsten Jahren weiter behaupten. Wer seine Seite nicht laufend optimiert – insbesondere auch im Linkaufbau und im Content – wird den Ansprüchen von Google und dessen Nutzern nicht mehr gerecht. Dabei geht es nicht nur darum, stetig neue Links und Texte zu erstellen, sondern auch vorhandene Techniken und Inhalte anzupassen, zu aktualisieren und dem User gerecht zu werden.

Wer in der organischen Suche erfolgreich sein will, muss Suchmaschinenoptimierung laufend betreiben. Ein SEO (Suchmaschinenoptimierung) Stopp trifft vor allem kleinere Seiten stärker als bekannte Brands. Aber auch auf starke Seiten wirkt sich die Einstellung der SEO-Maßnahmen langfristig negativ aus. Bei einem großen Onlineshop wurden lange Zeit aktiv Backlinks aufgebaut und neue Inhalte erstellt. Suchmaschinenoptimierung wird auch weiter betrieben, allerdings wurde der aktive Linkaufbau gestoppt. Der Shop verfügt weiterhin über viele Top Rankings, konnte die Sichtbarkeit und viele Rankings in den letzten Monaten jedoch nicht mehr ausbauen – nicht zuletzt, da auch der Wettbewerb stark zugenommen hat:

Große Seiten und Big Player haben oft schon ein gutes Fundament aufgebaut, von dem sie Zerren können, während Unternehmen, die erst mit SEO starten, sich erst einmal behaupten müssen. Bei dem nachfolgenden Beispiel wurde SEO erst eingeführt. Hier wurden Anpassungen an der Verzeichnisstruktur und der Technik (Ladezeiten, Steuerung Crawling) vorgenommen und erste Texte optimiert. Nachdem sich die ersten Erfolge eingestellt haben, wurde die Maßnahmen gestoppt. Drei Monate später waren die ersten Rankingerfolge wieder zunichte und die Sichtbarkeit ist auf das Ausgangslevel gefallen:

Je nach Ausgangslage fallen Sichtbarkeit, Rankings und Traffic nicht rapide, sondern mit einer Verzögerung von wenigen Wochen oder Monaten. Anders sieht es aus, wenn eine Webseite vom Netzt genommen wird oder nicht mehr erreichbar ist: