On Page SEO – Ein umfassender Guide

Die On Page Optimierung bildet neben der Off Page Optimierung eine der zwei wesentlichen Säulen des SEO. Die On Page Optimierung bezieht sich auf die Struktur, den Inhalt und technische Aspekte einer Webseite.

Das On Page SEO verfolgt das primäre Ziel der Verbesserung des Nutzererlebnisses (UX: User Experience) und damit einhergehend der Sichtbarkeit, bzw. Platzierungen in den Suchergebnissen.

Der Begriff der „Suchmaschinenoptimierung“ eignet sich heute eigentlich nicht mehr ideal. Als SEO ist man heute weniger darauf bedacht, die Webseite für Suchmaschinen zu optimieren, sondern mehr darauf die User Experience zu verbessern. Je besser die UX, mit desto besseren Rankings belohnt uns die Suchmaschine.

So war Keyword Stuffing, also die Überfüllung eines Beitrages mit dem gewünschten Keyword noch vor einigen Jahren ein positiver Ranking Faktor. Heute straft Google Keyword Stuffing, da es auf Kosten der UX geht.

Ziele des On Page SEO

Das Ziel der On Page Optimierung ist eine technische einwandfreie Webseite mit sehr kurzen Ladezeiten und hilfreichen, auf jeder Seite einzigartigen Inhalten. Dabei sollten alle Seiten von der Startseite aus in kurzen Wegen erreicht werden können. So wird eine optimales Crawling durch den Google-Bot gewährleistet. Auf das Crawling gehen wir später noch genauer ein.

Exkurs: Search Engine Advertising – Wie beeinflusst On Page SEO das SEA?

Was ist Search Engine Advertising?

Um in den Suchergebnissen die besten Platzierungen zu erzielen, existieren zwei Möglichkeiten. Durch SEO-Bemühungen werden langfristig organische Platzierungen in den Suchergebnissen erzielt. Hier wirst du für deine kontinuierliche Arbeit und das beste Nutzererlebnis belohnt.

Beim SEA, also der Suchmaschinenwerbung, kaufst du dir die besten Positionen. Über Google Ads lassen sich Anzeigen der gewünschten Seiten bei ausgewählten Keywords platzieren.

SEA übt jedoch keinen Einfluss auf deine organischen Rankings aus. So verhilft es dir nicht zu nachhaltigen Wachstum. SEO wirkt sich jedoch auf das SEA aus.

Google Ads errechnet einen Qualitätsfaktor, der unter anderem deine Anzeigenposition und den Cost-Per-Click deiner Anzeigen bemisst. So möchte Google verhindern, dass lediglich derjenige mit dem höchsten Geboten auf der ersten Position angezeigt wird.

Drei wesentliche Driver für den Qualitätsfaktor, auf die das OnPage SEO Einfluss nimmt:

  1. Klickrate der URL: Wie viele Klicks über die URL erzielt wurden
  2. Qualität der Zielseite: Navigation, Transparenz, Nutzerfreundlichkeit
  3. Keyword-Relevanz: Relevanz des Keywords zur Seite

Fazit: Selbst wenn du Google Anzeigen schaltest, solltest du deine On Page Optimierung nicht außer Acht lassen.

On Page Optimierung & Off Page Optimierung

Wie eingangs erwähnt, schaffen On Page Optimierung und Off Page Optimierung das Fundament des SEO. Die beiden Säulen stehen jedoch nicht unabhängig von einander. Damit das Off Page SEO gelingen kann, sollte dem eine On Page Optimierung vorausgehen.

On Page SEO – Ein Maßnahmenplan

Damit dieser Beitrag für dich den größtmöglichen Nutzen hat, haben wir für dich einen ausführlichen Maßnahmenplan entwickelt. Los gehts!

Crawling, Indexierung & Ranking

Der Google Bot crawlt deine Webseite, um die Unterseiten im eigenen Verzeichnis zu indexieren und im Anschluss daran bei relevanten Suchbegriffen zu platzieren.

Schritt 1: Prüfe die Indexierung deiner Seiten

Um diese Prüfung durchzuführen kannst du den Google Suchoperator verwenden.

Suchoperator

Gebe dazu einfach „site:deinedomain.com“ in die Google-Suchleiste ein. So werden dir in den Suchergebnissen alle indexierten Seiten angezeigt.

Eine etwas einfachere Möglichkeit ergibt sich durch die Google Search Console.

Hier kannst du über den Reiter „URL-Prüfung“ jeder URL prüfen und sie, falls noch nicht geschehen, direkt zur Indexierung einreichen. 

Google Search Console

Optionaler Schritt

Falls du die Google Search Console noch nicht eingerichtet hast, empfehlen wir dir, dies nun zu tun. Wir werden im weiteren Verlauf des Beitrags noch häufiger darauf zurückgreifen. Luna-Park erklärt die Einrichtung der Google Search Console in einem Beitrag sehr ausführlich.

Schritt 2: Gründe für eine fehlende Indexierung prüfen

Die fehlende Indexierung kann einige Gründe haben, die du nun prüfen solltest.

Häufige Gründe:

  1. Sehr neue Seite
  2. Kein Zugriff für Crawler
  3. Google Penalty
  4. Mangelnde interne Navigation
  5. Keine Backlinks

Sehr neue Seite

Wenn du eine Seite erst kurzfristig erstellt hast, kann es gut sein, dass sie deshalb noch nicht indexiert wurde. Um die Indexierung zu beschleunigen eignet sich die Einreichung in der Google Search Console, wie oben beschrieben.

Kein Zugriff für Crawler

Darüber hinaus ist es möglich, dass der Google Bot deine Seite nicht durchsuchen kann. Häufig liegt dies an einer Robots.txt Datei, die ihm das Crawling untersagt.

Google Penalty

Verstößt du gegen die Google Webmaster Richtlinien, so spricht Google deiner Domain einen Penalty zu. Folgende Verstöße können zu einem Google Penalty führen:

  • Schädliche Backlinks

Dies ist eigentlich Teil des Off Page SEO. In unserem Beitrag darüber erfährst du mehr über die Qualitätsfaktoren eines Links.

  • Über-Optimierung

Zuvor habe ich bereits das Keyword Stuffing erwähnt. Hierbei handelt es sich um einen typischen Fall der Über-Optimierung.

Mangelnde interne Navigation

Ein weiterer Grund für eine fehlende Indexierung könnte mangelnde interne Navigation sein. Der Crawler beginnt in der Regel immer auf deiner Startseite. Achte deshalb darauf, dass alle Seiten in maximal vier Schritten von dort aus erreichbar sind.

Keine Backlinks

Backlinks oder „Inbound Links“ fördern die Indexierung deiner Seiten. Über den Aufbau von Backlinks klären wir dich in einem anderen Beitrag auf.

Schritt 3: Dem Crawler Anweisungen geben

Um Einfluss auf das Crawling zu nehmen, kannst du dem Crawler einige Anweisungen geben.

Robots.txt

Wenn ein Crawler eine Webseite aufruft, dann sucht er immer zuerst nach der Robots.txt-Datei. Sie zeigt ihm, welche Verzeichnisse gelesen werden dürfen und welche nicht.

Robots.txt-Screenshot

Vielleicht sollen einige Seiten überhaupt nicht gecrawlt werden. Ein häufig genanntes Beispiel dafür ist dein Impressum. Zwar bist du gesetzlich dazu verpflichtet, es auf deiner Webseite zu verlinken, dennoch muss es ja nicht unbedingt in den Google-Suchergebnissen erscheinen. So kannst du die Seite in deiner Robots.txt-Datei ausschließen und so vor dem Crawler „verstecken“.

Meta Robots Tag

Durch das Meta Robots Tag kannst du dem Crawler noch spezifischere Anweisungen geben. So kannst du dem Crawler mitteilen, wie er bestimmte Seiten durchsuchen oder indexieren soll.

X Robots Tag

Das  X Robots Tag dienen dazu, Dateien wie Bilder oder PDFs vor der Indexierung zu bewahren.

Meta Robots und X Robots Tags lassen sich etwas komplizierter einbinden. Ein Beitrag von Ahrefs klärt dich darüber auf.

Schritt 4: Die Indexierung fördern

Auch wenn du im Allgemeinen sehr wenig Einfluss auf die Indexierung deiner Webseite hast, können einige Maßnahmen den Prozess etwas unterstützen und beschleunigen.

Sitemap hinzufügen

Wenn nicht schon geschehen, dann solltest du eine Sitemap anlegen. Eine Sitemap ersetzt zwar keine ordentliche Informationsarchitektur auf deiner Seite. Dennoch kann sie dem Crawler ein hilfreiches Werkzeug sein.

Eine Sitemap lässt sich mithilfe eine Sitemap-Generators erstellen.

Thiru Sitemap

Wir empfehlen dir jedoch, einen Experten einen kurzen Blick auf die Sitemap werfen zu lassen.

Crawling Budget erhöhen

Eine weitere Möglichkeit, die Indexierung deiner Webseite zu fördern, ist die Erhöhung deines Crawling Budget.

Das Crawl Budget ist die Anzahl der URLs, die der Google Bot crawlen kann und will.

Bei der Festlegung dessen werden einige Faktoren berücksichtigt. Darunter beispielsweise der Crawl Demand. Er ist abhängig vom Alter deiner Webseite, bzw. deiner Domain und der Beliebtheit dessen. Hier dient unter anderem das Domain Rating als Bemessungsgrundlage. Im Backlink Checker von Ahrefs kannst du dein Domain Rating ganz einfach herausfinden. Dein Domain Rating lässt sich ebenfalls durch den Aufbau hochwertiger Backlinks verbessern.

Backlinkprofil Dype

Neben dem Crawl Demand ist auch das Crawl Rate Limit entscheidend für dein Crawling Budget. Das Crawl Rate Limit beschreibt das Maximum der Anfragen, die der Server deiner Webseite auf einen Schlag verkraften kann.

URLs reduzieren

Die dritte Möglichkeit, um deine On Page SEO voranzutreiben und die Indexierung deiner Seiten zu fördern, ist die Reduzierung von URLs. Unnötige URLs können dein Crawling Budget auffressen und so die Indexierung der relevanten Seiten verhindern.

Canonical Tags

Um ein Google Penalty durch Duplicate Content zu verhindern, eignen sich die sogenannten Canonical Tags. Hast du dieselben Inhalte auf mehreren URLs, kannst du dem Crawler durch Canonical Tags vorgeben, welche Version die Hauptversion ist und somit indexiert werden soll.

Entferne alle unnötigen Seiten und fasse dünne Seiten zusammen, die ähnliche Inhalte behandeln. Achte zudem darauf, keine Duplikate auf deiner Webseite zu haben.

Schritt 5: Gründe einer De-Indexierung

Einige Fehler und beabsichtigte Anpassungen können zu einer De-Indexierung bestimmter Seiten führen. Deshalb gilt es diese zu prüfen und Fehler gegebenenfalls zu korrigieren.

Fehlercodes (404)

Wurden URL-Strukturen geändert oder falsche interne Verlinkungen gesetzt, entstehen Fehlerseiten mit dem bekannten 404-Fehlercode.

An dieser Stelle möchte ich dir ein hilfreiches Tool für die On Page Optimierung vorstellen.

Screaming Frog

Screaming Frog ist ein Crawling-Tool mit eine großzügigen kostenfreie Version, das im Werkzeugkoffer keines SEO fehlen darf. Mit der „SEO Spider“ von Screaming Frog kannst du deine Webseite crawlen und sämtliche Informationen aufdecken.

Im obigen Beispiel wird ein 404 Fehler aufgedeckt. Dieser lässt sich dann beispielsweise durch eine 301-Weiterleitung bereinigen.

Crawler-Anweisungen

Wie eingangs erwähnt, können bestimmte Unterseiten natürlich auch bewusst vom Crawling ausgeschlossen werden. Diese Crawler-Anweisungen haben wir oben bereits beschrieben.

Aktives Google Penalty

Oben haben wir die Gründe für ein Google Penalty bereits beschrieben. In der Google Search Console lässt sich der Status einer URL prüfen, um ein Google Penalty aufzudecken.

Bad Practices in der On Page Optimierung

Einige Maßnahmen, die möglicherweise bis vor ein paar Jahren noch erfolgversprechend waren, erzielen heute nicht mehr die gewünschte Wirkung. Ganz im Gegenteil. Sie wirken sich sogar schädlich auf die Rankings einer Webseite aus.

Standortspezifische Seiten mit demselben Inhalt

Ein gutes Beispiel dafür sind Unterseiten für Keyword-Varianten. Ein ehemaliger Kunde von uns wollte beispielsweise für mehrere lokale Keywords ranken. Er Betrieb ein Autohaus im Ruhrpott und wollte ein und dieselben Seiten für unterschiedliche Keywords, wie Autohaus Dortmund, Autohaus Bochum, Autohaus Gelsenkirchen, Autohaus Herne etc. Erstellen. Solche Seiten würden wegen Duplicate Content mit einem Google Penalty bestraft werden.

Unterseiten für Keyword-Varianten

Statt dieser einen Seite für die Keywords On Page Optimierung und On Page SEO, hätte ich natürlich auch zwei Seiten oder noch mehr Seiten für weitere Keyword-Varianten verfassen können. Dies führt jedoch leider dazu, dass weder bei dem einen, noch bei dem anderen Keyword ein gutes Ranking erzielt werden kann.

Scraped Content

Scraping meint das Extrahieren, Kopieren und Speichern von Inhalten, um es in einem veränderten Design auf der eigenen Webseite einzufügen. Es kann manuell oder mithilfe einer Software durchgeführt werden.

Auch hierbei handelt es sich um Duplicate Content. Scraping verletzt zudem die Urheberrechte und wird als Spam bewertet. Deshalb sollte dies tunlichst vermieden werden.

Cloaking

Wird das Cloaking als Black Hat-SEO Methode angewandt, um Inhalte vor dem Crawler böswillig zu verstecken, wird dies bei Entdecken mit dauerhaftem Ausschluss aus den Indizes geahndet. Beim IP-Cloaking werden dem Crawling in Abhängigkeit von seiner IP-Adresse verschiedene Versionen gezeigt. Beim User Agent Cloaking werden Google Bots mit einem Code auf andere Webseiten umgeleitet.

Den bekanntesten Fall vom Cloaking hörte man bei dem Streaming-Dienstleister Spotify. Hier wurden den Crawlern sämtliche Seiten präsentiert, die für Nutzer hinter einer Pay-Wall verborgen waren.

Keyword-Stuffing

Keyword Stuffing funktionierte ebenfalls bis vor einigen Jahren hervorragend. Als man als SEO noch wirklich darauf bedacht war, Inhalte für die Suchmaschine anstatt für den Nutzer zu optimieren, las man die forcierten Keywords unendlich oft an jeder erdenklichen Stelle einer Webseite. Dieses sogenannte Keyword Stuffing wird heute ebenfalls als Verstoß gegen die Google Webmaster Richtlinien gewertet.

Die optimale Keyword-Dichte liegt bei rund 1-2%. So sollte das forcierte Keyword 1-2 mal pro 100 Wörtern eingesetzt werden.

Auto-Generated Content

Unter Auto-Generated Content fasst Google sämtliche Inhalte, die ohne Nachbearbeitung übersetzt, aus mehreren Quellen unbearbeitet zusammengefügt oder nur grob bearbeitet und zusammengefügt wurden. Auto-Generated kann ebenfalls durch einen Google Penalty abgestraft werden.

Schritt 6: 10x Content

Der sechste Schritt im On Page SEO ist vermutlich der wichtigste. Deine Inhalte können technisch noch so sauber sein. Ist dein Content nicht besser als der deiner Konkurrenz, so wirst du sie im Ranking nicht überholen.

1. Keyword-Recherche

In einem anderen Beitrag erklären wir dir ausführlich jeden einzelnen Schritt einer erfolgreichen Keyword-Recherche.

2. Wer ist auf der 1?

Schaue dir im nächsten Schritt die Seite an, die bei deinem ausgewählten Keyword auf der ersten Position platziert wird.

3. Kreiere 10X-Content

Kreiere nun Inhalte, die 10 Mal besser sind, als die der bisherigen Nummer eins. Die folgenden Aspekte gilt es dabei zu beachten:

Design & User Experience

Bevor die Besucher deiner Webseite auf die eigentlich Inhalt aufmerksam werden, fällt ihnen das Design ins Auge. Eine ansprechend gestaltete, aufgeräumte Webseite ist wesentlicher Teil einer guten UX. Wir bei Dype legen großen Wert darauf, lediglich unsere Inhalte in den Vordergrund zu stellen.

Nutzen des Lesers

Die besten Inhalte bringen nur dann etwas, wenn sie dem Leser einen wirklichen Nutzen bieten. Mache dir deshalb schon im Vorfeld Gedanken darüber, welche Informationen sich ein Nutzer erhofft, wenn er das von dir ausgewählte Keyword in der Google Suchleiste eintippt.

Emotionale Komponente

Wir sind Menschen. Wir sind emotional. Gelingt es dir, deine Leser auf emotionaler Ebene anzusprechen, kannst du sie in deinen Bann ziehen. Versuche deshalb, deine hochwertigen Inhalte in persönlichen Geschichten zu verpacken, in denen deine Leser sich selbst wiederfinden können.

Erwartungen übertreffen

Versuch mit deinem Beitrag die Erwartungen deines Lesers zu übertreffen. Wenn der Leser sich wundert, dass er solch umfangreiche Inhalte kostenfrei zur Verfügung gestellt bekommt, dann hast du alles richtig gemacht.

Schritt 7: Bilder optimieren

Wesentlicher Teil deines 10X-Content sind Bilder und andere Visuelle Elemente. Um die On Page Optimierung voranzutreiben, sollten einige Vorkehrungen getroffen werden.

Komprimieren

Je geringer die benötigte Speicherkapazität der visuellen Inhalte deiner Webseite, desto schneller die Ladezeiten. Mit Tools wie tinypng.com lassen sich Bilder innerhalb weniger Sekunden maßgeblich komprimieren. Content-Management-Systeme wie WordPress bieten jedoch auch einige Plugins an, mit denen sich Bilder direkt im Back-End deiner Webseite komprimieren lassen.

Tiny PNG Screenshot

Alt-Text & Titel

Von Außen betrachtet scheint der Alternative Text und der Titel eines Bildes nicht besonders relevant zu sein, da Nutzer sich das Bild anschauen und den Blick nicht auf den Titel lenken. Den Alt-Text sehen sie meist gar nicht. Dennoch spielen beide für die On Page Optimierung eine nicht unbedeutende Rolle. Damit die Crawler besser verstehen können, was auf den Bildern zu sehen ist und wie die Bilder in Zusammenhang mit den anderen Inhalten der Webseite stehen, sollten die Alt-Texte und Titel mit relevanten Keywords versehen sein.

Bilder-Sitemap

Bilder, die auf der Webseite über JavaScript-Formulare aufgerufen werden, können vom Crawler häufig nicht gefunden werden. Damit dies doch gelingt und Bilder auch in den Bilder-Suchergebnissen angezeigt werden, kann eine Image-Sitemap eingerichtet werden.

Schritt 8: URLs optimieren

Linkstrukturen nehmen ebenfalls Einfluss auf die On Page Optimierung. Was du dabei beachten solltest, das möchten wir dir nun zeigen.

SSL-Zertifikat einrichten

SSL-Zertifikate vergewissern den Nutzer, dass die Verbindung zum Server geschützt und verschlüsselt ist. Die meisten Domain-Anbieter fügen ihren Abonnements eine kostenfreies Zertifikat bei. Auf letsencrypt.org erhältst du kostenfrei eines.

301-Weiterleitungen

Im Screenshot oben habe ich dir erzeigt, dass 404-Seiten entstehen, wenn URLs geändert, aber keine 301-Weiterleitungen eingerichtet werden. Achte deshalb darauf, bei jeder Änderung eines Links deiner Webseite, eine Weiterleitung zu aktivieren. Dazu stehen dir bei den üblichen Content Management Systemen ebenfalls Plugins zur Verfügung.

Evergreen

Zeitlich gekennzeichnete Inhalte laufen Gefahr, durch die Crawler mit der Zeit als irrelevant betrachtet zu werden. Vermeide daher Angaben von Daten in der URL und generell in den Meta-Daten deiner Inhalte.

Schritt 9: Los gehts!

Wir hoffen, wir konnten dir einen umfangreichen Überblick über die On Page Optimierung verschaffen und wünschen dir nun viel Erfolg bei der Umsetzung.

Falls du noch Fragen hast, melde dich gerne unter hallo@dype.me

Dein Dype-Team!