DieDenker Menu up
5 praktische SEO-Tipps für eine Top Position bei Google

Wie Google Dir bei der Suchmaschinenoptimierung hilft

Die Denker®
25 September 2017

Wer das Google-Ranking seiner Website verbessern möchte, muss diese für Suchmaschinen optimieren. Das ist die wichtigste Maßnahme für einen sicheren und erfolgreichen Internetauftritt. Die Suchmaschinenoptimierung (SEO) ist ein wesentliches Tool, um bei einer Suchanfrage bei Google von potentiellen Kunden als erstes angezeigt zu werden. Und die Google-Platzierung folgt bestimmte Regeln, denen sich jeder Web-Nutzer unterwerfen muss, der in der Google-Welt präsent sein will, egal ob Unternehmen oder Privatperson. In dem folgenden Artikel erfährst Du 5 praktische SEO-Tipps und wie Du damit bei Google aufsteigst.

Webseite bei der Search Console anmelden

Die Google Search Console ist ein kostenloses Servicetool von Google für die Überwachung und Analyse eigener Website. In der Search Console können unterschiedliche Konfigurationen an Webseiten vorgenommen, Berichte angesehen sowie Optimierungen durchgeführt werden. Außerdem hilft die Search Console bei der Überprüfung der Webseite auf Fehler im Code, in der Sitemap, bei internen Links oder in der URL-Struktur.

Zusätzlich können die Links und Suchanfragen mit denen Nutzer auf die Seiten kommen, angezeigt werden, sowie das Crawl-Verhalten der Googlebots. Zu weiteren Funktionen von Search Console zählen die Webseite-Benachrichtigungen bei möglichen Problemen auf der Webseite, beispielsweise bei unnatürlichen Backlinks oder Malware, die auf der Webseite installiert wurden. Auch bei Server-Problemen oder bei manchen Software Updates informiert Google die Google Search Console.

Die Daten der Google Search Console lassen sich mit anderen Google-Tools, beispielsweise Google Analytics oder Googe AdWords verknüpft werden.

Es lohnt sich immer ein Blick in die weiteren Funktionen von Google Search Console, denn Google hier noch viele weitere Analysen zur Verfügung stellt.

Um die Search Console zu nutzen, muss man die Webseite zunächst anmelden. Die Anmeldung erfolgt schnell und einfach. Hierfür benötigt man ein gültiges Google-Konto. Nach der Anmeldung kann man auf „Property hinzufügen“ klicken und die Domain eingeben. Sobald die Seite von dem Eigentümer verifiziert wird, kann die Anwendung losgehen.

Analytics Konto erstellen

Ein wesentlicher Aspekt aller erfolgreichen Online-Marketing-Maßnahmen ist ein funktionierendes Webtracking. Eine sehr gute Möglichkeit die Zugriffzahlen auszuwerten, bietet Google-Analytics. Google Analytics stellt fest, woher die Nutzer Deiner Webseite kommen, welche Bereiche Deiner Webseite sie am meisten interessieren und wie oft und lange Deine Nutzer auf den einzelnen Seiten bleiben.

Das Erstellen eines Google-Analytics Konto ist ziemlich einfach. Eine informative und aufschlussreiche Anleitung wird von Google kostenfrei zur Verfügung gestellt. Nach der Anmeldung der Seite, kann man die Tracking-ID in der Seite einbinden. Hierfür gibt es unterschiedliche Möglichkeiten. Es empfiehlt sich aber die Integration über den Tag Manager durchzuführen. Auch in diesem Fall bietet Google hierfür eine genaue Beschreibung einzelner Schritte.

Natürlich ist es empfehlenswert sich noch weitere Funktionen von Google Analytics anzuschauen, die sich für die Suchmaschinenoptimierung einsetzen lassen.

Standard-Domain festlegen und doppelte Inhalte vermeiden

Um eine gute Platzierung in den Suchergebnissen zu erlangen, muss man besonders auf Inhalte Deiner Webseite achten. Denn doppelte Inhalte sind bei Google nicht beliebt und können unter Umständen zu einem schlechten Ranking bei Suchmaschinen führen und Indexierung von Suchmaschinen erschweren.

Man unterscheidet zwischen einem internen Duplicate Content (duplizierte Inhalte auf der eigenen Seite) und einem externen Duplicate Content (Duplicate auf fremden Webseiten).

Eine der häufigsten Ursachen für doppelte Inhalte auf der Seite ist die Aufrufbarkeit der Seite sowohl mit als auch ohne „www“. Um es zu vermeiden, empfiehlt es sich eine Standarddomain für die Optimierung festzulegen. So werden die Links auf einer Domain gebündelt und die Inhalte sind immer nur unter einer URL aufrufbar.

Daher ist es ratsam direkt zu überprüfen, ob die Seite mit und ohne „www“ erreichbar ist. Falls Start-Unterseiten über beide Versionen aufrufbar sind, muss eine Version via Status Code 301 auf die andere Version weitergeleitet werden.

Title Tags und Meta Descriptions

Der Title-Tag zählt zu den wichtigsten Keyword-Trägern einer Webseite. Bei der Gestaltung des Title einer Webseite ist es wichtig, dass jede URL einen unterschiedlichen und einzigartigen Title besitzt. Das Keyword, zu dem man die URL primär ranken möchte, sollte sich an erster Stelle des Title befinden. Dies ist ein gewichteter Rankingfaktor. Denn der Title Tag wird in den Suchergebnissen angezeigt und hat einen hohen Einfluss auf die Klickrate.

Zudem sollte darauf geachtet werden, dass der erfolgreiche Title nicht mehr als aus ein oder zwei Sätzen besteht, natürlich wirkt und einen informativen Mehrwert für den User bildet, also zum Klicken animiert.

Im Zusammenspiel mit einer optimierten Meta-Description kann man die Klickrate wesentlich erhöhen. Denn die Meta-Description ist ein erster Indikator über den Inhalt der Webseite. Die Meta-Description hat einen indirekten Einfluss auf das Ranking der Webseite. Denn SEO-relevante Meta-Elemente werden vom Crawler geprüft und für die Indexierung herangezogen.

Da die Meta-Description wie eine Visitenkarte funktioniert, sollte sie verständlich und informativ formuliert werden. Am besten integrierst Du einen klaren „Call-to-Action“, der den User auf Deine Webseite lockt. Es lohnt sich, in die Meta-Description die Keywords einzubauen und dazu noch ein oder zwei Sätze zu schreiben, die präzisen Informationen über Deine Webseite (Inhalte Deiner Webseite) liefern. Damit lässt sich die Meta-Description mit einer kostenlosen Werbefläche vergleichen, mit der man Nutzer für Deine Webseite begeistern kann.

Robots.txt Datei und Meta Tags Robots

Die Robots.txt ist eine kleine Text-Datei, die Crawler der Suchmaschinen über die eigene Webseite steuert. Die Robots.txt liegt immer auf der obersten Verzeichnisebene auf dem Server der Domain. Mit Hilfe den bestimmten Befehlen kann man die Suchmaschinen-Bots bitten, bestimmte Bereiche der Webseite nicht zu crawlen. Es gibt Anweisungen „allow“ und „disallow“, die bestimmen, ob die gesamte Domain gecrawlt werden darf oder nicht. Der Eintrag in der Robots.txt besteht aus zwei Teilen. Zunächst wird mitgeteilt, für welchen User Agent (Robot) die Anweisung gilt, danach wird die Anweisung gegeben:

User-agent: Googlebot

Disallow: /cms/

Dies bedeutet: der Webcrawler von Google darf das Verzeichnis /cms/ nicht crawlen.

Alternativ zur Robots.txt Datei können auch Meta –Tags zur Steuerung von Crawlen angewendet werden. Dafür kann man die Anweisungen geben, ob die Seite indexiert werden darf, ob Links verfolgt werden sollen, ob die Seite gesperrt werden darf. So wird beispielsweise die Webseite mit dem Tag „noindex“ von Suchmaschinen nicht indexiert.

Um kurz zusammenzufassen, gibt die Robots.txt den Crawlern den groben Rahmen vor und Meta –Tags vervollkommnen diesen und geben für einzelne HTML-Seiten genaue Anweisungen.

FAZIT

Wenn man doppelte Inhalte vermeidet, Title Tags und Meta Descriptions informativ und werblich formuliert und optimiert, wenn die Webseite crawlen lässt und die Suchmaschinen die Webseite indexieren können und dürfen, dann ist die erste Optimierungsphase Deiner Webseite abgeschlossen. Die Auswertung der Daten aus der Google Search Console hilft mögliche Fehler zu erkennen. Google Analytics definiert Deine Ziele und trägt dazu bei, die Webseite kundenfreundlicher zu gestalten, was ein wesentlicher Aspekt für ein besseres Ranking bei Google ist.

Schreibe einen Kommentar
Kommen Sie zu uns!
Lassen Sie uns zusammenarbeiten