Hast Du Dich je gefragt, warum Google ständig Algorithmus-Updates veröffentlicht?
Weißt Du, was es mit den Google Algorithmus-Änderungen auf sich hat?
Kein SEO oder Content Marketer kann genau voraussagen, wie ein zukünftiges Update aussehen wird. Selbst manche Mitarbeiter bei Google verstehen nicht alles, was mit der meist genutzten Suchmaschine des Internets geschieht.
Diese Unübersichtlichkeit stellt ein Problem für intelligente Webseitenbetreiber dar: Es gibt ungefähr 200 Google Rankingfaktoren. Auf welche solltest Du Dich nach jedem großen Google Ranking Algorithmus-Update konzentrieren?
Google hat vier große Algorithmus-Updates veröffentlicht: Sie heißen Panda, Penguin, Hummingbird und Pigeon (in chronologischer Reihenfolge). Zwischen diesen großen Updates haben Google-Ingenieure einige Algorithmus-Tweaks vorgenommen, die nicht so stark beworben wurden. Trotzdem hatten sie einen Einfluss auf das Ranking Deiner Webseite in den Suchergebnissen.
Übersicht Google Algorithmus-Änderungen
Bevor Du das Ausmaß jedes einzelnen Algorithmus-Updates vollständig verstehen kannst, musst Du über ausreichend praktische Kenntnisse über Suchmaschinen-Algorithmen verfügen.
Der Begriff „Algorithmus“ bezieht sich auf eine logikgestützte, schrittweise Methode zur Lösung eines speziellen Problems. Im Fall einer Suchmaschine ist das Problem, „wie man die relevantesten Webseiten für diese bestimmte Reihe von Keywords (oder Suchbegriffen findet).“ Mit Hilfe des Algorithmus findet, rankt und liefert Google relevante Ergebnisse.
Google ist die #1 Suchmaschine im Netz. Sie entwickelte sich als solche, da sie sich darauf konzentrierten, die besten Ergebnisse bei jeder Suche zu liefern. Wie Ben Gomes, Googles Vizepräsident der Abteilung Engineering, sagte: „Es ist unser Ziel, Dir schneller die genaue Antwort zu liefern, nach der Du suchst.”
Infolge der Algorithmus-Änderungen wurden viele Webseiten mit einem schlechteren Ranking bestraft, wohingegen andere Webseiten eine Welle des Organic Traffic und eine Verbesserung des Ranking erlebten.
Kurzer Hintergrund: Algorithmus-Änderungen können klein oder groß sein – aber meistens klein. Im Jahr 2014 führte Google ungefähr 500 Änderungen am Algorithmus durch. Nach jedem dieser Tweaks verlor eine große Anzahl an Webseiten ihr Ranking.
Zehn Jahre zuvor, im Februar 2004, gab Google das Brandy Update heraus. Eine große Algorithmus-Änderung. Brandys wesentliche Schwerpunkte waren eine erhöhte Berücksichtigung von Link-Ankertexten und etwas, was sich “Latent Semantic Indexing” nennt – im Grunde genommen bedeutet dies, andere Seiten der Webseite anzusehen, um zu bewerten, ob sie die Suchbegriffe, neben der indexierten Seite, beinhalten.
Schließlich verschob sich Googles Schwerpunkt auf die Analyse und Intention eines Keywords, anstatt nur das Keyword selbst zu betrachten.
Schaut man noch weiter zurück, sieht man, dass Google zahlreiche Änderungen im Jahr 2000 machte, einschließlich der Markteinführung der Google Toolbar und einen wichtigen Tweak, bekannt als “Google Dance.” Was allerdings die Folgen von SEOs bei Business Webseiten betrifft, hatten diese Updates kaum Einfluss auf die Suchergebnisse.
Wenn Du bei diesen Algorithmus-Änderungen auf dem neuesten Stand sein willst, kannst Du die gesamte Geschichte von Googles Algorithmus-Änderungen nachlesen.
Google benötigt große Datenvolumen, um bessere Entscheidungen treffen zu können. Je mehr relevante Ergebnisse bei der Suche für ein besonderes Keyword erhalten werden, umso genauer sind die Daten, die Google für den Benutzer extrahieren und liefern kann.
Deswegen haben diese Änderungen auch die mobilen Suchergebnisse beeinflusst. Googles kürzliche Änderungen, verbunden mit der explosionsartigen vermehrten Nutzung von Mobilgeräten, waren maßgeblich für Suchmaschinen-Marketer.
In diesem Artikel konzentrieren wir uns auf die vier großen Google Algorithmus Faktoren. Jedes dieser Updates hatte und hat weiterhin eine erhebliche Auswirkung auf das Suchmaschinen-Marketing, on-page SEO und die allgemeine Content-Strategie Deiner Webseite. Wir werden folgende Themen ansprechen:
- Das Panda-Update
- Das Penguin-Update
- Das Hummingbird-Update
- Und die aktuellste Algorithmus-Änderung, Google Pigeon
Die zentralen SEO-Vorteile von Google Algorithmus-Änderungen
In den letzten Jahren konnten wir die positive Wirkung der Panda, Penguin, Hummingbird und Pigeon Algorithmus-Änderungen bei SEO beobachten. Einige dieser Vorteile sind:
Googles Verpflichtung zu Nutzerfreundlichkeit: Merke Dir Googles Ziel: allen Benutzern helfen, die richtige Information, die sie suchen, so schnell wie möglich zu finden. Diese Updates, insbesondere Panda, festigen Googles Verpflichtung dem Nutzer gegenüber.
Obwohl von Google noch viel mehr getan werden kann, um die Suchergebnisse zu verbessern, stehen die Chancen gut, dass Du bei Deiner Suche relevante und informative Ergebnisse auf der ersten Ergebnisseite von Google finden wirst.
Nehmen wir beispielsweise an, Du suchst nach beste Kameramarken. Deine Top-Ergebnisse beinhalten voraussichtlich diese Suchbegriffe oder sehr ähnliche Synonyme:
Verbesserte Rankings für ausführlichen Content – serpIQ stimmt zu, dass bei modernem SEO gilt: „je länger, umso besser“. Längerer Content dominiert heutzutage gewöhnlich die Seiten der Suchmaschinenergebnisse.
Vor Google Panda konnte dünner Content im Ranking einen guten Platz einnehmen – und tat es meistens auch. Content-Autoren konnten am laufenden Band Artikel oder Blogeinträge mit 300 Wörtern produzieren und damit in Google auf #1 ranken – und dort monatelang bleiben. Diese Zeiten sind vorbei. Poste also langen Content, wenn Du Deine Rankings verbessern willst, sagt Brian Dean.
Content Farms (Webseiten, die dünnen Content von geringer Qualität häufig erstellen und schnell veröffentlichen) waren die Hauptschuldigen. Webseiten wie EzineArticles, ArticleAlley und Buzzle verloren ihre Rankings, obwohl sie alte Domain-Namen hatten. Ihr Content konnte keine sinnvollen, relevanten und langfristigen Lösungen anbieten.
Heutzutage bevorzugt Google ausführliche Content-Elemente, die voraussichtlich nützlich bleiben. Beispielsweise ist einer der Artikel dieses Blogs auf #4 bei einem in-demand Keyword-Satz:
Vorteile von neuem Content – Wenn Du neuen Content auf Deiner Webseite veröffentlichst, gibt Google Deiner Webseite eine Bewertung. Nach einiger Zeit wird dieser Neuheitsstatus nachlassen, weshalb Deine Seite dann neuen Content benötigt.
Cyrus Shepard vermerkt, dass “der Neuheitsstatus ein Content-Element bei bestimmten Suchanfragen fördern kann”, auch wenn dies dann im Laufe der Zeit abbaut. Der Neuheitsstatus deiner Webseite wird zunächst bewertet, wenn die Google-Spider deine Seite crawlt und indexiert.
Also: Wenn Du Deinen Blog oder Deine Webseite regelmäßig mit relevantem, gut recherchiertem und ausführlichem (2000+ Wörter) Content updatest, dann solltest Du von Google verbesserte Rankings und vermehrte reale Besucherzahlen erwarten können. Aus dem gleichen Grund ist es schwer für Webseiten, die unregelmäßig oder nur sporadisch veröffentlichen, eine solide Positionierung in Google beizubehalten.
Die Mehrheit der beliebten Webseiten postet mindestens einmal die Woche neuen Content und manche Webseiten, wie Moz, veröffentlichen sogar jeden Tag.
Um den Neuheitsstatus ständig zu fördern, veröffentlichen manche beliebte Marken wie Mashable täglich mehrere detaillierte Content-Elemente.
Markenbewusstsein – Das mag vielleicht nicht offensichtlich sein, aber die Google Algorithmus SEO Änderungen unterstützen Markenbildung.
Bevor Google damit anfing, Seiten zu bestrafen, die Keyword-reiche Ankertexte bei internen Links nutzten, funktionierte die Über-Optimierung. Aber SEO hat sich entwickelt und der Linkaufbau sollte nicht der zentrale Schwerpunkt sein (obwohl dies auch wichtig ist). Moz rät, dass 17 % Deiner Ankertexte Markennamen sein sollten.
Unternehmensorganisationen, Kleinunternehmer und Blogger sind sorgfältiger bei der Nutzung von Ankertexten geworden. Erstelle Links, die Deine Marke und Onlinerelevanz verbessern und vermeide das Erstellen von Links zur oberflächlichen Verbesserung Deiner Organic Rankings.
Sieh dir BeardBrand.com an. Ihr zentrales Keyword (bestes Bartöl) ist derzeit auf der ersten Seite der Google-Ergebnisse.
Viele ihrer Ankertext-Sätze beinhalten Markennamen und Domain URLS. Das ist das Ergebnis, das ich von OpenSiteExplorer erhalten habe:
Schauen wir uns nun die Google Algorithmus-Updates genauer an…
Google Panda
Von Panda hast Du mit Sicherheit schon gehört. Wenn Du nicht gerade ein langjähriger SEO-Experte bist, der täglich News über Google liest, dann bist Du wahrscheinlich nicht mit den Details vertraut.
Das Google Panda-Update revolutionierte SEO, indem es die Aufmerksamkeit jedes Unternehmens auf sich zog, das auf die Leadgenerierung und Verkäufe auf Google angewiesen ist.
Eine wichtige Lektion, die wir gelernt haben, ist, dass SEO niemals konstant ist. Es entwickelt sich ständig weiter und die heutigen „Best Practices“ können morgen schon veraltet sein. Wer hätte letztendlich geglaubt, dass die exakte Übereinstimmung bei Domain-Namen von Google bestraft wird?
Was ist das Panda-Update? Panda wurde nach dem Google Ingenieur Biswanath Panda benannt.
Im Februar 2011 wurde der erste Suchfilter, der zum Panda-Update gehörte, veröffentlicht. Dies ist im Grunde genommen ein Content Quality Filter, der auf schlechte Qualität und dünne Webseiten abzielte, um zu verhindern, dass diese ein gutes Ranking bei Googles Top-Suchergebnisseiten (SERPs=search engine results pages) erhielten.
Immer, wenn ein großes Panda-Update durchgeführt wurde, bemerkten Webseitenbesitzer entweder einen Abfall oder einen Anstieg beim Organic Traffic und den Rankings.
Das Panda Algorithmus-Update veränderte die Welt der SEO. Es veränderte die Content-Strategie, Keyword-Recherche und Keyword-Targeting. Es veränderte sogar die Art, wie Links aufgebaut werden, da hochwertige, relevante Links, die auf eine Webseite führen, wertsteigernd wirken.
Google konnte jetzt genauer bestimmen, welche Webseiten „spam-artig“ waren und welche für den Besucher als nützlich erachtet werden würden.
Vor Panda konnte schlechter Content recht hoch ranken oder sogar Googles Top-Ergebnisseiten dominieren. Panda 1.0 wurde entwickelt, um Content Farms zu bekämpfen. Google sagte, das Update beeinflusste 12 % der Suchen in den USA.
Anmerkung: Panda wird Update genannt, da es die Filter regelmäßig aktiviert. Jedes Mal, wenn es aktiv ist, ändert sich die Form des Algorithmus.
Mit anderen Worten: Hochwertiger Content wird bei den Suchergebnissen wiederkehren, wohingegen Content-Seiten, die dem vorherigen Update entgangen waren, nun durch das Netz des Pandas gefangen werden.
Seit 2011 gab es alle 1 bis 2 Monate ein neues Panda-Update, insgesamt 26 Updates seit dem 14. Februar 2011. Diese Zahl ist möglicherweise nicht vollkommen korrekt, da es zwischendurch viele kleinere Tweaks gab. Es liegt aber in diesem Rahmen.
1) Panda 1.0 Update: Der Suchfilter zielte auf Content Farms ab – die Seiten, die viele Autoren beschäftigen, die schlechten Content mit spezifischen Keywords produzieren, in dem Bestreben, unter den zehn besten Top-Ergebnissen in Google zu landen. Dieses Update hatte es vor allem auf amerikanische Webseiten abgesehen und beeinflusste 12 % der Suchergebnisse.
Dies bedeutet jedoch nicht, dass Webseiten mit vielen Autoren spam-artig sind. Moz hat zum Beispiel hunderte von Autoren und rankt dennoch in den Top-Ergebnissen von Google, weil sie sicherstellen, dass der Content für die Leser von Wert ist.
Mit anderen Worten: Gut recherchierter, ausführlicher Content, der auf Facebook, Twitter, Pinterest, Google+ und den anderen großen sozialen Plattformen geteilt wird, wird weiterhin gut ranken – vielleicht sogar besser als zuvor.
2) Panda 2.0 Update: Dieses Update, das im April 2011 gestartet wurde, war auf internationale Suchanfragen ausgerichtet, auch wenn es einen Einfluss auf 2 % der amerikanischen Suchanfragen hatte.
Dieser Filter beeinflusste auch Suchanfragen auf google.co.uk und google.com.au und englische Anfragen bei nicht englischsprachigen Ländern wie google.fr, google.cn, wenn der Benutzer englische Ergebnisse wählte.
Amit Singhal, verantwortlich für die Suchqualität bei Google, teilte Vanessa Fox mit, dass Google darauf „konzentriert war, den Nutzern hochwertige und relevante Seiten im Web zu zeigen“.
3) Panda 2.1 – 2.4: Im Mai, Juni und Juli 2011 (ungefähre Daten) gab es kleine Updates, bei denen Google mehr Signale einarbeitete, die dabei helfen, die Qualität einer Seite zu beurteilen.
Qualitativ schlechter Content und schlechte Seiten wurden weiter bestraft, während diese, die hart daran arbeiteten, reichhaltigen und interessanten Content zu produzieren, einen Boost beim Organic Traffic erfuhren.
Panda 2.3 war klein und konzentrierte sich auf die Benutzererfahrung. Blogger und Webseitenbetreiber, die Content schrieben und veröffentlichten, der sich mit dem Nutzer beschäftigte, und die Seitennavigation verbesserten, profitierten von diesen Änderungen.
4) Panda 2.4: Dieses Update wurde am 12. August 2011 gestartet und beeinflusste ungefähr 6-9 % der Suchanfragen. Der Schwerpunkt lag auf der Verbesserung der Site Conversion Rates und Site Engagement, sagt Michael Whitaker.
Vor dem Update erhielt Michael Whitakers Webseite 3.000 individuelle Besucher.
Nachdem das Panda 2.4 Update gestartet wurde, verringerte sich sein Traffic auf 207.
5) Panda 3.0: Dieser Suchfilter wurde am 17. Oktober 2011 eingeführt und am 21. Oktober 2011 offiziell angekündigt. Dieses Update brachte große Webseiten höher auf den SERPs – wie beispielsweise FoxNews, Android.
Nach Panda 2.5 begann Google, seinen Algorithmus öfter zu aktualisieren. Dies nennt man „Panda Flux“.
Um mit Deinem Content auf der sicheren Seite zu sein, empfiehlt Express Writers die folgenden Schritte:
6) Panda 3.1 ging am 18. November 2011 online.
Es war klein und beeinflusste ungefähr 1 % aller Suchanfragen. Auf den ersten Blick scheint diese Zahl sehr gering. Allerdings ist es dennoch beträchtlich, wenn man die Anzahl der jährlichen Suchanfragen betrachtet.
Jeder dieser Algorithmus-Änderungen resultierte daraus, dass Benutzer keine relevanten und nützlichen Informationen erhielten. Als Werbemittelunternehmen möchte Google Geld erwirtschaften, aber wenn sie ihre Benutzer nicht zufriedenstellen, wie sollen sie das tun?
7) Panda 4.0: Am 20. Mai 2014 tweetete Matt Cutts, dass Google Panda 4.0 veröffentlichen würde. Es war die nächste Generation von Panda und es brachte Gewinner und Verlierer hervor.
Dieses Update hatte eine große Wirkung. Ebay verlor erhebliche Anteile der Top 10 Rankings, über die es zuvor verfügte.
Panda 4.0 war in erster Linie auf große Webseiten ausgerichtet, die die Top 10 Ergebnisse mit Seed Keywords dominierten.
Wenn Du heute eine Webseite erstellst, musst Du konsistent ausführlichen Content schreiben und veröffentlichen. Dieser Content muss wertsteigernd und interessant für den Leser sein, sowie ein spezifisches Problem lösen. Wenn Du das nicht schaffst, wirst Du keine Leser ansprechen und die Conversion Rate wird niedrig sein. Die größten Verlierer nach der Veröffentlichung von Panda 4.0 waren:
Wie bei jedem Panda-Update gibt es auch Gewinner. Hier ist eine Liste von Search Engine Land:
Allgemein hat nicht jeder Sektor oder jede Branche bei Panda 4.0 verloren. Die größten, die man erwähnen sollte, sind:
Faktoren, die zu einer Panda Penalty führen (und was man tun kann): Da manche Webseiten eine Erhöhung der Organic Rankings und Traffic erfuhren, lohnt es sich zu fragen: Wie wird eine Webseite anfällig für Panda-Attacken? Hier sind sechs Faktoren, die schuld sein könnten, sowie Vorschläge, das eigentliche Problem zu beheben und die Gnade von Google wiederzuerlangen:
Duplizierter Content – Hast Du wesentliche Elemente des Contents auf deiner Webseite, die dieselben sind? Das kann viele Probleme hervorrufen, vor allem beim SEO und für Besucher der Webseite.
In diesem Video erklärt Matt Cutts, dass das Verdoppeln von Content an sich deine Webseite nicht beeinflusst, außer wenn es spam-artig ist.
Es ist nicht empfehlenswert, duplizierte Seiten umzuleiten. Wenn die Google-Spiders duplizierten Content auf Deiner Webseite entdecken, werden diese zunächst weitere Elemente Deiner Webseite analysieren, bevor sie Dich bestrafen.
Somit ist es ratsam, jede Form von Content-Duplizierung zu vermeiden und den Fokus auf einzigartigen, hilfreichen und reichen Content zu legen. Lasse Dich nicht täuschen: Es gibt keine Balance zwischen originalem und dupliziertem Content.
Falls derselbe Content auf Deinen Domain-Namen und URLs auftaucht, könnte dies ein Problem werden.
Vor einiger Zeit erklärte Greg Gothaus mit Hilfe von untenstehender Abbildung, warum dies ein Problem ist. Da der Content derselbe ist, obwohl die URLs sich etwas unterscheiden, „denkt“ Google, dass Du duplizierten Content hast.
Glücklicherweise ist es recht einfach, duplizierten Content auf deiner Webseite oder deinem Blog zu finden. Folge einfach den folgenden Schritten:
Schritt #1: Besuche das Tool Duplicate Page Finder. Füge deine Site-URL ein. Füge eine weitere URL ein, die Du auf duplizierten Content prüfen möchtest – beispielsweise yoursite.com/about.
Schritt #2: Analysiere Deine Ergebnisse. Wenn die Ergebnisse anzeigen, dass Deine Seiten duplizierten Content enthalten, dann kannst Du das Problem auf zweierlei Weise beheben: Entweder (1) überarbeite eine der Seiten so, dass beide Seiten 100 % originalen Content enthalten oder (2) füge einen No-index Tag hinzu, sodass die Google-Spider es ignorieren und nicht indexieren oder Link-Juice an die andere Seite weitergegeben wird.
Ein weiteres Problem, über das Du stolpern kannst, ist, dass Dein Content auf der Seite eines anderen dupliziert wird. Um duplizierten Content außerhalb deiner Webseite zu finden, führst Du folgende Schritte aus:
Schritt #1: Gehe zu Siteliner.com. Füge Deine Site-URL ein und klicke auf den „Los“-Button.
Schritt #2: Analysiere duplizierte Content-Seiten. Scrolle auf der Ergebnisseite nach unten. Dort findest Du die Ergebnisse bei „Duplizierter Content“.
Wenn Du auf den Link „Duplizierter Content“ geklickt hast, erhältst Du eine Liste aller Seiten, die Du einzigartig machen solltest, und es wird angezeigt, wie viel einzigartiger.
Falls Du Gastbeiträge oder gesponserte Artikel auf Deinem Blog akzeptierst, solltest Du sicherstellen, dass Du zunächst auf duplizierten Content prüfst. In dem Moment, in dem Du den Content erhältst, lasse ihn durch eines der zahlreichen Überprüfungstools für duplizierten Content/Plagiate im Web laufen, beispielsweise smallseotools.com.
Nachdem Du Deinen Content mit dem Tool überprüft hast, wirst Du eine Analyse der einzigartigen Elemente vs. duplizierte Phrasen, Sätze und Paragraphen erhalten.
Anmerkung: Sehen wir uns den Screenshot oben an. Wir sehen, dass 92 % des Contents einzigartig ist. Das ist ein recht guter Wert, mit dem Du gut leben kannst.
Wenn Dein Wert allerdings zwischen 10 und 70 % liegt, solltest Du den Content entweder verbessern oder löschen. Exzessives Duplizieren von Content kann beim nächsten Panda-Update in einer Google Penalty für Deine Webseite resultieren.
Es ist ebenso wichtig anzumerken, dass, nur weil Du 100 % einzigartigen Content auf Deiner Seite hast, Dich das nicht automatisch höher rankt. Wie Frank Tankington richtig bemerkte: „Wenn es fünf Artikel gibt, die sich sehr ähnlich sind, ist es egal, welcher Artikel zuerst veröffentlicht wurde, der mit den meisten Backlinks erscheint auf den Top-Seiten der SERPs.“
Es geht jedoch nicht mehr darum, die „meisten“ Backlinks zu haben. In dieser Post-Penguin-Ära geht es um bewährte und relevante Backlinks.
Inbound-Links von schlechter Qualität – Wenn Du festgestellt hast, dass Dein SEO fruchtet, und Du zuversichtlich bist, dass Dein Webseiten-Content nützlich und einzigartig ist, dann ist der nächste Schritt, die Inbound Links zu prüfen.
Links mit schlechter Qualität, die auf Deine Seiten verweisen, können Dich ebenso stolpern lassen, da es bei Penguin 2.1 darum ging, den Schwerpunkt der Suchmaschine auf Qualität über Quantität zu legen.
Laut Kristi Hines kann Dein alter schlechter Content Dich immer noch heimsuchen. Es ist daher nicht genug, gute, qualitative Links zu bauen. Die, die Du gebaut hast, als Du Dein Marketing begonnen hast, können ebenfalls Einfluss auf Deine Rankings haben.
Die hässliche Wahrheit ist: Wenn Deine Webseite eine große Anzahl an Inbound-Links hat, die von irrelevanten Webseiten kommen (wie Content Farms oder Webseiten aus einer anderen Nische), dann steigt die Wahrscheinlichkeit, dass Du eine Google Penalty erhältst.
In dieser Penguin Ära musst Du den Fokus auf eingehende Links legen, die vor allem von Webseiten mit dem gleichen Thema wie auf Deiner Webseite kommen. Die folgende SEM Blogtabelle zeigt uns das sehr deutlich.
Aber bevor Du etwas an den schlechten Links ändern kannst, musst Du sie zunächst einmal finden. Mit anderen Worten: Du musst herausfinden, wie viele Backlinks Du seit Bestehen Deiner Webseite gebaut oder erworben hast. Zum Glück ist dies recht einfach. Folge einfach diesen Schritten:
Schritt #1: Gehe zu OpenSiteExplorer. Gib die URL Deiner Webseite ein. Klicke auf Suchen.
Schritt #2: Klicke auf „Verknüpfte Domains“.
Schritt #3: Analysiere die verlinkten Domains.
Du kannst Toxic Links auf Deiner eigenen Seite an verschiedenen Stellen finden. Unter anderem sind Links in Deinem Seiten-Footer, Site Wide Links und Links mit über-optimierten Ankertexten gute Ausgangspunkte.
Falls Du mehr Informationen brauchst, um einen der beiden Panda-Bestrafungs-Faktoren (duplizierter Content und qualitativ schlechte Inbound-Links) zu beheben, dann lies diese hilfreichen Artikel:
- Wie erkennst und behebst Du Probleme mit dupliziertem Content auf Deiner Webseite
- Wie findest Du qualitativ schlechte Inbound-Links mit Buzzstream
Hohe Absprungrate – Der Begriff „Absprungrate“ bezieht sich darauf, wie viele Singlesite-Nutzer Deine Webseite erhält. Ein Singlesite-Nutzer liegt dann vor, wenn jemand Deine Seite besucht und dann wieder geht ohne weitere Interaktion auf Deiner Webseite (auf weitere Links klicken oder mehr Content lesen).
Eine hohe Absprungrate kann für Google bedeuten, dass die Besucher nicht das finden, was sie auf Deiner Webseite suchen oder dass sie Deine Webseite nicht als nützlich empfinden.
Wie hoch liegt eine akzeptable oder durchschnittliche Absprungrate? Die Antworten variieren je nach Branche. Was wirklich wichtig ist, ist ein Anstieg der Conversion Rates. Hier siehst Du die durchschnittliche Absprungrate sortiert nach Branchen.
Es ist möglich, die Absprungrate zu reduzieren und den Trend so umzukehren. Recruiting.com hat seine Absprungrate auf 42.84 % reduziert.
Als Faustregel gilt, dass, wenn Deine Absprungrate über 60 % liegt, dann solltest Du daran arbeiten, diese Zahl zu reduzieren. Die Absprungraten darunter sind fair. Wie sieht Deine im Vergleich aus?
Webseiten-Design und Verwendbarkeit sind die grundlegenden Faktoren, die Deine Absprungrate beeinflussen. Denke daran: Wenn User nicht einfach finden können, was sie suchen, dann nimmt Google an, dass Dein Content nicht nützlich ist. Dies ist darauf zurückzuführen, da die Google-Spider den Menschen folgen.
Wenn Du Blogleser ansprichst, werden sie auch auf Deiner Webseite aktiv, was wiederum Deine Absprungrate verringert und Deiner Webseite einen besseren Rankingwert gibt.
Absprungraten können nach einiger Zeit erheblich schwanken. Eine leicht erhöhte Absprungrate bedeutet nicht automatisch etwas Schlechtes. Es könnte durch einen großen Tweak auf Deiner Webseite verursacht worden sein. Wenn Du beispielsweise Deinen Blog umgestaltest, wird Dies wohl Deine Absprungrate temporär erhöhen, während die Nutzer sich an den neuen Look und das neue Layout gewöhnen.
Wenige wiederholte Webseitenbesuche – Wenn Besucher nur einmal auf Deine Webseite kommen, um nie mehr wiederzukehren, kann Google diesen Umstand so interpretieren, dass Deine Webseite nicht allzu relevant oder nützlich ist.
Deswegen ist es eine gute Idee, die Statistiken Deiner wiederholten Besucher zu beobachten. Logge Dich mit Deinem Google Analytics Account ein, lokalisiere Deine Statistik der wiederholten Besuche und vergleiche sie mit der Anzahl der Vormonate.
Um eine geringe Anzahl zu korrigieren, belohne Deine Besucher, wenn sie auf Deine Webseite zurückkehren. Dies kannst Du tun, indem Du nützlichen Content wie kostenlose, wertvolle Berichte oder Geschenke, wie kostenlosen Zugriff auf ein Insider-Event oder einen E-Course, bereitstellst. Halte zusätzlich Ausschau nach Methoden, wie Du die Anzahl der wiederholten Besuche erhöhen kannst und Deine Besucher zufrieden stellst, die öfter wiederkehren.
Amazon ist eine der Shopping-Sites mit der höchsten Wiederkehrrate. Wenn ein Besucher zum ersten Mal auf Amazon ist und verschiedene Produkte sucht oder anschaut, dann verfolgt Amazon diesen Verlauf automatisch. Wenn der Nutzer nun zurückkehrt, zeigt Amazon gleiche oder ähnliche Produkte an.
Amazon nutzt ebenso eine exzellente Upsell-Strategie zur Überzeugung von Menschen, ihr Produkt zu kaufen. Dies macht es einfacher für Käufer, das genaue Produkt zu finden, das sie kaufen möchten, und hält sie dazu an, ihre Bestellung sofort aufzugeben.
Wenn Deine Webseite die Besucher nicht zum Bleiben bewegen kann und sie nicht dazu bewegt, wiederzukehren, könnte sich dies negativ auf Dein Ranking auswirken.
In Deinem Google Analytics Account solltest Du auch auf die Quellen Deines Traffics achten. Viele Domains leiten vielleicht Besucher zu Deiner Webseite, aber manche senden dir mehr Besucher, die auch wiederkehren.
Achte auf Retention. Organic Referral-Quellen neigen dazu, in dieser Hinsicht zuverlässiger zu sein als Social Media-Quellen.
Better Biz führte eine dreimonatige Studie von B2B und B2C Webseiten durch, um die besten Quellen für gezielten Webtraffic festzustellen. Das sind ihre Ergebnisse:
Wie erhältst Du mehr wiederkehrende Besucher auf Deiner Webseite? Hier ein paar einfache Tricks, die helfen können:
a) Ladezeit der Webseite verringern – Wenn Du mehr wiederkehrende Besucher haben möchtest, überprüfe, ob Du die Schnelligkeit Deiner Webseite verbessern kannst. Vor allem, wenn sie langsam ist. Laut Moz „beeinflusst die Schnelligkeit einer Webseite auch die Suchrankings“. Beschleunige das Laden Deiner Webseite und Deine Besucher werden länger bleiben (und in Zukunft eher zurückkommen).
Obwohl der direkte Einfluss auf Suchrankings nicht sehr maßgeblich sein wird, wie Du unten siehst, ist es wirklich wahr, dass schnell ladende Webseiten eine bessere Nutzeranwendung erzeugen und somit der empfundene Wert Deiner Webseite besser wird.
Hier ist eine interessante Statistik: 40 % der Menschen verlassen Webseiten, die länger als 3 Sekunden laden. Eine langsam ladende Seite kann also in einer höheren Absprungrate resultieren und einer geringeren Rate der wiederkehrenden Besucher.
Als ich erkannt habe, dass Google und meine Besucher schnell ladende Seiten mögen, habe ich mich weiter mit dem Thema beschäftigt. Meine Bemühungen resultieren darin, die Ladezeit meiner Seite von 1,9 s auf 1,2 s zu verkürzen. Im Gegenzug erhöhte dies meinen direkten Traffic auf meinem Blog auf 2.000 täglich.
Hier ist die anfängliche Ladezeit vor der Optimierung:
Und hier ist das Ergebnis, nachdem das Team von StudioPress den Code nachgebessert hat:
Verbessere die Ladezeit Deiner Webseite noch heute. Folge dieser schrittweisen Anleitung.
b) Sei Nützlich – Eine von fünf Methoden, um wiederkehrende Besucher zu erhalten, ist, den Menschen zu helfen. Dein Content sollte ein spezifisches Problem lösen. Du könntest zum Beispiel ein schrittweises Tutorial schreiben für jedes Thema, das relevant für Deine Nische ist.
Wenn Du regelmäßig über SEO oder Themen über Internet Marketing schreibst, könntest Du ein detailliertes Google Analytics Tutorial zur Verfügung stellen, zusätzlich zu erklärenden Screenshots. Diese Anleitung wäre ein tolles Beispiel für einen gezielten problemlösenden Content, da viele Leute Probleme haben, GA zu verstehen,
Hoher Anteil an Boilerplate Content – Boilerplate content beschreibt den Content, den Du auf Deiner Webseite wieder benutzt. Zum Beispiel kann ein bestimmter Paragraph in einem nützlichen Artikel an mehreren Stellen Deiner Webseite wiederholt werden. Ein oder zwei dieser Paragraphen werden kein Problem darstellen, aber wenn der allgemeine Anteil an Boilerplate Content zu hoch wird, dann könnte Deine Webseite in den Rankings fallen.
In der Regel solltest Du vermeiden, den gleichen oder sehr ähnlichen Content an mehr als einer Stelle Deiner Webseite zu nutzen. Lege den Schwerpunkt auf einzigartigen Content. Das ist der einfachste Weg, Deine Rankings zu verbessern.
Eine Art von Boilerplate, die oft vorkommt, nennt sich „Hidden Content“. Wenn Du Usern eine bestimmte Seite anzeigst und andere Seiten crawlbar für Google machst, dann sieht Google dies als Boilerplate Content. Zu viel davon, und Deine Webseite wird bestraft.
Irrelevante Meta Tags – Es ist sehr wichtig, Meta Tags präzise und akkurat zu setzen, da irrelevante Meta Tags das Risiko einer Google Penalty erhöht. So kannst Du relevante Meta Tags auf den Seiten Deiner Webseite hinzufügen.
Denke daran: Meta Tags bestehen aus dem Titel, der Description und den Keywords.
Wenn Du das All in One SEO installiert hast, dann wirst Du es als einfach empfinden, Meta Tags innerhalb von drei Minuten oder weniger zu erzeugen. Erinnere Dich daran, dass Google Panda duplizierte Seiten nicht mag. Travel Blog Advice zeigt, wie einfach es ist, dieses Plug-In einzurichten.
In der Abbildung unten siehst Du, wie Pat Flynns Meta Tags spezifisch und relevant für die jeweilige Seite sind. In der Praxis des modernen SEO ist es nicht ratsam, viele Keywords zu haben, auch wenn sie alle relevant sind.
Anmerkung: Vermeide exzessives Platzieren von Keywords, auch bekannt als Keyword Stuffing. Laut David Amerland kann dies zu einer Penalty für Deine Webseite führen, wenn Panda-Updates veröffentlicht werden.
Wie von einer Panda-Attacke erholen? – Wie identifizierst und heilst Du Deine Seite von einer Panda Penalty? Wenn Deine Webseite oder Dein Blog von Panda getroffen wurde, ist Dein nächster Schritt, herauszufinden, wie das Problem oder die Probleme zu beheben ist/sind. Das kann kompliziert sein. Es gibt viele Artikel und Blogeinträge online, die die Theorie hinter den Penaltys behandeln, aber keine praxisnahen Schritte, um das Problem zu beheben.
Durch das Ergreifen von Maßnahmen stellte Portal Programas 65 % ihres Web Traffics nach dem Panda 4.0 Update. Sie haben es geschafft, indem sie einen einfachen Plan verfolgt haben, fokussiert auf Nutzererfahrung.
Wenn Du eine Verringerung beim Organic Traffic und Ranking feststellst, kannst Du recht sicher sein, dass Du von Google bestraft worden bist.
Bei Panda solltest Du es vermeiden, Lesern dünnen Content auf den Seiten Deiner Webseite zu zeigen. Stärke deinen dünnen Content oder lösche ihn von Deiner Webseite, vor allem auf den Archivseiten, die 10-100 Wörter haben.
Deinen Content zu bearbeiten ist eine einfache Methode, die Penalty von Deiner Webseite zu entfernen und Deine Webseite in eine in den Augen von Google qualitativ hochwertige Webseite zu verwandeln. Eric Enge, Vorsitzender bei Stone Temple Consulting, berichtete Search Engine Watch, dass einer seiner Kunden eine Erholung von 700 % durch das Bearbeiten und Hinzufügen von Content auf ihrer Webseite.
Verbessere Panda Qualitätsscore – Zusätzlich zum Löschen der Seiten mit dünnem Inhalt oder dem Hinzufügen von mehr Content, um sie detaillierter und hilfreicher zu machen, solltest Du auf den Panda Qualitätsscore achten.
Folge dieser Panda Qualitäts-Gleichung, um einen höheren Score zu erhalten:
- Statische Elemente
- Qualitätsüberprüfungen
- Benutzeranwendung
Die obenstehende Gleichung ist aus Google, wir können daher darauf vertrauen, dass sie uns dabei helfen, uns von einer Panda Penalty zu erholen. Untersuchen wir jedes der Elemente:
1) Statische Elemente – Jede Webseite sollte statische Elemente oder Seiten haben, die erklären, was die Webseite tut, wer dahintersteckt sowie jegliche geltende Nutzungsbedingungen. Zu den statischen Elementen gehören normalerweise: Datenschutzrichtlinien, Kontaktdaten, About und Servicebedingungen.
2) Datenschutzrichtlinien – Der meiste Content der Datenschutzrichtlinien ist wiedergekäut oder mit einem Drittanbieter-Tool generiert. Du kannst immer ein No-Index oder No-Follow Tag zu demHTML Elemente der Seite hinzufügen.
Google bevorzugt jedoch noch immer, dass Du die Seite einzigartig machst. Vermeide das Kopieren und Einfügen von anderen Quellen, da Google dies als duplizierten Content ansieht.
Wenn Du ein Drittanbieter-Tool benutzt, personalisiere und überarbeite den Content. Nachdem Du Deinen Content über Datenschutzrichtlinien generiert hast, kannst Du ihn bearbeiten. Ein guter (bezahlter) Premiumservice ist MyPrivacyPolicy.
2.1) Kontakt – Ein weiteres statisches Element auf Deiner Webseite ist die „Kontakt“-Seite. Sie ist normalerweise dünn, mit weniger als 100 Wörtern.
Es ist wichtig, dass Du entweder No-Index Tags zu dieser Seite hinzufügst oder mehr Content unter dem Kontaktformular oder der Adresse hinzufügst, da Google-Spiders Heim- und Firmenadressen, E-Mails, Autoren und Telefonnummern crawlt und speichert.
Anmerkung: Google hat ganz klar gesagt, dass „wenn nur eine oder zwei Seiten Deiner Webseite qualitativ hoch sind und die anderen als schlecht angesehen werden, dann wird Google bestimmen, dass Deine Webseite von schlechter Qualität ist.“
Jede einzelne Seite zählt. Strebe danach, statische Elemente (Kontaktseite, About-Seite etc.) reich, einzigartig und hilfreich zu gestalten.
2.2) Über – Deine „About-Seite” ist ein weiteres statisches Element, das deine Panda-Qualitätsbewertung senken oder heben kann. Weißt Du, wie man die perfekte About-Seite schreiben kann?
Kurz gesagt: Du sollst einzigartigen, wertvollen Content für diese Seite schreiben, so wie mit all den Seiten der Webseite. Erzähle eine Geschichte, um Deine Zielgruppe zu erfassen und eine Handlungsaufforderung bereitzustellen.
Eine „About“-Seite mit nur wenigen Sätzen lässt Google eventuell annehmen, dass Deine gesamte Seite von geringer Qualität ist. Ergreife die Gelegenheit und update Deine Seite. Schließlich ist es Deine Geschichte, Deine Erfahrung, Dein Nutzen und Dein Gewinn.
2.3) Servicebedingungen – Obwohl die meisten Besucher diese Seite nicht einmal anklicken werden, um sie zu lesen, ist es dennoch wichtig, sie einzigartig und Google-freundlich zu machen. Wenn Du ein Blogger bist, ist es optional diese Seite hinzuzufügen. Wenn Deine Webseite eine E-Commerce- oder Dienstleistungsunternehmens-Webseite ist, solltest Du sicherstellen, dass Du alles abgedeckt hast.
Die gleichen Regeln, denen Du gefolgt bist, als Du Deinen „Datenschutzrichtlinien“-Content erstellt hast, gilt hier. Versuche, eine einzigartige Seite der Servicebindungen zu erstellen. Gehe sicher, dass sie ausführlich ist (700-1000 Wörter) und, so gut wie möglich, interessant zum Lesen.
2.4) Qualitätsüberprüfung – In der Panda-Qualitätsgleichung, die wir zuvor betrachtet haben, ist einer der Faktoren, die Deiner Webseite dabei helfen kann, sich vor Panda Google Abstrafungen zu erholen, eine solide Qualitätsüberprüfung. Mit anderen Worten: Der Code der Webseite muss exzellent sein und heutigen Standards entsprechen.
Unpassende HTML Tags, PHP Fehler, gebrochenes JavaScript und unsachgemäße CSS-Regeln könne alle eine schlechte Benutzeranwendbarkeit hervorrufen. Wir wissen, dass Google viel Wert auf die Benutzeranwendbarkeit legt, da es Google dabei hilft, das Engagement Deiner Webseite zu messen.
Wenn Deine Webseite mit einer alten HTML-Version erstellt wurde, solltest Du erwägen, die Webseite auf HTML 5 upzugraden. Stelle sicher, dass Deine Meta Description und Title Tags einzigartig sind und relevante Keywords beinhalten, auf die du abzielst.
3) Benutzererfahrung – Da Google Panda eine webseitenweite Penalty ist, die die gesamte Webseite bewertet, solltest Du Deinen Schwerpunkt darauf legen, die Benutzererfahrung Deiner User zu verbessern. Erinnere Dich: Bei der Benutzererfahrung geht es um die Benutzer. Wenn Du Dein Kundenerlebnis verbesserst, wirst Du Dich von Deiner Panda-Attacke erholen.
Wenn Du die Benutzererfahrungen aufzeichnest, stell sicher, dass alle diese Faktoren erfüllt werden:
Wenn Deine Analyse einen Grund zur Verbesserung der Benutzeranwendung Deiner Webseite anzeigt, berücksichtige diese Fragen zu Beginn:
I) Bietest Du eine gute Benutzeranwendung an? Wenn Du ein Produkt oder eine Dienstleistung verkaufst, wie erhalten es Deine Besucher oder potentiellen Neukunden?
II) Löst Dein Content ein spezifisches Problem? Deine User werden durch ihr Engagement mit Deinem Content zeigen, wie zufrieden sie mit Deiner Webseite sind. Bleiben sie und lesen sie Deine Inhalte? Hinterlassen Sie Kommentare unter Deinen Einträgen?
III) Kannst Du Deine Navigation verbessern? Wenn User nicht ohne weiteres von einem Teil Deiner Webseite auf die Homepage navigieren können, hast Du noch einiges zu tun. Suche nach Webseiten mit hervorragender Navigation – ein gutes Beispiel hierfür ist Mindtools.com.
Von dem Moment an, wenn die Navigation Deiner Seite verbessert ist, werden sich Dein Organic Traffic und Deine Rankings erhöhen. Mache all Deine Navigationslinks klickbar und stell sicher, dass Deine Suche perfekt funktioniert.
IV) Kommen User zurück auf Deine Webseite? Wie wir bereits angesprochen haben, geht es Google nicht nur um die derzeitigen Besucher, sondern auch um die wiederkehrenden Besucher.
Wenn Dein Content erstklassig ist, kehren User zurück, da sie nicht genug kriegen können. Wenn dem nicht so ist, dann springen sie zurück, was in einem geringen Qualitätswert für Deine Webseite resultiert.
V) Wie schnell laden Deine Webseiten? Wenn Deine Webseitenladezeit unter 4 Sekunden liegt, dann ist alles gut. Wenn dies nicht der Fall ist, lässt sich noch so manches besser machen. Schaue nach Methoden, wie Du die Ladezeit Deiner Webseite durch Optimierung verbessern kannst.
Wie ermittelst Du die Ladezeit Deiner Webseite?
Schritt #1: Gehe zu tools.pingdom.com. Füge Deine Site-URL ein und klicke den „Jetzt Testen“-Button.
Schritt #2: Überprüfe die Ladezeit Deiner Webseite.
Google Penguin Update
Am 24. April 2014 gab Google das erste Penguin-Update heraus. Während das Panda-Update vor allem auf dünnen und qualitativ schlechten Content ausgelegt war, legt Google Penguin, bestehend aus einer Reihe von Algorithmus-Updates, den Schwerpunkt mehr auf Incoming Links.
Vor der Veröffentlichung von Penguin verfolgten Webseitenbetreiber, Content Marketer und Webmaster verschiedene Taktiken für den Linkaufbau.
Eine Handvoll dieser Methoden funktionieren noch, aber die Mehrheit der veralteten Linkaufbaustrategien ist tot. Laut Rival IQ wird Deine Webseite durch vier Faktoren von Penguin bestraft. Siehe dazu die unten folgende Abbildung:
I) Link-Schemata – Links sind weiterhin wichtig, aber qualitative Webseiten sind die beste Möglichkeit, Suchrankings zu verbessern.
Link-Schemata sind diese bestimmten Tätigkeiten, die auf den Linkaufbau ausgerichtet sind und Suchmaschinen manipulieren oder dazu induzieren, Deine Webseiten zu ranken. Wenn Du in die Falle tappst, Links auf Deine Webseite immer von einer anderen Webseite aufzubauen, kann es vorkommen, dass Penguin Dich bestraft.
Rap Genius, eine spezielle Webseite, die Liedtexte und Gedichte interpretiert, wurde bestraft, da Google fand, sie würden Link-Schemata nutzen, um ihre Rankings zu dieser Zeit zu verbessern.
Fazit: Vermeide alle Arten von Link-Schemata. Das Risiko ist es nicht wert.
II) Keyword Stuffing – Matt Cutts warnte bereits davor, Deine Seite mit relevanten Keywords zu füllen. Egal, wie ausführlich und leicht navigierbar die Webseite ist, Penguin wird sie sehr wahrscheinlich finden und bestrafen. In den meisten Fällen sind die Gründe leicht nachzuverfolgen, besonders wenn Du bereits schon einmal eine mit Keywords gefüllte Seite gesehen hast. Hier ist ein Beispiel:
Deiner Frau ein Geschenk zum Valentinstag zu kaufen ist ein richtiger Schritt. Dieses Jahr sollte das Valentinsgeschenk ein Weg sein, Ihr oder Ihm Deine Liebe zu zeigen. Stelle sicher, dass das Valentinsgeschenk durchdacht ist. Hier ist noch nicht Schluss. Mache es zu einem Ritual, Deiner Frau Deine Liebe zu zeigen. Egal, ob Valentinstag, Weihnachten etc. Wenn Du Deine Liebe zeigst, bekommst Du sie zurück. Wenn Du heute Deine Liebe zeigst, wirst auch Du geliebt. Bist Du bereit, das beste Valentinsgeschenk auszuwählen?
Siehst Du wie oft die Keywords in diesem dünnen Content erwähnt werden? Das ist Keyword Stuffing und verstößt gegen die Google Webmaster Richtlinien.
Benutze keine übermäßigen Keywords in Deinem Content. Versuche nicht, Deine Rankings zu manipulieren. Wenn ein bestimmtes Keyword sich nicht gut anhört oder sich nicht reibungslos an den Content anpasst, benutze es nicht.
Anmerkung: Keywords sind immer noch relevant in der Post-Panda- und Post-Penguin-Ära. Konzentriere Deinen Schwerpunkt auf die Absicht Deiner Keywords und schreibe Content, der die Emotionen Deiner Leser anspricht und ihre Probleme löst. Effektives SEO war schon immer so. Halten wir es kurz.
III) Über-Optimierung – Laut KISSmetrics „ist SEO großartig. Zu viel SEO kann jedoch Über-Optimierung auslösen“. Falls Du Deine Ankertexte über-optimierst, könntest Du von Penguin bestraft werden. Die beste Vorgehensweise sind die Integration von Social Media-Marketing und die Erhöhung von natürlichen und organischen Links auf Deinen Webseiten.
Im April 2012 veröffentlichte Google ein weiteres Update, das große Seiten bestraft hat, die Keywords und Ankertexte über-optimiert haben, sich dabei auf den Aufbau von Linkschemata eingelassen haben und andere Arten der Linkmanipulation verfolgt haben.
Ein Zeichen für Über-Optimierung ist, dass Du Keyword-reichhaltige Ankertexte für interne Links hast, wie Ankertext, der auf eine Seite auf Deiner eigenen Webseite verlinkt.
Hier ist ein Beispiel:
Erfahre mehr über Hp Pavilion 15 Laptops und seine Features.
(Links zu: example.com/hp-pavilion-15-laptops.htm)
Ein weiteres Beispiel:
Kennst Du die beste iPhone-Hülle, die auf Dich zugeschnitten ist?
(Links zu: example.com/best-iphone case-hand-crafted)
Anmerkung: Wenn Dein Ankertext direkt zu einer Seite mit einer exakten Ziel-URL verlinkt, kann dies eine gute SEO erstellen. Wenn es jedoch zu viel wird, kann es sein, dass deine Webseite wegen Über-Optimierung bestraft wird.
IV) Unnatürliche Links – Das Faszinierende an unnatürlichen Links ist, dass sie für niemanden gut aussehen – weder für Deine Leser noch für Google. Diese Links erscheinen vielleicht auf Webseiten, die ein völlig anderes Thema behandeln. Cardstore verlor sein Ranking durch unnatürliche Links, die in den Artikelverzeichnissen erschienen.
Ja, solche Links funktionierten in der Vergangenheit, und große Webseiten waren in diesem Spiel die großen Gewinner. Google Penguin zerstörte das Spielfeld für diese großen Webseiten, die dann alle ihre Vorteile für ihre harte Arbeit verloren. Die Moral von der Geschichte: Deine Links sollten natürlich sein.
Wenn Du Links kaufst oder tauschst, besteht jede Neigung, dass Ankertexte oder Links völlig irrelevant sein werden. Hier ein weiteres Musterbeispiel: Die Rankings von Overstock.com sanken bei Produktsuchen, als Google erkannte, dass die Webseite Rabatte gegen .EDU-Links austauschte.
Ich kann das Kaufen von Links nicht empfehlen, aber wenn Du das tun musst, stell sicher, dass die verweisende Webseite relevant und autoritativ ist und dass die Links natürlich sind. Hier ist eine bessere Erklärung von Search Engine Land:
Wie Penguin funktioniert – Der Penguin Algorithmus ist ein Suchfilter, der von den häufigen Google Algorithmus-Updates abhängt und versucht, Link-Spam und unnatürliche Links abzustrafen.
Der Penguin Code sucht einfach nur nach Methoden des aggressiven Linkaufbaus, die darauf abzielen, Suchmaschinenrankings zu manipulieren.
Wenn Du beispielsweise zu schnell Backlinks für eine neue Webseite aufbaust, kann Google einfach erkennen, dass Du aggressiv bist, und bestraft Deine Webseite oder löscht sie sogar komplett aus seinem Suchindex.
Denke also daran: Jeder Link, den Du jetzt oder in Zukunft baust, mit der Absicht, Deine Suchmaschinenrankings zu verbessern, verstößt gegen Googles Webmaster Richtlinien.
Link-Austausch, bezahlte Links und andere Formen von Black-Hat-Linkaufbautechniken gehören alle zu schlechten SEO-Praktiken. Dies funktioniert vielleicht eine Zeit lang, aber früher oder später findet Google das heraus. Darüber hinaus vermeide die Benutzung von Link Wheels oder den Austausch zur Manipulation von Suchrankings.
Die Korrelation zwischen Panda & Penguin – Wenn Du darauf achtest, Deine dünnen Seiten und Deinen qualitativ schlechten Content zu verbessern, dann baust Du eine Seite, die andere auf natürliche Weise verlinken werden. Und das ist die Beziehung zwischen Panda und Penguin Updates.
Halte dir vor Augen, dass, selbst wenn Deine Webseite einzigartigen, nützlichen und ausführlichen Content enthält, wirst Du dennoch eine Penguin Penalty erhalten, wenn Deine Links qualitativ schlecht sind.
Was ist der Unterschied zwischen Panda und Penguin? Das Panda Update richtet sich vor allem an qualitativen Content, während Penguin spam-artige oder aggressive Links ausrotten möchte, die danach streben, Suchmaschinenrankings zu manipulieren.
Es ist wichtig, ein Auge auf beide Updates zu behalten. Wenn Deine Webseite von Panda bestraft wird, gibt es die Möglichkeit, dass Penguin Deine Seite auch beeinträchtigen wird. Manche SEOs und Webseitenbetreiber haben zahlreiche Penaltys erfahren, während sie sich fragten, was mit ihren Rankings passiert ist.
Ein gutes Beispiel für das Zwischenspiel zwischen Panda und Penguin ist, was Finestationery.com passiert ist. Als die Webseite Organic Rankings verlor, war nicht genau klar, was passierte. Wurde die Webseite von Panda oder Penguin abgestraft?
Wie Penguin Penalty vermeiden – Wenn Du keine Penguin Penalty erhalten möchtest, positioniere Deinen Blog so, dass Du natürliche Links erhältst. Search Engine Watch teilte eine aufschlussreiche Fallstudie einer Webseite, auf der sie einen Mix aus 61 % natürlicher Links und 39 % unnatürlicher Links enthüllten und erklärten, welche Schritte sie taten, um die Webseite zu verbessern.
Du kannst Web of Trust (WOT) nutzen, um zu messen, wie sehr Besucher Deiner Webseite trauen. Wenn Dein WOT-Wert gering ist, dann hast Du etwas mehr zu tun, was daraus hinausläuft, guten Content zu erstellen und soziales Engagement aufzubauen.
Ankertexte verstehen: Ankertext ist der klickbare Text in Deinem Link. Der Hyperlink selbst ist maskiert oder versteckt. Du kannst die Ziel-URL nicht sehen, bis man sie anklickt oder den Mauszeiger darüber bewegt, aber der Ankertext ist auf der Seite sichtbar.
Wie sich herausstellt, kann die exzessive Nutzung der exakten Keywords in Deinen Ankertexten eine Penguin Penalty auslösen. Dies war eine umwerfende Erkenntnis für viele SEOs. Für einige Zeit hatten SEOs fokussierten die Erstellung von Ankertexten, die genau mit dem gezielten Keyword übereinstimmten, in dem Bestreben, dem Aufbau von Links zu helfen.
Nachdem Penguin veröffentlicht wurde, erlebten einige Webseitenbetreiber einen großen Abstieg im Organic Traffic und den Rankings. Der Grund hierfür ist einfach: exzessives oder „über“-genutztes präzises Anpassen von Keywords an Ankertexte.
In der Tat spielt Ankertext eine wichtige Rolle beim Penguin Update. Deswegen ist es wichtig, die richtigen Links aufzubauen, indem man relevante und generische Begriffe benutzt, um das Risiko einer Google Penalty zu vermeiden.
Andere Arten der Link- und Content-Manipulation, auf die es das Penguin Update abgesehen hat, können auch in einer Penalty von Google resultieren:
Google Hummingbird-Änderungen
Am 26. September 2013 veröffentliche Google eine seiner bis heute bedeutendsten Verbesserungen zum Suchmaschinenalgorithmus. Hummingbird liefert Google eine „präzise und schnelle“ Plattform, auf der Benutzer einfach das finden können, was sie suchen, wenn sie ein bestimmtes Keyword in die Suchmaschine eingeben.
Mit anderen Worten wurde dieses Update entwickelt, um das Liefern von Ergebnissen bei bestimmten Keywords zu verbessern – und nicht dem exakten Keyword selbst, sondern, wie wir es nennen, der „Absicht des Keywords“. Gewissermaßen waren Panda und Penguin weiterlaufende Updates zum existierenden Algorithmus, wohingegen Hummingbird ein neuer Algorithmus ist.
Dieser neue Algorithmus macht Gebrauch von mehr als 200 Rankingfaktoren, um die Relevanz und Qualität einer bestimmten Webseite zu bestimmen. Hummingbird dient als eine Art Trennlinie zur Unterscheidung des alten und neuen SEO.
Jetzt liegt der Schwerpunkt auf dem User, nicht auf den Keywords. Natürlich ist die Keyword-Recherche weiterhin relevant, besonders wenn Du einen neuen Markt erforschst.
Aber wenn es dazu kommt, Content zu erstellen, der wirklich Probleme für die Menschen löst, solltest Du Dich darauf konzentrieren, die Fragen zu beantworten. In der heutigen SEO solltest du mit dem User beginnen, qualitativen Content realisieren und den Einfluss Deiner Webseitenlinks messen.
Jim Yu, CEO und Gründer von BrightEdge, erklärt einige Bestandteile, die beim SEO in der Hummingbird-Ära noch immer wichtig sind. Yu glaubt daran, dass die Keyword-Recherche weiterhin die Hosen beim SEO anhat, aber es sollte im Sinne des Contents ausgeführt werden.
Anmerkung: Hummingbird bevorzugt Long Tail-Key-Phrasen anstatt Seed/Head Keywords. Webseiten, die Long Tail Keywords verwenden, haben großen Erfolg erfahren. 91 % meines Suchtraffics kommt von Long Tail Keywords.
Marcus Sheridan nutzte und nutzt immer noch Long Tail Keywords zur Erfassung von organischen Besuchern auf seinen River Pools Company Blog.
Wenn Du mehr über Hummingbird erfahren möchtest und wissen willst, wie es SEO seit seiner Veröffentlichung im Jahr 2013 beeinflusst, dann hilft ein Auszug der untenstehenden Infografik des Search Engine Journal:
Hier Klicken Zur Vollansicht der Infografik
Bestandteile von Hummingbird: Da Hummingbird nicht nur ein Algorithmus-Update ist wie Panda und Penguin, sondern eine vollkommene Änderung, die es auf die Verbesserung der Suchergebnisse für Nutzer abgesehen hat, sollten Dir mehr wichtige Bestandteile bewusst sein. Damit alle Bestandteile zusammenkommen und funktionieren können, solltest Du Deine Zielgruppe verstehen.
Conversational Search
Conversational Search ist der Kern der Hummingbird Algorithmus-Änderung.
Egal, in welcher Nische Du tätig bist, gibt es Conversational Keywords, die dir ermöglichen, hochwertigen Content zu erstellen. Heutzutage suchen Nutzer im Internet auf eine dialogorientierte Art. Vierundvierzig Prozent der Marketer zielen auf Keyword-Rankings ab. Aber es steckt mehr hinter SEO als nur Keywords.
Google ruft Daten aus ihrem Knowledge Graph und Social Signals auf, um die Bedeutung von Begriffen auf einer Webseite zu verstehen.
Wieso ist Quora solch eine beliebte Webseite? Es gibt wahrscheinlich mehr als nur einen Grund, doch es liegt wohl nur an einem einfachen Fakt: Quora bietet Experten aus zahlreichen Fachgebieten an, die gewillt sind, Fragen in einem dialogorientierten Weg zu beantworten.
Webseitenbetreiber und Content-Autoren müssen ihre Keywords und ihren Content anpassen, um sich selbst an die Art anzupassen, wie Menschen sprechen und nach Informationen suchen. Conversational Keywords sind auf Fragen basierte Keywords. Sie werden Dir begegnen, wenn Du eine Suche durchführst.
Deine Landingpage sollte die Frage beantworten, die die Anfrage überhaupt erst verursacht hat. Stellen wir uns beispielsweise vor, jemand sucht nach „beste Arthritis-Pflege in NJ“. Deine Content-Seite sollte diese Information für den Nutzer bereitstellen und ihn nicht auf weitere Arthritispflegeseiten in Los Angeles verweisen.
Wie findet man Conversational Keywords, auch bekannt als fragenbasierte & Long Tail Keywords?
Schritt #1: Starte Deinen Google Keyword Planner. Gib ein relevantes „How to“ Keyword ein, beispielsweise „wie nimmt man ab“.
Schritt #2: Erkenne Deine conversational Long Tail Keywords.
In dem Screenshot oben kannst Du erkennen, dass Benutzer Informationen mit verschiedenen Conversational Keywords suchen. Sie möchten Antworten von Dir. Es ist Deine Aufgabe, die Antworten auf eine dialogorientierte Art zu liefern.
„How to“(Wie)-Schlüsselsätze und besonders Content werden die Fragen Deiner User besser beantworten und resultieren daher in mehr Engagement. In unserem Beispiel könntest Du eine Abnehm-Fallstudie schreiben, die nützlich, interaktiv und ausführlich ist.
Circa 87 % meiner Blogeinträge sind „How to“-Tutorials. Das ist der Grund für meinen Erfolg.
Merke: Bei Post-Hummingbird stehen die User im Fokus.
Copyblogger versteht es auch, seiner Zielgruppe zu gefallen. Die Überschriften ihrer Blogeinträge sind anziehend und dialogorientiert. Zusätzlich haben sie begriffen, dass ihre Konkurrenz eine mobile reaktionsschnelle Webseite hat und und Social Media nutzen, um Aufmerksamkeit zu bekommen. All diese Faktoren erfreuen Google, Copyblogger mehr Traffic zu senden.
Content ist die neue Werbung. Traditionelle Werbungen neigen dazu, den User zu stören. Nützlicher und interessanter Content wird sie hingegen ködern und sie zu wiederholten Kunden machen.
Das ist das Wesentliche des Content-Marketing – und es war bisher meine geheime Waffe, meine Softwarefirmen zu vergrößern. Du begreifst vielleicht die Google-Richtlinien nicht vollständig, aber folge Jenna Mills Rat und Deine Webseite wird nicht nur von Google Penaltys verschont, sondern auch erhöhte Organic Rankings und Traffic haben.
Google Pigeon Update
Wir haben bisher über Panda, Penguin und Hummingbird gesprochen und darüber, wie diese Google Algorithmus-Updates Webseitenbetreiber beeinflussen, die Suchmaschinenrankings ohne Abstrafungen verbessern möchten.
Allerdings gab es weitere Algorithmus-Updates und -Änderungen seit der Veröffentlichung des ersten Panda. Besonders im Juli 2014, da gab es das Pigeon Update. Weitere Informationen über Pigeon schau Dir diesen Post an, den ich kürzlich über alles Wissenswerte zu dem Pigeon-Update geschrieben habe.
Wie groß ist der Einfluss von Pigeon auf SEO und Marketing? Search Engine Land werden 58 % der lokalen Marketer ihre Strategien nach dem Pigeon-Update definitiv umstellen.
Fazit
Ich hoffe dieser Artikel zum Google Ranking Algorithmus hilft dir, die großen Google Updates (Panda, Penguin, Hummingbird und Pigeon) zu verstehen. Diese Algorithmus-Updates und -Änderungen haben SEO revolutioniert.
Du musst also lediglich Links auf eine messbare, organische Weise aufbauen und Dich darauf konzentrieren. Des Weiteren hochwertigen Content veröffentlichen (sei es in geschriebenen Blogeinträgen oder kreativen Infografiken), um Deinen Blog Traffic zu erhöhen.
Welche Erfahrungen hast Du mit Google Updates gemacht?
Generiere mehr Traffic