Können Backlinks die Rankings auch negativ beeinflussen?

Um die Frage kurz und knapp zu beantworten: Ja, Backlinks können Ihren Rankings schaden! Es ist durchaus möglich, dass ein Backlinks nicht die gewünschte Wirkung entfaltet, manchmal werden toxische Backlinks jedoch auch absichtlich gesetzt, beispielsweise von Konkurrenten.

Was macht einen Backlink toxisch?

Ein schlechter Backlink bedeutet nicht sofort, dass es zu erheblichen Rankingverlusten kommt. Unerwünschte Bewegungen in den Rankings durch Backlinks können viele verschiedene Ursachen haben. Bei einem vermutlich toxischen Backlink gilt es daher, genau zu analysieren, was ihn toxisch macht und dementsprechende Maßnahmen durchzuführen.

Aggressive Linkanker

Dieser Punkt wird oftmals sogar von erfahrenen SEOs vernachlässigt: Das Ankerprofil. Linkanker sind die Elemente, hinter denen der eigentliche Backlink steckt. Ein Linkanker kann sein:

  1. Ein beliebiges Wort oder Folge von Zahlen und Buchstaben
  2. Der Domainname oder die gesamte URL
  3. Ein Bild oder Icon

rankings

Grundsätzlich gilt, dass beispielsweise sogenannte Exact-Match Anker, also Anker, die genau dem Keyword entsprechen, für welches man ranken möchte, am stärksten sind. Jedoch sollten Exact-match Anker nur einen äußerst kleinen prozentualen Anteil im Linkprofil einnehmen. Google straft aggressive Anker von Jahr zu Jahr immer härter ab. Die Strafen beginnen bei leichten Ranking-Drops bishin zur Deindexierung der gesamten Domain für das jeweilige Keyword. Sich von Letzterem zu erholen ist äußerst zeitaufwändig und kann großen Schaden anrichten, deswegen Vorsicht!

In meiner Standard-Prozedur im Linkaufbau berücksichtige ich dies. Ich fahre die Strategie, harte Anker für starke Links aufzusparen und das Linkprofil mit URL und MISC Ankern mithilfe schwacher/billiger Backlinks auszupolstern. Exact Match Anker nehmen in meinen Linkprofilen im Schnitt maximal 3-4% ein. Gar keine solcher harter Anker zu benutzen ist jedoch auch eine Art Verschwendung, denn so übergeht man einiges an Ranking-Power. Außerdem wirkt hin und wieder mal ein Exact Match Anker natürlich und um nichts anderes geht es beim Aufbau eines starken und nachhaltigen Linkprofils.

Irrelevantes Thema

Hier übertreibt es so mancher SEO. Viele glauben, dass ein Backlink für eine Website über grüne Toaster von einer Website über grüne Toaster kommen muss, um zu wirken oder nicht toxisch zu wirken. Dies stimmt definitiv nicht! Man muss hier ein wenig differenzieren, wo der Link steht und welche Thematik der Content drumherum besitzt. Meiner Erfahrung nach würde ein Backlink in folgender Beispiel-Situation toxisch wirken: Ein 500-Wörter Artikel über Toaster befindet sich auf einer Unterseite einer Website über Küchengeräte. Ein Backlink mit dem Anker Elektrische Zahnbürsten, welcher auf eine Seite über Zahnpflege verweist, befindet sich ohne jeglichen Zusammenhang mit dem Content irgendwo im Text. Dieser Backlink würde mit hoher Wahrscheinlichkeit negative Auswirkungen zeigen, weil er absolut unnatürlich wirkt und Google unnatürliche Links verabscheut.

Würde man jedoch einen Absatz von sagen wir einmal 70 Wörtern um den Link herumbauen, der irgendwie thematische Relevanz herstellt, wie beispielsweise “Wieso Toastbrot nicht gut für die Zahngesundheit ist”, sinkt das Risiko enorm. Deshalb ist es auch unnötig, immer nach haargenauer thematischer Übereinstimmung der verlinkenden Seite zu schauen, denn erstens wirkt das bei einer Masse an Backlinks insgesamt unnatürlich und außerdem wird der Linkjuice zu einem gewissen Grad immer durch die Bedeutung des Contents gefiltert.

Der Backlink entspringt einer “Linkschleuder”

Linkschleuder sagt man in der Regel zu Seiten mit sehr vielen ausgehenden Links im Verhältnis zu wenig Content. Doch auch hier gilt es zu differenzieren, denn ein Backlink von einer Linkschleuder muss nicht zwangsläufig toxisch wirken – Er kann auch einfach gar nicht wirken. Das Stichwort lautet hier Linkjuice: Der Linkjuice ist ein theoretisches aber wahrscheinlich in irgendeiner Form existierendes Konstrukt.

linkschleuder

Linkjuice muss man sich im wahrsten Sinne des Wortes wie eine digitale Flüssigkeit vorstellen, die von einer Seite auf eine andere, verlinkte fließt und Rankingpower überträgt. Dieser Linkjuice wird auf alle internen und externen Links einer Website verteilt, was natürlich zu dem Schluss führt, dass eine Website, die furchtbar viele ausgehenden Links besitzt, nur wenig Rankingpower weitergibt. Jenes Problem findet man oftmals auf Linkportalen, auf welchen man sein Unternehmen inklusive Backlink eintragen lassen kann. Auf solchen meist recht schwachen Websites befinden sich nach einiger Zeit zigtausende von ausgehenden Links, auf die der Linkjuice aufgeteilt werden muss. Logischerweise eignen sich solche Links höchstens noch zum Auspolstern des Anker-Profils. Ranking Boosts darf man sich von solchen Backlinks nicht erwarten.

Eine Linkschleuder wird dann toxisch, wenn das Verhältnis zu anderem Content absolut unverhältnismäßig wird. Wird ein Link beispielsweise auf einer Website platziert, die fast nur aus ausgehenden Links besteht, so kann der Link den Rankings schaden, denn hier haben wir wieder das Problem der Unnatürlichkeit. Also Finger weg von Linklisten!

Der Backlink kommt von einer abgestraften Domain

Dies ist die Ursache für die meisten schlecht wirkenden Backlinks. Wird eine Domain von Google abgestraft (meist ein sog. Pure Spam Penalty), dann ist der von dieser Domain ausgehender Linkjuice wortwörtlich giftig. Dies ist auch die gängigste Methode bei bewusster Vergiftung des Linkprofils durch Maßnahmen der Konkurrenz. Hier gibt es eigentlich gar nichts weiteres wirklich Wichtiges zu sagen.

Google Flux und der Random Documents Algorithmus

Google liebt es, SEOs zu verunsichern. Zum einen gibt es den sogenannten Google-Flux. Dieser produzierte zum einen die normalen täglichen Ranking-Schwankungen, jedoch auch stärkere Schwankungen nach Platzierung einiger Backlinks. Hier ist es ganz normal, dass die Rankings für einige Stunden oder Tage fallen, um danach stärker zurückzukehren. Ein erfahrener SEO erkennt diese natürlichen Schwankungen und akzeptiert diese ohne sinnlose Gegenmaßnahmen durchzuführen.

Der Random Documents Algorithmus hingegen ist um einiges gemeiner und selbst so manch wissender SEO tappt in seine Falle. Dieses Protokoll ist definitiv gezielt geschrieben worden, um unnatürliches Linkbuilding zu entdecken und zu bestrafen. Der Algorithmus funktioniert wie folgt: Wenn Google vermutet, dass aktives Linkbuilding betrieben wird, gehen die Rankings plötzlich in den Keller. Beim Seitenbetreiber soll der Eindruck entstehen, dass ein toxischer Backlink gesetzt wurde oder der benutzte Anker zu aggressiv war. Werden nun Gegenmaßnahmen vorgenommen, wie etwa das Ändern des Linkankers oder gar die komplette Entfernung des betroffenen Backlinks, so wird die Seite abgestraft. Man sollte also niemals in diese Falle tappen! Hat man den Eindruck, ein gesetzter Backlink sei toxisch, sollte man dennoch lieber zuerst 28 Tage warten und auf keinen Fall Gegenmaßnahmen ergreifen. In der Regel kommen die Rankings bereits nach einigen Tagen zurück, sofern man geduldig wartet und wie gewohn

Jemand vergiftet absichtlich mein Linkprofil –  Was kann ich tun?

Leider ist Negative-Seo keine Seltenheit und äußerst effektiv – im schlechten Sinne natürlich. Man hat hier zwei Möglichkeiten vorzugehen:

  1. Per Email den jeweiligen Seitenbetreiber um Entfernung der Links bitten
  2. Google’s Disavow-Tool verwenden

Ganz ehrlich, ersteres ist in der Regel Zeitverschwendung. Webseiten, die explizit für Negative-SEO gebaut wurden, besitzen außerdem meist eh kein (gültiges) Impressum. Am schnellsten und sichersten ist es einfach, Google’s Disavow-Tool in der Search Console zu verwenden. Links, die in diese Liste eingetragen werden, werden von Google entwertet und verlieren somit an Wirkung. Dies setzt natürlich voraus, dass man die toxischen Links zuvor identifiziert. Dazu sollte nicht ausschließlich die Search Console benutzt werden, da hier zur Täuschung von SEOs nicht alle Backlinks angezeigt werden. Hier sollte man in Kombination gute Backlink-Analyse Tools verwenden wie Majestic oder Ahrefs.

google disavow tool

Achtung: Beim Entwerten von Backlinks in der Search Console unbedingt darauf achten, dass keine guten Backlinks entwertet werden!

Ist das manuelle Einreichen neuer Seiten wirklich nötig?

Die Kurzantwort hierauf leitet ganz klar: Nein! Das Einreichen einer neuen Site oder einzelner Pages ist nicht zwingend nötig, kann jedoch bei reinen White-Hat Strategien nützlich sein, Seiten zu indexieren, die nur äußerst schleppend an organische Backlinks zu kommen. Auch die interne Verlinkung der Website spielt hier eine entscheidende Rolle. Doch was haben Backlinks überhaupt mit dem Google Index zutun?

Wie Google Webseiten crawlt

Um zu verstehen, wie Google Webseiten indexiert, muss man zuallererst verstehen, wie der Google Bot Webseiten nach und nach entdeckt und verarbeitet. Im Prinzip hangelt sich der Bot einfach über Links von Seite zu Seite. Das heißt also, dass Google eine beispielsweise neu registrierte Domain ohne bereits bestehende Backlinks wahrscheinlich nicht so schnell entdecken und crawlen wird. In dem Moment, in dem die Domain auf einer bereits indexierten Seite mittels eines Backlinks erwähnt wird, folgt der Crawler dem Link auf die Seite und indexiert diese, sofern sich auf Ihr Content befindet. Betreibt man nun kein aktives Linkbuilding und bekommt auch keine organischen Backlinks, beispielsweise über Werbekampagnen, so bleibt einem zu Beginn nichts anderes übrig, als die frische Website an Google manuell einzureichen. Die wird über die Google Search Console gemacht.

Stetiger Aufbau des Linkprofils macht die manuelle Indexierung überflüssig

Egal ob Ihre Seite nun aufgrund eines steigenden Bekanntheitsgrades oder durch aktives Linkbuilding ein stetig wachsendes Linkprofil besitzt, so wird ein manuelles Einreichen neuer Pages hinfällig. Werden die zu indexierenden Unterseiten verlinkt, so erfolgt die Indexierung mittlerweile etwa genauso schnell wie durch manuelles Einreichen. Dies liegt auch an dem Update des Core-Algorithmus im März 2018, darauf werde ich noch näher eingehen.

Warum auch die interne Linkstruktur so wichtig ist

Wie bereits erwähnt, folgt der Google Bot natürlich nicht nur externen Links, sondern auch den internen. Das Thema Interne Verlinkung ist im SEO-Bereich ein sehr wichtiges, worauf ich aber noch genauer in einem Extra Artikel eingehen werde.

Betrachte man nun folgendes Szenario: Die Startseite Ihrer Webseite erhält in regelmäßigen Abständen einen Zuwachs an Backlinks, vielleicht auch größere Unterseiten populärer Suchbegriffe. Nun ist es wichtig, dass auch kleinere Unterseiten, die ranken sollen, auf der Startseite oder den größeren Unterseiten intern verlinkt werden. Denn bekommen diese kleineren Pages keine eigenen Backlinks, muss man den Google Crawler eben die Richtung weisen und die Seiten verlinken, damit er Ihnen folgt. Das Ganze hat natürlich auch den Vorteil für User, dass sie weitere Informationen auf Ihrer Webseite entdecken und die CTR (Click Through Rate) steigt.

Unterseiten mit manuellem Linkbuilding indexieren

Somit kommen wir also zu dem Schluss, dass manuelles Linkbuilding die wohl beste Methode ist, um eine Domain oder einzelnes Pages gezielt zu indexieren. Eine neue Unterseite soll indexiert werden und zugleich einen Ranking-Boost bekommen? Gut, dann wird ein Link genau zu dieser URL gesetzt. Das zeigt mal wieder, wie wichtig ein Backlinkaufbau für SEO ist. Dieser macht nicht nur einen Großteil der Rankingpower aus, sondern sorgt zudem noch für die schnelle, halbwegs organische Indexierung durch den Google Bot.

Das große Google Update im März – Was nun?

Für Webmaster und SEOs stellte die Funktion zum manuellen Indexieren von URLs bis vor kurzem dennoch eine bequeme Methode dar. Anfang März rollte Google jedoch ein Update aus, welches nicht nur die Suchergebnisse ordentlich aufmischte, sondern auch noch das Einreichen erschwerte. Nun war eine neue URL nicht schon bereits nach wenigen Minuten oder Stunden im Index, sondern teilweise nach mehreren Tagen noch nicht.

google crawling

Google wollte mit diesem Schritt SEOs einen Strich durch die Rechnung machen, die Ihre (Spam-) Links so nicht mehr indexieren konnten. Jedoch litten auch normale Webseitenbetreiber darunter, die mitunter tagelang darauf warten mussten, bis selbst hochwertiger Content endlich mal in den Google Index wanderte. Einer unserer Kunden, welcher eine Fitness-&Gesundheits-Website betreibt, stand vor diesem Problem.

An dieser Stelle ist es nun klar, dass das Indexieren um einiges schwieriger und langsamer geworden ist. Jedoch haben gute SEOs immer noch kleine Tricks parat, mit denen eine URL binnen Stunden in den Suchergebnissen zu finden ist…

Die 3 größten Onpage-Fehler und ihre Auswirkungen

Bei der Analyse der Webseiten von Kunden fallen mir oftmals immer wieder dieselben, teils gravierenden Fehler auf. Nicht falsch verstehen, Offpage-Faktoren, sprich ein starkes und ausgeglichenes Linkprofil sind auch im Jahr 2018 immer noch der allergrößte Boost für die Rankings einer Website. Jedoch stellt die Onpage-Optimierung immer eine wichtige Basis dar, mit der man im Anschluss Offpage gut arbeiten kann. Natürlich kann man eine Website, welche Onpage komplett unoptimiert oder gar fehlerhaft ist mithilfe guter Backlinks ranken, jedoch oftmals wesentlich langsamer und aufwendiger.

Der Meta Title

Etwa 90% der von mir analysierten Webseiten besitzen verbesserungswürdige Meta Title. Dieses Seitenelement ist der Titel, der in der Google-Suche Ihre Seite repräsentiert und dem User kurz und bündig schildert, worum es auf der Seite geht. Darunter befindet sich die Meta Description. Etwa die Hälfte davon weisen sogar gravierende Fehler auf.

Die am meisten auftretenden Probleme sind:

Google möchte, dass man dem User so klar wie möglich mitteilt, was er auf dieser Seite finden wird. Dabei sollte die Länge im Bereich von 50 bis maximal 60 Zeichen liegen, das betreffende Keyword enthalten und ggf. die jeweilige Brand. Was absolut unsinnig ist und teilweise von Google abgestraft wird, sind Title Tags, die einfach nur mehrfach das Keyword wiederholen – Ja so etwas habe ich auch schon gesehen.

gutes title-tag

Im Bild oberhalb sieht man ein wirklich gutes Meta-Tag. Wie man sieht, rankt diese Website für den Suchbegriff “Sonnenbrille kaufen” sogar auf Platz 1. Der Title macht semantisch Sinn, besteht aus 56 Zeichen, dem Keyword und der Brand.

schlechtes title-tag

Auf diesem Bild erkennt man sofort, dass der Title viel zu kurz ist. Er besteht lediglich aus dem Wort “Sonnenbrillen”, für welches die Webseite wohl kaum in naher Zukunft ranken wird und die eigene Brand. Ansonsten bietet dieser Title überhaupt keinen Mehrwert für den Nutzer und Google erkennt dies natürlich. Wie man sieht, rankt diese Seite für mein gewähltes Keyword auf Seite 8 und das trotz der Tatsache, dass dies ebenso eine Authority-Domain ist (Wird in einem nachfolgenden Artikel erklärt).

Nun mag das Title Tag einen harmlosen und unscheinbaren Eindruck machen, jedoch habe ich immer wieder erlebt, dass Webseiten bei der Optimierung des Titles um zig Plätze in den Suchergebnissen vorgesprungen sind. Ein Onpage-Faktor, den man also keineswegs ignorieren sollte.

Fehlerhafte Überschriften

Ein weiterer gravierender Fehler liegt bei fehlerhaften Überschriften. Ähnlich wie beim Title Tag treffe ich so oft auf diesen Fehler, dass ich mir ernsthaft die Frage stelle, ob ein Großteil der Webdesigner da draußen je schon einmal etwas von SEO gehört hat. Überschriften werden mit bestimmten Tags im HTML-Code deklariert. Dabei sollte die erste und absolute Hauptüberschrift auf der jeweiligen Page immer im <h1> Tag stehen. Diverse Unterüberschriften werden nachfolgend mit <h2>, <h3>, etc. deklariert.

Was ich hier oft sehe:

Besonders der letzte Punkt beweist für mich jedes Mal die Inkompetenz mancher Webdesigner. Die bloße Schriftformatierung, also Größe, Farbe, Schriftart kann mit CSS oder auch veralteten HTML-Methoden bewerkstelligt werden. Wenn ein Webdesigner darauf angewiesen ist, <hx> Tags dafür zu benutzen, ist er entweder vollkommen faul oder versteht nichts von seinem Handwerk.

seo überschriften

Google versucht anhand dieser Tags die Bedeutung des Textes zu verstehen. Verwirrt man den Googlebot, indem man ein völliges Wirrwarr von vermeintlichen Überschriften auf die Webseite setzt, erkennt der Algorithmus einfach keinen klaren Sinn der Seite und lässt sie im Nirvana der Suchergebnisse verschwinden. Auch leuchtet es hierbei ein, dass man Google verwirrt, indem man das <h1> Tag mehrfach verwendet. Ist die allererste Überschrift beispielsweise <h1>Was man beim Kauf einer Sonnenbrille beachten sollte</h1> und eine weitere Überschrift im Text <h1>Größe einer Sonnenbrille</h1>, ist es vielleicht für den User klar, worum es auf der Seite geht. Der Googlebot aber weiß nicht, ob die Page nun eher für das eine oder andere Thema ranken soll.

<hx> Tag in Sidebar oder Footer

Aus irgendeinem Grund sehe ich auch diesen Fehler immer wieder. Dabei wird in der Sidebar oder im Footer eine Überschrift gesetzt, meist ein <h3> Tag. Dies erleichtert zwar mal wieder die Textformatierung, jedoch gibt es hierbei ein riesengroßes Problem: Die Sidebar und der Footer werden in der Regel auf der gesamten Website angezeigt. Das bedeutet, dass der Googlebot auf jeder Unterseite immer wieder das selbe <h3> Tag findet, unabhängig davon, ob irgendwo sonst auf der Page ein <h2> Tag zu finden ist oder der Inhalt des <h3> Tags zum Inhalts des Body passt. Auch dies schafft für den Googlebot keine Klarheit über das Thema der Seite und deshalb sollte man definitiv zu ordentlichen Formatierungsmethoden greifen.

Thin Content – Zu wenig Seiteninhalt

Gerade Auf Webseiten kleiner oder mittelständiger Unternehmen findet man dieses Problem ziemlich oft. Auf der Startseite ein paar Sätze, ein Bild und sonst nichts. Um gleich für Klarheit zu sorgen: Eine große Anzahl von Worten, die aber nur wenig Informationen liefern, ist fast genauso schlimm. Google möchte dem User zu seinem Suchbegriff so viele passende Informationen wie nur möglich liefern. Folglich ranken Seiten mit viel Informationen (also meistens auch vielen Worten) weitaus besser, als Seiten mit nur spärlichem Content.

Beispiel Thin Content

Eine genaue Anzahl an Worten kann man nicht festlegen, hier scheiden sich die Geister. Das ist jedoch auch klar, denn je nach Suchbegriff bedarf es mehr oder weniger Information. Selbstverständlich ist es auch klar, dass es schwierig ist, einen sinnvollen 2000 Wörter starken Text auf einer Startseite eines Klempner-Unternehmens zu platzieren. Jedoch steht dies in keiner Relation zu der geringen Menge an Content, die ich von Zeit zu Zeit auf manchen Webseiten finde. Prinzipiell sollte man so viel nützliche Information zum Thema wie nur möglich kompakt darstellen. Bei meiner Arbeit richte ich mich bei der bloßen Wortzahl nach der Mindestwortzahl, die Google News bei Artikeln verlangt – nämlich 250 Worte auf allen Pages, die ranken sollen.

Nachhaltiger Linkaufbau – Welche Offpage-Strategien sind die Besten?

Jeder gute SEO weiß: Ein starkes Backlinkprofil ist absolut wichtig und macht in etwa 70% des gesamten Rankingverhalten einer Website aus. Je nach Budget und kurz- und langfristigem Ziel gibt es hierbei verschiedene Link-Möglichkeiten, mit denen man eine individuelle Strategie erstellen kann.
Die Google-Propaganda im Bezug auf Backlinks ist ziemlich aggressiv und meistens total irreführend. Zuerst sollte man sich also im Klaren über folgende Fakten sein:

  1. Content ist nicht King
  2. Backlink ist nicht gleich Backlink
  3. Google straft Linkbuilding nicht generell ab

Das Prinzip von Backlinks

Warum benutzt Google Backlinks als primäre Ranking-Faktoren? Ganz einfach: Sie sind ein guter Indikator für die Qualität einer Website, sofern die Backlinks völlig organisch entstanden sind. Wenn eine Website auf vielen anderen hochqualitativen Websites zitiert/verlinkt wird, nimmt Google dies also als Anstoß dafür, die Website im Ranking weiter nach oben zu bringen. Google möchte seinen Nutzern nämlich unbedingt die besten und beliebtesten Suchergebnisse liefern.

Bessere Rankings dank Backlinks

Mit Offpage-Maßnahmen, sprich Linkbuilding, wird Google quasi vorgegaukelt, dass der Content einer Seite erwähnenswert, also hochqualitativ ist. Die typische Konsequenz ist fast immer eine Ranking-Verbesserung. Natürlich kommt es auch auf viele weitere verschiedene Faktoren an, beispielsweise, ob der Link als Do- oder NoFollow deklariert ist und dessen Platzierung. Jedoch kann man ganz allgemein sagen, dass viele Backlinks von guten Websites einen enorm hohen, positiven Einfluss auf die Platzierung der Ziel-Seite in den Suchergebnissen haben. Doch was ist meine grobe Verfahrensweise beim Aufbau eines Linkprofils?

Kombination aus Blognetzwerken und Forenlinks

Die für meine Klienten günstigste, dennoch wirkungsvolle Methode ist die kombinierte Verwendung von einem Blognetzwerk und Backlinks, die in Foren gesetzt werden. Blogs aus einem solchen Netzwerk sind primär für genau diesen Zweck zusammengebastelt. Hier werden Artikel mit integriertem Backlink auf die Zielseite gesetzt (= Content-Link). Das schöne hierbei ist die absolute Kontrolle über den Inhalt der verlinkenden Unterseite, auch den Ankertext betreffend.

Die Links, welche in Foren gesetzt werden, haben eher weniger Power und dienen nur als kostengünstiges Mittel, um das Ankerprofil der Zielseite auszupolstern. So kann man dann beispielsweise bei einer starken PBN-Seite eher mal einen harten Anker benutzen und somit das Maximum an Ranking-Power herausquetschen.
Alles in Allem ist diese Methode meine Liebste und auch am meisten verwendete. Für den Klienten, der diese Strategie wünscht, fallen hierbei wesentlich weniger Kosten an für eine dennoch starke Wirkung.

Linkaufbau per Outreach

Outreach ist für allem für große, vermögende Unternehmen empfehlenswert. Eine Outreach-Kampagne ist vergleichsweise ein ganzes Stück teurer, jedoch ergibt sich ein beinahe vollständig organisches Linkprofil. Hierbei handle ich mit echten Blog-/ Webseitenbetreibern Deals für Link-Platzierungen (meist Content-Links) aus. Das tolle hierbei ist, dass die Links etwas besser wirken bei einer echten Website, welche viele Besucher hat und in kurzen, regelmäßigen Abständen frischen Content veröffentlicht. Die Krux ist hier leider der hohe finanzielle Aufwand. Zusätzlich zu meinem Honorar fallen vor allem die Preise der einzelnen Links für die Kooperationspartner ins Gewicht. Auf einer gut besuchten Website sind hohe, dreistellige, teils auch vierstellige Preise absolut normal. Auch die Content-Erstellung siedelt sich nochmal bei 50-100€ an.

Das Budget muss für einen schnellen Linkaufbau also um einiges höher angesetzt werden, als bei der PBN-Methode. Große Unternehmen setzen hier meist 5- bis 6-stellige monatliche Budgets an. Ein weiterer kleiner Nachteil ist, dass der Kooperationspartner am Ende das letzte Wort hat, wenn es um den Content um den Link herum und teils auch den Ankertext geht.

Forenlinks only – Das erste Grundrauschen bei einer neuen Domain

Ist die Domain Ihrer Zielseite noch jung und erst frisch registriert, sollte man vorsichtshalber mit ein wenig Fingerspitzengefühl an den Linkaufbau herangehen. Empfehlenswert ist es hier, die ersten 1-2 Monate nur ein bestimmtes Grundrauschen zu erzeugen. Das erledige ich meistens mit Forenlinks, da diese sehr günstig sind und dennoch einen kleinen anfänglichen Ranking-Boost erzeugen können.

Case Study: So wichtig ist Onpage-SEO

Im dritten Quartal des letzten Jahres nahmen wir uns einem Ticketshop an, der Online als Reseller von Karten verschiedenster Veranstaltungen aktiv ist. Da Zeit und Kosten gespart werden sollten, beschränkten wir uns vorerst auf eine technische Onpage-Analyse der zu rankenden Unterseite und stellten fest: Bis auf kleine Änderungen bedarf es hier keiner akuten Problembehandlung.

keyword analyse tool

Wir fuhren also fort mit einer Linkbuilding-Strategie bestehend aus monatlich:

Diese Strategie passte mit einem kleinen Rabatt unsererseits genau in das verfügbare Budget des Kunden und war an sich eine solide und sichere Herangehensweise an ein noch fast leeres Linkprofil. Unterhalb folgende Ausgangspositionen der wichtigsten Keywords vor Beginn unserer Tätigkeiten:

Ernüchternde Ergebnisse und katastrophale Google-Core Updates

Bereits nach den ersten paar gesetzten Links wurde die zu rankende Unterseite auf dem Google-Nirvana geholt und schwankte nun statt zwischen Seite 8 und >10 zwischen Seite 5 und 6. Wir dachten an dieser Stelle: “Mensch, das fängt doch gut an. In wenigen Monaten sollten wir es locker zumindest auf Seite 2 schaffen mit dem aktuellen Budget”.

Doch seit dem Sommer 2018 rollte Google leider Gottes ein großes Algorithm-Update nach dem anderen aus und jedes Mal wurden durch unser Linkbuilding erreichte Gains wieder zerstört. Die Seite rankte einfach furchtbar zäh und bei jedem Update zeigte Google uns, dass es die Kundenseite nicht mag – Der Grund war uns ein absolutes Rätsel. Kurzzeitig schafften wir es tatsächlich auf Seite 2 von Google, jedoch sehr instabil und mit dem nächsten Update waren die Rankings wieder dahin – zurück auf Seite 6 – Dort wo also kein Google-Nutzer je freiwillig landen wird.

Ende 2019 stellten wir auf Wunsch des Kunden unsere Linkbuilding-Tätigkeiten ein – es schien einfach eine totale Geldverschwendung zu sein. Wir machten uns Vorwürfe, da wir eigentlich damit werben, kosteneffektive und ehrliche Arbeit zu leisten. Wir hätten noch argumentieren können, dass ein plötzlicher Absturz der Link-Velocity (Anzahl Backlinks/Zeit) eventuell kontraproduktiv sein könnte, jedoch wollten wir dem Kunden nicht sinnlos Geld aus der Tasche ziehen, während wir immer noch keine Lösung für jenes Rätsel hatten.

Februar 2019 – Ein Lichtblick

Im Februar entschlossen wir uns sodann nochmal genau über die Kundenseite drüber zuschauen. Irgendetwas haben wir doch übersehen, oder?

  1. Als Erstes fiel uns auf, dass der Meta-Title der zu rankenden Page nicht (mehr) optimiert war. Er war zu lang und beinhaltete zudem lediglich das Hauptkeyword. Wir schlugen dem Kunden also ein von uns optimiertes Title-Tag vor, welches dieser auch prompt auf der Seite entsprechend änderte.
  2. Der Kunde hatte nach der zu rankenden Page eine weitere Seite direkt für die Ticket-Bestellung: Ein klassischer Fall von Keyword-Kannibalisation. Wir lösten dies mit einem Quick-Fix, indem wir die Leafpage, die eh nicht ranken sollte auf “No-Index” stellten – Google sie also aus dem Index löscht und nur noch die zu rankende Page für die Keywords targetiert.
  3. Wir einigten uns zudem auf eine vollständige Überarbeitung des Contents(Text) auf der Seite, mehr dazu im Folgenden.

Wie genau wurde der Content von uns überarbeitet?

Wir führten zuerst eine Keyword-Gap Analyse durch. Dabei untersuchen wir die Top-Rankenden Konkurrenten auf Keywords, die targetiert werden sollten, von unserer Kundenseite aber nicht werden! Hierbei eröffneten sich teils große Lücken und das nicht nur bei Longtail-Keywords. Zusätzlich suchten wir per rekursiver Keyword-Analyse nach Keywords, die auch so noch targetiert werden müssten. Es sammelte sich ein großes Cluster an, wobei wir die wichtigsten Keywords als Unterüberschriften anlegten und im Body-Text die anderen Suchbegriffe zusätzlich targetierten.

Es war möglich, den alten Text stehenzulassen und lediglich weitere Passagen zu ergänzen. So sparten wir uns Zeit und dem Kunden zusätzliche zu zahlende Arbeitsstunden und Textkosten.

Ein erstaunliches Ergebnis – Google-Seite 2 innerhalb weniger Wochen trotz fehlendem Linkaufbau

Sobald alles vollbracht und der neue Content live war, fingen die Rankings der targetierten Keywords direkt an stark zu fluktuieren mit aufsteigenden Tendenzen. In den verangenen Wochen des März konnte man plötzlich einen wahnsinnigen Anstieg beobachten. Dieser wurde zwar von einem weiteren großen Update kurzfristig wieder zunichtegemacht (sieht man im Bild rechts), die Rankings kamen aber wieder zurück auf Seite 2.

Wie ist das möglich – Was war passiert?

Die Erfahrung, die wir immer wieder beim Launch eines neuen Projekts gemacht haben war, dass unser Content direkt, auch ohne Links, auf Seite 2 oder sogar 1 zu finden war. Dies liegt schlicht an der Weise, wie Google Websites crawlt und versucht deren Content zu bewerten.

Der alte Text auf der Kundenseite war zwar Qualitativ hochwertig, jedoch fehlten einfach eine ganze Menge kleinerer Keywords. Google möchte seinen Nutzern das beste Ergebnis für ihre Suchintention bieten, weswegen eine Seite mit vielen Infos über den Biathlon auf Schalke in diesem Beispiel in der Regel von Haus aus besser rankt.

seo ranking entwicklung

Doch wie erkennt Google eine hohe Informationsdichte in Content?

Ganz einfach: Viele verschiedene Keywords passend geclustert! Viele SEOs oder andere Spezialisten im Online-Marketing versuchen das Hauptkeyword so oft wie möglich im Text vorkommen zu lassen, beachten aber überhaupt nicht, dass viele, viele Longtails dazugehören und auch andere Keywords, die Google einfach thematisch miteinander verknüpft.

Schlechtes Beispiel:

Gutes “holistisches” Beispiel:

Kurzum: Findet Google auf in 100 Wörtern Text viele verschiedene relevante Keywords bezogen auf das Haupt-Keyword, wird eine hohe Informationsdichte festgestellt und die Seite somit automatisch besser bewertet, ergo besser gerankt.

Unser Fazit

Wir sind nach wie vor Verfechter eines starken Linkprofils und es ist unbestreitbar, dass Links nach wie vor eine übergeordnete Rolle spielen, spätestens wenn es um das Wettrennen mit der Konkurrenz in den Top-10 geht. Jedoch hat diese Fallstudie gezeigt, dass man vor großen Linkbuilding-Kampagnen definitiv Onpage Klar-Schiff machen sollte und lieber die Extra-Stunden investiert. Erste Ranking-Erfolge dank gescheiter Onpage-SEO bringen die zu rankende Seite auf eine gewisse Ausgangsposition, bei der man gut einschätzen kann, wie groß das Budget für Linkbuilding eingeplant werden muss.

Die 3 häufigsten Irrtümer von SEO-Klienten

Suchmaschinenoptimierung ist unbestritten eine komplexe Angelegenheit, die einer eingehenden Analyse bedarf, aus welcher man im Anschluss die korrekten Maßnahmen ergreift. Im Laufe der vergangen Jahre wurden wir immer wieder mit interessanten Meinungen unserer Kunden konfrontiert, die sie irgendwo im Internet oder über Mundpropaganda aufgeschnappt hatten. Für einen SEO kann so etwas schnell zur Belastung werden, da man unnötige Zeit vergolded, wenn man mit der Kundschaft über belanglose Dinge diskutieren muss. Auf der anderen Seite versetzt man sich natürlich auch in den Kunden hinein und weiß, dass immer wieder Fragen und Ängste auftauchen. Auch nicht zu vernachlässigen ist die Tatsache, dass der Kunde viel Geld investiert in eine beinahe ungewisse Zukunft seiner Seite. Nur der SEO kann einschätzen, welche Maßnahme förderlich ist und wie lange es in etwa dauert um kurz- und langfristige Ranking-Ziele zu erreichen.

Dies erfordert ungemein ein Vertrauensverhältnis, welches leider des Öfteren auch ausgenutzt wird, indem Dienstleister (gerade große Agencies) Ihren Kunden Maßnahmen oder gar Produkte verkaufen wollen, die er überhaupt nicht benötigt oder wozu es im direkten Vergleich eine günstigere Alternative gibt. Es ist also absolut logisch, dass Kunden sich oftmals auch selbst informieren wollen und dann mit interessanten "Thesen" daherkommen. Die am häufigsten vorkommenden Falschinformationen möchte ich in diesem Artikel anschneiden und aufklären.

1. Backlinks sind unnötig und führen unmittelbar zur Abstrafung und Deindexierung der Website

Dieser Irrtum ist der wohl gravierendste überhaupt und hat schon oft für ausgedehnte Diskussionen gesorgt. Der Irrtum entspringt der "Google-Propaganda" selbst und selbst so manch ein SEO glaubt tatsächlich daran, dass Backlinks keine Ranking-Steigerung hervorrufen können und/oder aktives Linkbuilding unmittelbar zur einem Google-Penalty führt. Leider werben genau aus jenem Grund mittlerweile sogar große SEO-Agenturen mit einer Suchmaschinenoptimierung ohne Linkaufbau, was völliger Humbug ist.

Es stimmt natürlich, dass eine Seite komplett ohne Links auf Seite 1 ranken kann - Jedoch nur, sofern sie Onpage Top-Optimiert ist und desweiteren die Konkurrenz beinahe Nicht-Existent oder extrem schwach. 

seo problem solving

Tatsache ist jedoch, dass in beinahe jeder Nische, in der Geld verdient werden kann, Konkurrenz am Start ist und somit gute Rankings ohne starke Links schier unmöglich sind. Google ist auch 2019 immer noch stark auf Links angewiesen, um die Themenrelevanz einer Seite ordentlich bewerten zu können und dies wird sich voraussichtlich in den kommenden 5-10 Jahren auch definitiv nicht ändern, es fehlt technisch ganz einfach eine Alternative.

Was machen Agenturen, die mit SEO ohne Linkbuilding werben?

Ganz einfach: Sie tricksen! Ohne die nötigen, teuren SEO-Tools, kann der Kunde unmöglich beobachten, ob die dienstleistende Agentur insgeheim Linkaufbau betreibt oder nicht. In der Regel wird der Linkaufbau also einfach nur unter dem Radar betrieben und die dabei entstehenden Kosten einfach in Form vermeintlich aufwändiger Onpage-Maßnahmen abgerechnet. Agenturen, die solche Spielchen spielen ersparen sich dadurch natürlich Diskussionen oder Auseinandersetzung mit dem jeweiligen Kunden, der vielleicht zuvor irgendwo gelesen hat, dass Backlinks “Böse” sind.

2. “Eine umfassende SEO-Kampagne ist mir zu teuer – Beschränken wir uns bitte nur auf Maßnahme X”

Selbstverständlich ist SEO eine kostenintensive Angelegenheit und zumindest für sehr kleine Betriebe eine oftmals als riskant eingeschätzte Investition. Gerade große Agenturen rufen Horrorpreise auf und verkaufen Links teilweise für 300% des Einkaufspreises an Kunden weiter und rechnen wahnsinnig viele Stunden ab. Oft hören Neukunden bei großen Agencies den Satz: “Also eigentlich machen wir nichts mehr unter 3.000€ pro Monat”. Dass dies vor allem kleinere Unternehmen oder auch StartUps abschreckt, ist also vorprogrammiert.

Hand auf’s Herz: Wer in seiner Nische gut ranken möchte, der benötigt wie schon erwähnt in 99% der Fälle eine allumfassende Suchmaschinenoptimierung und auch das oft falsch eingeschätzte Linkbuilding ist absolut Vonnöten, um mit der Konkurrenz, die vielleicht schon organisch ein größeres Linkprofil besitzt, mithalten zu können.

Wie gehen wir in der Regel bei Kunden mit knappem Budget vor?

In aller Regel kümmern wir uns sowieso zuallererst um Onpage-Analyse und erste Maßnahmen zur Optimierung auf der Seite selbst. Idealerweise fangen wir dann auch schon parallel dazu an, die ersten Links aufzubauen, um Google zu signalisieren: “Hey, die Seite wurde Onpage verbessert und ist deshalb nun beliebter bei den Usern.” Jenes paralleles Linkbuilding lassen wir bei knappem Budget vorerst weg.

Nach einer initialen Onpage-Optimierung ist (außer auf News-Seiten) in der Regel dann erst mal lange Zeit kein Verbesserungsbedarf mehr vorhanden. Eine Onpage-Optimierung kostet je nach Größe der Seite wenige hundert Euro bis in 5-stellige Beträge hinein, wenn es sich um sehr große Portale handelt. Nachdem dies vollbracht ist, kann der Kunde sein gesamtes Budget also dafür einsetzen, dass wir ein starkes Linkprofil aufbauen.

Eingeschränkte Maßnahmen, die einfach keinen Sinn machen

Es lohnt sich beispielsweise nicht, die Seite Onpage nur “so halb” auf Vordermann zu bringen oder festzulegen: “Bis 500€ kann ich bei euch investiern, macht einfach so viel, wie mit diesem Budget erreichbar ist. Dies ist definitiv die falsche Stelle um knausrig zu werden und es würde viel Potential verschenkt werden. Auch beim Linkbuilding geben Neukunden oft ein viel zu schmales Budget vor, mit dem man einfach keine nennenswerte Link-Velocity aufbauen oder beibehalten kann. Der hauptsächliche Denkfehler ist an dieser Stelle, dass viele Seitenbetreiber Investitionen in SEO nicht als wiederkehrend rentable Investition sehen, sondern als unliebsames Mittel zum Zweck “Weil eben jede gute Firma bei Google zu finden ist”.

3. “Meine Seite rankt mittlerweile gut, dann kann ich mir ja das Geld für weitere Links sparen”

Diese Aussage ist eher eine Halbwahrheit. Es stimmt natürlich, dass man kurzfristig pausieren kann, jedoch führt ein kompletter Einbruch der Link-Velocity langfristig zu einem erneuten De-Ranking, da es Google signalisiert, die Seite wäre für die zu rankenden Suchbegriffe nicht mehr relevant bzw. hilfreich genug, was einen direkten Rankingfaktor darstellt. Auch wird hierbei nicht bedacht, dass die Top-Konkurrenz definitiv versucht aufzuholen und/oder ihre führende Position in den SERPS stabilisieren möchte. Auf kurz oder lang ist man ohne weiteren Linkaufbau also im nachteil und wird von Google nach und nach wieder zurück ins Nirvana geschickt.

Wir besprechen zum Zweck der Beibehaltung der Rankings mit dem Kunden das nachfolgend verfügbare Budget und gleich die Möglichkeiten mit jenem Budget ab mit der Linkvelocity und der Linkstärke der direkten Konkurrenz und versuchen so den perfekten Kompromiss zwischen Kostenersparnis und Effektivität zu finden.

Fazit

Dies war selbstverständlich nur eine eingegrenzte Auswahl der häufigsten Irrtümer, die bei Klienten vorherrschen. Die Meisten sind absolut nachvollziehbar, da SEO von vielen Nicht-Experten auf dem Gebiet nicht durch und durch verstanden und im Netz auch sehr viel Desinformation gestreut wird – Sei es von schlechten SEO-Beratern oder direkt seitens Google. Hier ist man als SEO-Consultant demnach in der Pflicht, Vertrauen zum Kunden aufzubauen und möglich Maßnahmen ganz genau zu erläutern – Kommunikativität ist hierbei der Schlüssel.