Vor einigen Tagen hat unser Agenturkollege und ebenfalls Social Media OWL Vereinsmitglied Thomas Kilian von der Thoxan GmbH aus Hille einen sehr interessanten Fachbeitrag über neue Entwicklungen in der Suchmaschinenoptimierung veröffentlicht. Er schreibt, dass sich dieses Thema in den vergangenen Jahren massiv verändert habe und dass der Mensch bzw. die Zufriedenheit der Internetnutzer wieder im Mittelpunkt des Google-Algorithmus stünden. Wir haben die Gelegenheit genutzt, Thomas einige Fragen über diese Entwicklung zu stellen, worauf es im Jahr 2015 tatsächlich ankommt.

Thomas, Du bewertest die Veränderungen in der Suchmaschinenoptimierung ja sehr positiv („wirklich fantastisch“), wie kommt es dazu?

Naja, zum Einen freut mich, dass Google die Nutzerzufriedenheit so hoch aufhängt und endlich aktiv gegen Spam und unnatürliche, minderwertige Inhalte und Verlinkungen vorgeht. Es ist sicher noch nicht alles perfekt (und es gibt auch nach wie vor schwachsinnige Ergebnisse unter den TOP10 bei bestimmten Suchbegriffen), aber die Richtung stimmt und darauf kommt es an! Google wird immer besser daran, die Bedürfnisse der Suchenden zu erkennen und eine Art „Intuition“ zu entwickeln, um wirklich hilfreich zu sein.

Zum anderen freut mich, dass wir als Agenturen im Rahmen der Suchmaschinenoptimierung nachhaltige, qualitativ hochwertige Arbeit leisten können, weil Unternehmen langsam feststellen, dass sie mit „Abkürzungen“ nicht mehr weit kommen. Dies scheint mir in den vergangenen Jahren etwas in Vergessenheit geraten zu sein. Viele waren nicht bereit, in hochwertige Inhalte und sinnvolle, nützliche Verlinkungen zu investieren. Sie haben lieber vermeintlich günstige Angebote wahrgenommen, mit denen sich ja über einen längeren Zeitraum durchaus Erfolge erzielen ließen. Wir haben als Agentur diesen Trend nur bedingt mitgemacht, aber es war schon sehr schwer zu argumentieren, warum wir nicht einfach hunderte von Billig-Links organisieren wie es Wettbewerber A und B machen oder Texte automatisch erzeugen lassen etc. Hier findet gerade ein Umdenken statt, was unserer Arbeitseinstellung und Ausrichtung als Agentur sehr entgegen kommt.

Was heißt „nur bedingt mitgemacht“, habt Ihr denn nie Links getauscht, gekauft oder mit Keyword-optimierten Texten versucht, die Websites Eurer Kunden zu optimieren?

Doch na klar, ich will das gar nicht schönreden, wir haben natürlich auch massenhaft Keywords in Texten untergebracht oder Links getauscht. Aber wir haben immer darauf geachtet, dass die Texte nach wie vor lesbar und sinnvoll strukturiert waren oder dass Verlinkungen aus einem themenrelevanten Umfeld kamen, beispielsweise in Form von echten Gastbeiträgen oder durch Presseveröffentlichungen. Früher war es schon mehr üblich, „harte Keywords“ direkt zu verlinken, um die Rankings positiv zu beeinflussen, manche Kunden haben auch solche Dienstleistungen aktiv beauftragt („Buchen Sie 10 Links von Pagerank-starken Websites mit dem Ankertext -Superwort- innerhalb von 6 Monaten“). Im Großen und Ganzen konnten wir uns aber immer durchsetzen, etwas mehr Abwechslung reinzubringen und den natürlichen Charakter zu bewahren. Deshalb haben nur sehr wenige unserer Kunden eine echte Abstrafung erhalten – auch weil wir nach Bekanntwerden der ersten großen Algorithmus-Updates proaktiv informiert und gegen so manche Link- und Textsünde vorgegangen sind.

Was genau bedeutet „Abstrafung“, hat das etwas mit diesem Panda- und Pinguin-Update zu tun?

Das sind zwei Paar Schuhe! Eine Abstrafung ist eine manuelle Maßnahme von einem Google-Mitarbeiter aus dem Search-Quality-Team. Wenn Deine Website genügend negative Signale aussendet, die Suchergebnisse mit manipulativen Maßnahmen zu beeinflussen, geht vermutlich in Dublin eine rote Lampe an und dann schaut sich ein Mitarbeiter die Probleme an. Über die Webmaster-Tools trudelt dann eine Nachricht ein, dass Google eine Penalty verhängt, meistens auch mit relativ starken Einbußen in der Sichtbarkeit. Es kann also sein, dass ein Webprojekt dadurch einzelne Rankings oder sogar die Positionierung vieler Keywords verliert. Ab dem Zeitpunkt kommen dann natürlich keine Besucher mehr über diese Begriffe auf die eigene Website. Gerade Online-Händler mussten dies hart spüren, weil damit natürlich auch Umsatz-Einbußen einhergehen …

… und wie wird man eine solche Penalty dann wieder los?

Das kommt darauf an, um welche Art von Abstrafung es sich handelt. In den meisten Fällen mahnt Google ein unnatürliches Linkprofil, bestehend aus minderwertigen, getauschten, gekauften oder durch wiederholte Linktexte aufgefallene Backlinks an. Bei einer manuellen Abstrafung musst Du das Problem beheben und dann einen Antrag zur Wiederaufnahme stellen, den sogenannten „Reconsideration Request“. Das ist eine Nachricht über die Webmaster-Tools an Google, dass das Linkprofil bereinigt ist. Dies zu erreichen, kostet viel Blut, Schweiß und Tränen, denn neben der Analyse der minderwertigen Links müssen auch Webmaster kontaktiert und um Löschung der Links gebeten werden. Wo dies nicht gelingt, bietet Google die Möglichkeit einer Entwertung über das „Disavow-Tool“. Hier kannst Du Links einreichen, die von Google nicht mehr berücksichtigt werden sollen.

Warum sich dann die Mühe machen und Links abbauen, wenn Du doch einfach alle über das Disavow-Tool entwerten kannst?

(lacht) Ja, gute Frage! Die stellen mir Kunden auch jedes Mal! Bei einer manuellen Abstrafung muss ja ein Mitarbeiter über die Wiederaufnahme entscheiden, schließlich liegt in der Regel ein „massiver Verstoß“ vor. Die Jungs wollen schon sehen, dass sich ein Website-Betreiber Mühe gibt mit dem Abbau und dass er alles getan hat, um das Problem auch wirklich aus der Welt zu schaffen. Beim Antrag ist eine Protokollierung der abgebauten Links und der Vorgehensweise unserer Erfahrung nach sehr hilfreich. Wenn ich alle schädlichen Links nur zur Entwertung vorschlage, reicht das in den meisten Fällen nicht aus, um die Penalty loszuwerden. Wir haben am Anfang bei eigenen Projekten drei oder vier Anträge gestellt und mussten immer noch eine Runde drehen, bis die Abstrafung aufgehoben wurde, deshalb machen wir mittlerweile gleich eine richtige Säuberungsaktion und heben uns das Disavow-Tool für den nicht löschbaren Rest auf.

Hier gibt es übrigens den größten Unterschied zum Pinguin-Update. Dieser Filter wirkt ebenfalls gegen unnatürliche und minderwertige Verlinkungen, jedoch automatisch im Rahmen des Google-Algorithmus. Hier gibt es keine Wiederaufnahme oder gar einen Antrag, sondern bei Veränderung des Linkprofils stellen sich die Ergebnisse (nach einer gewissen Zeit) meistens von alleine wieder ein. Wir haben die Linkprofile unserer Kunden und von eigenen Projekten proaktiv auch ohne manuelle Abstrafung überprüft und Links abgebaut bzw. über Disavow entwertet, um gar nicht erst im Pinguin-Filter zu landen oder wieder dort rauszukommen.

Ist das für eine SEO-Agentur nicht eine schwierige Situation, wenn Kunden eine Abstrafung erhalten oder in diesem Pinguin-Filter landen?

In der Tat ist das erst einmal nicht ganz leicht, damit umzugehen. Zumal die ganze SEO-Szene ziemlich verunsichert und aufgebracht war. Die gehäuften Abstrafungen sowie das erste Pinguin-Update im Frühjahr 2012 haben für viel Unruhe gesorgt, keiner wusste so recht, worauf er sich einstellen sollte. Wir haben selbst einige unserer eigenen Projekte „an die Wand gefahren“ und viele Rankings verloren, allerdings war zu der Zeit keine unserer Kunden-Websites betroffen. Ich habe dennoch relativ schnell das Gespräch mit allen Kunden gesucht, für die wir aktiv Suchmaschinenoptimierung oder Linkaufbau durchgeführt haben, um die Veränderungen zu erklären und geeignete Strategien zu besprechen. Da Google mit jedem neuen Pinguin-Update (das ist kein einmaliges Ereignis, sondern ein fortlaufender Prozess!) die Daumenschrauben weiter angezogen hat, waren zwischenzeitlich einige wenige Kunden von uns betroffen (überwiegend aufgrund von zu häufigen Keyword-Ankertexten), aber wir haben das immer offen und transparent kommuniziert und gemeinsam Lösungen erarbeitet, um aus dem Filter wieder herauszukommen. Manche Projekte brachten auch schon „Altlasten“ mit, wurden vor unserer Zeit ungünstig verlinkt oder Kunden haben mehrere Dienstleister parallel mit dem Linkaufbau beauftragt, was wir dann erst über die Linkprofil-Analyse im Detail festgestellt haben.

Leider ist die Ursache für fallende Sichtbarkeit nicht immer ganz klar zu erkennen, weil ja viele verschiedene Faktoren zusammenkommen. Neben den Verlinkungen geht es auch um die Aktualität der Website („Freshness“) sowie die Qualität der Inhalte. Gerade in diesem Bereich hat Google durch das zweite Tierchen, den Panda-Filter ja ebenfalls für Wirbel gesorgt. Hier soll minderwertiger Content erkannt und abgewertet werden, etwa bei Duplicate Content, bei sehr mageren Informationen, gespinnten Texten oder allzu plumper Keyword-Wiederholung. Wir arbeiten bei fallender Sichtbarkeit also immer ganzheitlich an verschiedenen Bereichen, sowohl bei der Linkstruktur als auch auf den Inhalt und die Technik bezogen.

Jetzt habe ich neulich noch was vom „Kolibri“ gehört, in welcher Form straft dieser Vogel denn die Website ab?

Das „Hummingbird“-Update aus dem Spätsommer 2013 soll dazu dienen, die Absicht oder das Bedürfnis hinter einer Suchanfrage zu verstehen. Der Kolibri straft also nicht ab, sondern sorgt im besten Fall für relevantere Suchergebnisse. Es geht also nicht mehr um einzelne Keywords, sondern um passende Bedeutungszusammenhänge.

Wer nach „Pizza“ sucht, möchte entweder direkt bestellen (Pizzadienst), seine Pizza selbst machen (Rezept), sich inspirieren lassen (Bilder), die Nährwerte und Kalorien nachschlagen (Angaben) oder die Geschichte und Herkunft dieses Gerichts erfahren (Wissen). Um die Ausrichtung der eigenen Website zu verdeutlichen, kommen strukturierte Daten bei der Programmierung zum Einsatz, aber auch die Verwendung von sogenannten Proof-Keywords. Bin ich ein Online-Shop, sollte der Begriff „kaufen“ oder „bestellen“ im Text vorkommen, bin ich eine Ratgeber-Seite wären diese Wörter eher kontraproduktiv. Wenn Google die Intention einer Suchanfrage nicht genau deuten kann, schlägt die Suchmaschinen unter den ersten Treffern Angebote aus verschiedenen Bereichen vor und misst, worauf die Nutzer wohl am meisten anspringen. So wird das System im Laufe der Zeit (hoffentlich) immer besser.

Ist das der von Dir angesprochene Punkt der Nutzerzufriedenheit, der immer mehr das Ranking beeinflusst?

Unter anderem ja, aber auch die direkten Nutzersignale wie die Abbruchquote („Bounce-Rate“), die Aufenthaltsdauer eines Besuchs, die Form der Interaktion, ob ein Besucher konvertiert (eine Bestellung auslöst oder ein Formular ausfüllt), all dies können Indikatoren sein. Wir prüfen deshalb sehr gezielt mit verschiedenen Analyse-Tools, wie die Nutzer auf Inhalte reagieren. Auch sind Textlänge, Textstruktur, die Art der Gestaltung einer Website, die Häufigkeit von Werbung und Bannern, die Ladezeit und viele weitere, technische Faktoren wichtig, um hier zu einer Bewertung zu kommen. Jüngst hat Google angekündigt, dass ab Ende April die Mobilfreundlichkeit einer Website ebenfalls zum Ranking-Faktor wird. Doch ich bin kein großer Fan von „Responsive Design“ (Gestaltung einer Website angepasst an das jeweilige Endgerät, etwa Smartphone oder Tablet-PC). Denn es berücksichtigt häufig nicht die Nutzerinteressen. Wir sollten lieber von Responsive Content sprechen, der sich je nach Bedürfnis der User verändern sollte – ein hochspannendes Feld, das uns auch als Suchmaschinen-Optimierer noch einige Jahre begleiten wird!