SEO – Dinge, die man wissen sollte

James Star SEO

SEO – Der aktuelle Stand

Suchmaschinen-Optimierung (SEO) ist ein sich ständig weiterentwickelndes, schnelllebiges, sich fortwährend veränderndes Betätigungsfeld. Was in der Vergangenheit ausnutzbar war, muss nicht zwingend heute noch klappen und wird noch weniger wahrscheinlich in Zukunft funktionieren. Dies führt zu einem häufig begangenem Fehler, den viele Webmaster schmerzhaft durchleben. Die meisten SEOs versuchen weiterhin, ihr Suchranking und damit ihren organischen Traffic mit veralteten Methoden zu verbessern. Wenn deren Bemühungen in der Folge nicht das ersehnte Ergebnis widerspiegelt, laufen viele große Gefahr, sich zu sehr mit dem Thema SEO auseinanderzusetzen. Das ist insofern unvorteilhaft, weil die Zeit besser mit der Herstellung weiterer hochwertiger Inhalte genutzt und damit ein weitaus besseres Ergebnis erzielt werden könnte.

Das bedeutet natürlich nicht, dass man als Webmaster das Thema SEO komplett ignorieren sollte. Immerhin kann man in diesem Gebiet weitaus mehr falsch machen, was erhebliche Nachteile nach sich zieht, als es richtig zu machen und Vorteile daraus zu ziehen. In diesem Artikel möchte ich Ihnen ein besseres Verständnis über die derzeitige SEO Situation (Stand: 2014) vermitteln. Was sollte ich tun? Was unterlassen? Was ist wichtig?

Da Google die mit Abstand wichtigste Suchmaschine sowie Marktführer ist, ist das hier Beschriebene vor allem in Bezug auf Google interessant.

Panda, Penguin, Hummingbird – Informationen und Beobachtungen

Panda (erstmals aktiv seit 02/2011)

Ziel: Verbessert das Suchmaschinenranking von Seiten mit hochwertigem Inhalt und verschlechtert erheblich das Ranking von für Besucher uninteressanten Seiten.

Wie Panda funktioniert

PandaSollte der Panda Algorithmus viele minderwertige oder duplizierte Inhalte auf einer Domain finden, so wird nicht nur das Ranking der betroffenen Einzelseiten beeinträchtigt, sondern die ganze Domain in Mitleidenschaft gezogen. Selbst dann, wenn ein anderer Teil der Domain durchaus einzigartige, nutzenbringende Informationen zur Verfügung stellt. Ich habe diese Theorie auf die Probe gestellt und eine minderwertige Doorway-Shoppingdomain aufgesetzt, die aus 150.000 Produkten bestand (was Sinn machte, weil vielfach duplizierter Herstellerinhalt vor allem bei Shoppingwebseiten anzutreffen ist. Darüber hinaus gab es in diesem Feld, außer die wenigen übrig gebliebenen großen Webseiten wie Amazon, Ebay und einige andere, fast keine Konkurrenz mehr, weil Google die meisten Doorway-Seiten seit Mitte 2013 erfolgreich aus dem auffindbaren Web verbannt hat). Um festzustellen was passiert, habe ich einige durchaus sinnvolle Artikel darunter gemischt.

Nachdem die Seite vollständig gecrawlt und indexiert war vergingen zwei Wochen, ehe die gesamte Domain im Filter lag. Um sicher zu gehen, wiederholte ich den Test mit einer anderen Domain. Dieses Mal brauchte Google nur sechs Tage. Da mein Interesse geweckt war, habe ich mir mit meinem dritten Test zumindest im Ansatz etwas Mühe gegeben, um die offensichtlichsten algorithmischen Erkennungsmethoden auszuhebeln (Maskierung sowie nofollow bei externen Links, nicht ausschließlich Herstellerproduktdaten verwendet, einzigartige Produkttitel und einige andere Dinge). Natürlich war das ganze unter dem Strich immer noch eine Spamdomain, die wenig Nutzen für die Besucher hatte. Interessant war jedoch, dass diese Seite nicht vom Panda Algorithmus erwischt wurde. Als sie täglich etwa 800 Besucher mit weiter steigender Tendenz aufwies, wurde sie von Googles manuellem Webspam-Team unter die Lupe genommen und natürlich als “Pure Spam” abgestraft. Das war jedoch nicht weiter tragisch, denn so konnte ich testen, wie lange es dauert, um solch eine Domain durch erneute Überprüfungen wieder aus dem Exil zurückzuholen. Um es kurz zu machen, nachdem alles gelöscht war und sich stattdessen ein duzend interessanter Artikel darauf befanden, wurde die Testdomain bei der fünften erneuten Überprüfung wieder in den Index aufgenommen.

Woran kann man erkennen, ob man von Panda erwischt wurde?

Panda hat zugeschlagenFalls Sie nicht sicher bezüglich der inhaltlichen sowie codetechnischen Qualität Ihrer Webseite sind, so beantworten Sie bitte folgende für Sie zusammengestellte Fragen:

  • Nutzen Sie ein Content Management System (CMS) wie WordPress, Joomla, Drupal or Typo3 und lassen Sie Google alles indexieren, inklusive Feed, Autorenarchiv, Tags, Kategorien, Schlüsselwortsuchen, URL-Variablen and präsentiert das von Ihnen verwendete Theme den vollen Artikel anstatt einem Auszug auf einigen dieser Seiten?
  • Haben Sie viele duplizierte oder überlappende Inhalte ohne korrekte Paginierung?
  • Ist der Seiteninhalt oftmals kurz (<300 Wörter) und informiert der Text wirklich über das Thema der Überschrift? Ist es möglich, den Inhalt einiger Seiten miteinander zu verbinden? Längere, aber dennoch informative Artikel schneiden im Schnitt etwas besser ab.
  • Haben Sie viele ähnliche Seiten, die nur in wenigen Schlüsselbegriffen variieren?
  • Achten Sie oder Ihre Autoren mit großer Sorgfalt auf grammatikalische Fehler?
  • Akzeptieren Sie Gastartikel und / oder besteht der Hauptinhalt Ihrer Seite von vielen unterschiedlichen Autoren? Was haben Sie gemacht, um massenhaft produziertem, gesponnenem Inhalt entgegenzuwirken?
  • Nutzen Sie immer wiederkehrende große Textblöcke auf Vorlagenbasis (die gleichen Texte auf vielen oder allen Seiten)?
  • Stehlen oder nutzen Sie regelmäßig duplizierte Inhalte von größeren Seiten und schreiben oder spinnen diese nur ein wenig um?
  • Haben Sie (vor allem im oberen Teil) Ihrer Seite drei oder mehr Werbeflächen?
  • Für E-Commerce Webseiten: Bestehen Ihre Produktseiten zum Großteil aus den Herstellerproduktdaten? Was ist mit dem jeweiligen Titel? Was haben Sie gemacht, um sowohl Titel als auch Inhalt zumindest im Ansatz einzigartig zu machen? Falls Sie nur Herstellerinformationen verwenden, wie kann Ihre Seite dann gegen Seiten wie Amazon bestehen? (Das ist wichtig, denn Google legte die meisten E-Commerce-Webseiten (vor allem Partner-Webseiten), die nicht auf einem hohen Niveau konkurrieren konnten, seit Mitte 2013 erfolgreich lahm.

Sind Sie zu einem weiteren Panda-Opfer geworden? Was Sie dagegen unternehmen können

  • Blockieren Sie alle automatisch generierten sowie wenig förderlichen Inhalte. Es ist nicht genug, die betroffenen Seiten nur mit einem noindex zu versehen. Blockieren Sie das Crawling mit Hilfe Ihrer robots.txt, löschen Sie betroffene Inhalte und verwenden Sie für eine schnellere Bearbeitung am besten einen 410 Code anstatt dem üblichen 404 Code, oder aber updaten Sie die Inhalte, um die Qualität insgesamt zu steigern.
  • Seien Sie geduldig. Google vergisst nie ganz URLs, auch wenn diese schon vor vielen Jahren entfernt wurden. Einige davon tauchen von Zeit zu Zeit wieder in den Google Webmaster Tools (GWT) auf. Je nachdem, wie viele Seiten betroffen sind, können sichtbare Änderungen mehrere Monate dauern. Aufgrund meiner eigenen Tests kam ich zu dem Schluss, dass man schlicht nicht aus einem Panda-Filter heraus kommen kann, so lange Google sich weigert, ein neues größeres Update direkt in seinen Datenzentren aufzuspielen, oder die Panda-Abstrafungszeit abgelaufen ist. Ein Datenzentrums-Update geschieht unregelmäßig. In den vergangenen Jahren hat man dies durch ein damals regelmäßig stattgefundenes PageRank-Update oder einem groß angekündigtem Update des bestehenden Suchalgorithmus bemerken können. Ich habe noch keine einzige Domain gesehen, die eine nicht unerhebliche Anzahl betroffener Seiten aufweist (> 500) und aus den Klauen des Panda-Filters an einem “normalen” Tag entlassen wurde.
  • Falls Sie von Panda betroffen sind, bekommen Sie trotzdem keine GWT E-Mail und ja,
    • Sie haben keine Möglichkeit, eine erneute Überprüfung zu beantragen, selbst dann nicht, wenn Sie tiefgreifende Änderungen sowohl am Inhalt als auch am Code vorgenommen haben.
    • es ist gewöhnlich schneller und mit weniger Aufwand verbunden, einen zweiten Versuch mit einer Domain zu bekommen, die zuvor sogar als “Pure Spam” gekennzeichnet wurde.

Können wir etwas von Panda lernen? Zeit (und Google) sollte unser Freund sein, nicht unser Feind. Wir sollten unsere zukünftigen Anstrengungen mehr in Richtung inhaltliche Qualität verlagern anstatt auf schnelle Resultate zu hoffen.

Penguin (seit 04/2012)

Ziel: Verringert erheblich das Ranking von Webseiten, die verschiedene Black Hat Strategien nutzen, um besser in den SERPs abzuschneiden. Da Backlinks schon immer das wichtigste Kriterium waren, überwacht Penguin vor allem den Linkaufbau, die zugehörigen Ankertexte sowie Linkqualität.

Wann fällt man Penguin zum Opfer?

Penguin

  • Link Manipulation durch große Mengen gleicher externer Schlüsselwort-Ankertexte (interne Schlüsselwortverlinkungen sind vollkommen in Ordnung und haben keinen Einfluss auf Penguin. Im Gegenteil: Es ist sogar empfehlenswert, intern großzügig mit Schlüsselwortverlinkungen umzugehen. Externe Ankertexte von Brandlinks sind weniger restriktiv).
    • Verdächtiges Beispiel: 1000 Backlinks von verschiedenen Domains, die alle auf die gleiche Seite verweisen und das mit immer demselben Ankertext “günstige Autoversicherung”.
    • Natürliches Beispiel: 1000 Backlinks von verschiedenen Domains, die auf verschiedene Unterseiten mit unterschiedlichen Schlüsselwörtern verweisen, inklusive der Verwendung von gar keinem Schlüsselwort, Stopp-Wörtern und generischen Links wie “hier”, “hier klicken”, “diese Seite” sowie zusätzlicher Brandlinks wie “domain”, “domain.de” und “www.domain.de”. Unterschiedliche Ankertexte sowie verschiedene Linktypen sind wichtig, um von Penguin verschont zu bleiben.
  • Es gibt keine feststehende Regel wie: “Wir erlauben maximal 30% der gleichen externen Schlüsselwort-Ankertexte, sofern eine Seite mehr als 20 Backlinks besitzt. Wenn Sie 31% oder mehr haben, greift der Penguin-Filter.” Aller Wahrscheinlichkeit nach definiert Google Regelsätze, die von mehreren Faktoren abhängen und darum auch für jede Branche unterschiedlich sind (z.B. Linkanzahl, Linktyp, Linkqualität und Branchendurchschnitt). Wenn dann eine Seite im Verhältnis zur Konkurrenz bei den eingehenden Ankertextlinks ohne offensichtliche Rechtfertigung stark abweicht (z.B. durch ein weitverbreitetes und vertrauenswürdiges Plug-in), läuft diese hohe Gefahr, von Penguin erwischt zu werden.
  • Bezahlte Links sind ein klarer Verstoß gegen die Google-Richtlinien. Aber wie erkennt und entscheidet Penguin, ob ein externer Link bezahlt oder vielleicht doch eine echte Empfehlung ist? Der Algorithmus kann das nicht mit absoluter Sicherheit feststellen, aber er kann Annahmen treffen, ob ein Link legitim ist oder nicht. Wichtige Faktoren sind thematische Relevanz (siehe unten), der verwendete Linktext und die Vertrauensdifferenz zwischen der verlinkten Domain und der verlinkenden Domain. In Googles Augen ist es relativ unwahrscheinlich, dass beispielsweise eine PR5 Seite auf einer PR8 Domain direkt auf eine PR0 Seite auf einer PR1 Domain verlinkt. Wäre der Fall umgekehrt, so wäre das Ganze sehr viel wahrscheinlicher.
  • Um festzustellen, ob ein Backlink legitim ist oder nicht, ist die thematische Relevanz der verlinkenden Seite zur verlinkten Seite ebenfalls von Bedeutung. Wenn es im zentralen Inhalt des Artikels über “günstige Autoversicherungen” geht und dort plötzlich ein Link auftaucht, der auf eine Porno-Seite verlinkt, dann könnte Penguin hellhörig werden.
  • Wenn Sie Linkaufbau betreiben, dann bauen Sie Backlinks konstant auf. Google speichert das genaue Datum von jedem einzelnen eingehenden Link, sobald diese erstmals erkannt wurden. Falls Sie 100 Links pro Monat über die letzten drei Monate hinweg platzierten, null im nächsten und im darauffolgenden plötzlich 10.000, dann laufen Sie Gefahr, im Penguin-Filter zu landen.
  • Ein weiterer Punkt ist die Qualität der eingehenden Links. Falls die überwiegende Mehrzahl der Backlinks das Ergebnis von leicht zu erhaltenden Links z.B. durch Blogkommentare, Verzeichnisse, Linklisten, Profile und Newsarchive sind, dann sollten Sie Ihre Strategie nochmals überdenken, denn diese Art Links werden von Google oftmals abgewertet. Im Januar 2014 hat Google zudem bestätigt, dass davon auch Backlinks betroffen sind, die von Artikelverzeichnissen und Gastblogging stammen. Das bedeutet zusammengefasst, dass so ziemlich jeder leicht zu erhaltende Backlinktyp, sofern man ihn in größeren Mengen hat, Penguin auslösen und damit schädlich für Ihre Website sein kann. Umgekehrt gilt das jedoch auch: Verlinken Sie von sich aus auf gute themenbezogene Inhalte, dann erhalten Sie ebenfalls einen kleinen Schub für Ihre Seite (denn das ist ein Qualitätsmerkmal, nutzen Sie es).

Wie kann man feststellen, ob man im Penguin-Filter steckt?

  • Wie schon beim Panda-Filter, bekommen Sie ebenfalls keine E-Mail, wenn Penguin Ihre Seite herabstuft. Erhalten Sie jedoch eine “unnatürliche Links Warnung” in GWT, so schätzen Sie sich glücklich, denn dann können Sie dagegen offensiv etwas tun und haben zudem die Möglichkeit, die Aufhebung des Filters zu beantragen.
  • Sollten Sie jedoch keine E-Mail erhalten und ab einem bestimmten Datum einen großen Sichtbarkeitsverlust verzeichnen, dann forschen Sie nach, ob Google ein Penguin-update an dem Tag aufgespielt hat. Das sieht dann in etwa so aus wie auf dem Bild unten.

Penguin update
Sollte Penguin Ihr Hauptanliegen sein, dann versuchen Sie, eine ganzheitliche Sicht zu bewahren. Die einzelnen Signale sind nur Teile eines größeren Puzzles. Falls von Ihrer Webseite nicht mehrere Black Hat Signale ausgehen, dann kommen Sie womöglich trotz einer größeren Menge gleicher Schlüsselwortankertexte mit einem blauen Auge davon. Haben Sie jedoch eine große Zahl fragwürdiger, Schlüsselwort bestückter Backlinks von unrelevanten Linkquellen und senden zugleich noch andere zwielichtige Signale aus, dann kann Penguin durchaus davon ausgelöst werden. Und das, obwohl die verschont gebliebene Konkurrenz insgesamt vielleicht eine höhere Anzahl gleicher Schlüsselwortankertexte hat als Sie.

Darüber hinaus können große und einflussreiche Seiten wie Amazon, Ebay, Welt, Adobe, Bild zumindest theoretisch sehr viele Black Hat Signale aufweisen und trotzdem Penguin nicht auslösen. Wieso? Weil Seiten wie diese eine noch viel größere Zahl an Qualitätssignalen aussenden, sodass es unter dem Strich keinen Unterschied mehr macht. In der heutigen Zeit sind viele Webmaster und SEOs frustriert und reden davon, dass Google sehr großen Unternehmen einen Freifahrtschein gewährt. In Wahrheit ist es jedoch unwahrscheinlich, dass Google diese Unternehmen gesondert behandelt. Aufgrund ihrer Größe und der sehr hohen Zahl an qualitativ hochwertigen eingehenden Links auf die jeweiligen Unterseiten müssen sie die oberen Plätze für sehr viele Suchanfragen einnehmen. Umgekehrt bedeutet das jedoch, dass sich solche Unternehmen tatsächlich Dinge mit Erfolg erlauben können, die kleinen und mittelständischen Unternehmen unter Umständen das Genick bricht. (Beispielsweise, viel Glück damit, wenn Sie heutzutage versuchen, mit nicht einzigartigem Inhalt in Verbindung mit einem (oder in manchen Fällen sogar gleich mehreren!) riesengroßen seitenweiten Footer(n) sowie massenhaft interner wie auch externer Follow-Links zum eigenen Linknetzwerk, zu ranken.) Sie beurteilen, ob so etwas fair ist oder nicht.

Von Penguin betroffen? Was Sie dagegen unternehmen können

  • Status quo hilft nicht weiter. Analysieren Sie Ihr Backlink-Profil gründlich und räumen Sie mit dem Disavow-Tool auf. Bevor Sie eingehende Links herabwerten, sollten Sie die Linkquellen kontaktieren und diese bitten, die Links zu entfernen. Bitte beachten Sie, dass die entwerteten Links zwar keinen Schaden mehr anrichten können, nutzen können Sie Ihnen jedoch auch nicht mehr. Entwerten Sie also gute Links, wird hierdurch Ihre Sichtbarkeit in den SERPs noch weiter reduziert. Ein Backlink Profil zu analysieren und zu untersuchen ist ein zeitaufwändiger Prozess. Wenn Sie sich nicht sicher sind, heuern Sie jemanden an, der weiß was er tut.
  • Überhaupt ist es eine gute Idee, das Disavow-Tool von Zeit zu Zeit zu nutzen, um präventiv minderwertige, automatisch generierte Links zu entwerten. Durch solche Links fließt ohnehin nicht viel Linksaft.
  • Seien Sie geduldig. Es dauert eine Weile, bis sich die Auswirkungen bemerkbar machen. Sofern Sie keine zusätzliche manuelle Abstrafung durch Google erhalten haben, kommen Sie aus dem Penguin-Filter nicht heraus, solange Google kein neues großes Update in den Datenzentren durchführt oder der zeitlich begrenzte Penguin-Filter ausläuft. Das kann mehrere Monate dauern, manchmal sogar über ein Jahr. In den vergangenen Jahren konnte man solch ein Datenzentrenupdate beispielsweise durch die Aktualisierung des öffentlich sichtbaren PageRanks oder dem Aufspielen eines weiteren großen Penguin-Updates erkennen.

    Manche Leute schreiben Artikel darüber, dass Sie sich erfolgreich von Penguin erholt hätten, doch meiner Erfahrung nach ist das, ebenso wie bei Panda, nicht mal eben so auf die Schnelle erledigt. In der Regel fehlen eine Reihe wichtiger Informationen, oder die Betroffenen hatten noch gleichzeitig eine manuelle Abstrafung (unnatürliche Links E-Mail in GWT) vorliegen und konnten sich aufgrund dessen von dem Filter befreien. Wer sich mit der Materie auskennt weiß, dass rein algorithmische Panda- und Penguin Herabstufungen herausfordernder und langwieriger zu handhaben sind als manuell vorgenommene Maßnahmen gegen die Domain. Ich habe noch nie eine Domain gesehen (und ich habe schon einiges erlebt), die eine nicht unbeachtliche Menge betroffener Seiten (>500) hatte und trotzdem an einem “normalen” Tag aus den Klauen des Filters urplötzlich entlassen wurde.

    Warum haben viele Webmaster Angst vor einem Penguin update?

    Viele Webmaster und SEOs fürchten sich nicht grundlos vor Penguin, denn eingehende Links sind nach wie vor der mit Abstand wichtigste Rankingfaktor. Viel Glück, wenn Sie ohne aktive Linkaufbau-Strategie in einer Nische mit hohem Wettbewerb tätig sind und Inhalte zur Verfügung stellen, die nicht von sich aus viele natürliche Backlinks anziehen können. Die meisten Menschen verschließen sich vor der Wahrheit, dass nicht alle Themen, Angebote und Branchen von sich aus fähig sind, auf natürliche Weise Backlinks zu generieren, unabhängig davon, wie sinnvoll und strukturiert die Inhalte präsentiert werden. Die harte Wahrheit ist, dass wenn Sie in solch einer Nische tätig sind und nicht selbst aktiv Linkaufbau betreiben, werden Sie von Ihrer Konkurrenz gnadenlos überrollt. Und wenn Sie es doch tun, laufen Sie Gefahr vom nächsten Penguin-Update erfasst zu werden. Die Entscheidung liegt bei Ihnen. Das ist die Welt, in der viele Webmaster leben und deswegen haben auch nicht wenige berechtigte Befürchtungen. Was auch immer Sie tun, nehmen Sie diesen Ratschlag an: Wenn Sie aktiv Linkaufbau betreiben, fühlen Sie sich aufgrund dessen nicht schlecht, aber machen Sie es sinnvoll. Ein paar wenige qualitativ hochwertige Links, an die man nicht ohne Weiteres herankommt, werden Ihnen langfristig mehr nutzen als halb- oder vollautomatisierte Spamlinks, die unter Zuhilfenahme von Linkaufbau-Tools (siehe weiter unten) erstellt wurden.

    Hummingbird (seit 08/2013)

    HummingbirdZiel: Verbessert die Qualität der Suchergebnisse, indem versucht wird, die Absicht des Nutzers hinter der Suchanfrage zu deuten. Wenn man nach einem vollen Satz sucht, versucht Hummingbird die Bedeutung des Satzes zu verstehen, anstatt wie früher die Anfrage Wort für Wort abzuarbeiten. Seiten, die der Bedeutung des Satzes entsprechen ranken höher als solche, bei denen die Wörter lose irgendwo im Text vorkommen.
    Diese Änderung führt vor allem bei der immer populärer werdenden Sprachsuche zu einer erheblichen Verbesserung der Suchergebnisse. Sucht man nur nach ein oder zwei Schlüsselbegriffen, sieht man keinen Unterschied. Sucht man hingegen in ganzen Sätzen oder multiplen Suchbegriffen, dann werden die Suchergebnisse drastisch von Hummingbird beeinflusst.

    Was Sie tun können, um Ihre Website Hummingbird sicher zu machen

    Schreiben Sie für Ihre Besucher, nicht für Suchmaschinen. Zum Beispiel, hören Sie auf Schlüsselwörter anzuhäufen und zugleich mehrere ähnliche Überschriften im gleichen Artikel zu verwenden (<h1>Wie macht man guten Kaffee?</h1> | <h2>So macht man Kaffee richtig</h2> | <h3>Wie kann man guten Kaffee machen?</h3> | <h4>Guten Kaffee machen ausführlich erklärt</h4>). Die Tage, in denen so etwas entscheidende Vorteile brachte, sind vorbei. Google versteht mittlerweile, dass es in Ihrem Artikel um <h1>Die beste Art, guten Kaffee zu machen</h1> oder, in Bezug auf die Überschrift dieses Absatzes: <h4>Wie optimiere ich meine Webseite für Hummingbird?</h4> geht. Man muss nicht ständig Variationen davon mehrfach wiederholen.

    Möglichkeiten, Risiken und potentieller Nutzen

    Wenn Sie bis hierher gelesen haben, möchten Sie wahrscheinlich eine oder mehrere der folgenden Fragen beantwortet haben:

    • “Wie kann ich mich in Google verbessern?”
    • “Wie kann ich auf Position eins kommen?”
    • “Wie erhalte ich mein damaliges Ranking zurück?”

    PuzzleJeder Fall ist anders, aber Sie sind nicht allein. Fragen dieser Art werden immer wieder von einem Großteil der Webmaster in der SEO-Welt gefragt. Die Zeiten, in denen man die Googlesuche mit Black Hat Methoden risikolos und nicht nur für ein paar Tage im großen Stil manipulieren konnte, sind vorbei. Der möglicherweise beste Ratschlag (und ja, viele wollen es nicht hören, denn es ist nicht die Antwort, nach der sie dürsten) ist, seinen Schwerpunkt auf die Erstellung von großartigen Inhalten zu verlagern, die zumindest potentiell Backlinks anziehen und im Laufe der Zeit langsam zu wachsen. Wenn das nicht möglich sein sollte (weil Sie in einer Nische tätig sind, die keinerlei oder nur eine äußerst geringe Menge Links anziehen kann) und Ihre Gedanken sich nur noch um “Ich brauche viel mehr Links um erfolgreich zu sein, oder ich bin erledigt” drehen, dann haben Sie vermutlich noch viele schlaflose Nächte vor sich. In diesem Fall wäre es womöglich eine Überlegung wert, mehr Zeit in Offline-Strategien zu investieren, um das zu bewerben, was Sie verwirklichen möchten. Denken Sie lieber mehr in Richtung “Was kann ich neben dem Internet tun?” als “Wie kann ich im Internet Erfolg haben?” oder “Wie kann ich es Google recht machen?”. Das gesagt, bleibt festzuhalten, dass wir (noch) nicht in einer Welt leben, in der jede unternommene Anstrengung Ihrerseits sofort von Google bestraft wird. Unterhalten wir uns also über Möglichkeiten, Risiken und potentiellem Nutzen.

    Hohes Risiko, geringer Nutzen

    Automatisierte Linkaufbau-Software

    Die Verwendung von Linkaufbau-Software wie SEnuke, GSA, Magic Submitter oder Ultimate Demon auf kleinen oder mittelgroßen Domains birgt mittlerweile ein hohes Risiko. (Sie können damit nach wie vor gute Resultate auf Domains mit hoher Autorität wie z.b. YouTube erzielen, um Video URLs zu optimieren). Doch der noch vor einigen Jahren hochgelobte und vielfach angepriesene gestufte Linkaufbau ist nur noch äußerst begrenzt nützlich und die Links direkt auf seine Domain zu leiten, wird Ihnen auf Dauer mehr schaden als nutzen.

    Kommentarspam

    Warum Kommentarspam nicht mehr funktioniert, dürfte offensichtlich sein. Kommentarlinks sind normalerweise ohnehin nofollowed und wenn Sie ein Schlüsselwort als Ankertext anstatt Ihres Namens verwenden und damit spammen, dann erhöhen Sie damit die Chance, dass Penguin an Ihre Tür klopft, um Hallo zu sagen.

    Hohes Risiko, hoher Nutzen

    Gekaufte Links: Immer noch eine Option?

    Heutzutage sollten Sie es sich doppelt überlegen, ob Sie Links direkt, ohne Zwischendomain, zukaufen. Vor allem, wenn diese entweder seitenweit (Widget, Footer…) angebracht sind, oder von Bloglinks im typischen “drei externe Follow-Links pro Post” Stil ausgehen. Diese beiden sind die am häufigsten gekauften Linkarten (die großen Mengen nutzloser Spam-Links auf Spam-Seiten mit jeweils Hunderten von externen Links nicht mitgerechnet). Das ist algorithmisch leicht zu erkennen, also vermeiden Sie solche Angebote lieber. Ich bin nicht hier, um jemanden für den Kauf von Links zu verurteilen, also wenn Sie wirklich wissen wollen, welche Art gekaufter Links noch immer (zumindest derzeit) verhältnismäßig sicher sind, lesen Sie weiter.

    1. Überprüfen Sie mit Moz oder Majestic, wie Ihre Domain allgemein abschneidet. Googles PageRank war früher richtig gut geeignet dafür, aber wie Sie sicherlich wissen, wird zumindest der öffentlich sichtbare Teil nicht mehr regelmäßig geupdated.
    2. Kaufen Sie keine billigen Links von gehackten Seiten oder Linkquellen, die deutlich über Ihrer Liga spielen. Das sieht verdächtig aus (und birgt normalerweise auch ein gewisses Risiko für den Anbieter). “Spenden”-Seiten hat Google ebenfalls verschärft ins Visier genommen. Halten Sie lieber Ausschau nach Quellen, die leicht besser als Ihre Webseite abschneiden. Wenn diese dann sogar noch thematisch relevant für Sie sind, umso besser. Solange der Anbieter sich nicht erwischen lässt, weil er das öffentlich und im großen Stil anbietet, oder Sie in einem Black Hat Linknetzwerk landen, stehen die Chancen ziemlich gut, dass Sie ungestraft davon kommen. Ja, gekaufte Links sind grundsätzlich nicht gefahrlos, aber der Nutzen ist nach wie vor recht groß. Das mag sich in Zukunft ändern.

    Erschaffen Sie sich ein eigenes Linknetzwerk mit schlüsselwortreichen Footer-Links

    Das ist noch immer äußerst effektiv, aber wenn Sie keine Webseiten mit hoher Autorität und vielen Qualitätssignalen haben, ist die Chance recht hoch, dass Sie auf Dauer mit dieser Methode Probleme bekommen. Davon abgesehen, sollte eine Ihrer Netzwerkseiten auffällig werden, dann ist Ihr gesamtes Netzwerk einem hohen Risiko ausgesetzt. Einige große Unternehmen (das ist auch bei einigen zuvor genannten Firmen der Fall) praktizieren dies schon seit Jahren erfolgreich, und schaffen sich so einen zusätzlichen Vorsprung vor ihrer Konkurrenz.

    Wenig Risiko, geringer Nutzen

    Sie erstellen eine große Mengen mittelmäßiger Inhalte und hoffen, dass dadurch Ihre Traffic-Probleme gelöst werden. Leider kommen Sie durch so etwas nicht weit. Solange der Inhalt nicht gerade als Spam klassifiziert wird, werden Sie dafür auch nicht bestraft, aber ohne aktives Marketing und ohne, dass Sie dadurch an eingehenden Links hinzugewinnen, bringt das so gut wie nichts.

    Wenig Risiko, hoher Nutzen

    James Star

    • Erstellen Sie exzellente Inhalte, die wirklich Backlinks im Laufe der Zeit erzeugen können.
    • Fordern Sie Linksaft zurück, den Sie bereits besitzen. Schauen Sie in GWT nach eingehenden Links, die auf 404-Seiten führen, weil die dazugehörigen Artikel in der Vergangenheit entfernt oder verschoben wurden. Leiten Sie die Links mittels 301-Weiterleitungen an sinnvolle Stellen auf Ihrer Seite weiter.
    • Versuchen Sie, hauptsächlich Links von Quellen zu erhaschen, die sowohl einer manueller Überprüfung als auch redaktioneller Zustimmung bedürfen, um zugelassen zu werden. Mit dem Absenden herausragender Inhalte, die wirklich einzigartig, nutzbringend und interessant sind, können Sie Ihre Chancen drastisch erhöhen. Halten Sie jedoch die Anzahl von Gastblogging-Links in Grenzen, da dies bereits offiziell verurteilt wurde. Sie haben jedoch immer die Möglichkeit, menschliche Beziehungen zu anderen Webmastern aufzubauen und zu fördern.
    • Generell ist jeder qualitativ hochwertige Link wertvoller denn je. Auf einen längeren Zeitraum betrachtet, ist Qualität Quantität vorzuziehen. Das ist eine solide Grundlage, zukunftsweisender SEO Anstrengungen.

    Social Media Signale

    LikeEs besteht kein Zweifel, dass die Nutzung von Social Media als alternative Traffic Ressource eine gute Sache für die meisten Webseiten ist. Allerdings möchte ich auf einen Aspekt von Social Media besonders eingehen: Die Anzahl der Likes, +1s usw. Wenn Sie glauben, dass dies ein Ranking-Faktor für Suchmaschinen ist, unterliegen Sie einem Irrglauben. Um es klar auf den Punkt zu bringen, mehr als eine hübsche große Nummer anzeigen tun die nicht. Selbst tausende von Likes und Tweets, die nicht in realen Backlinks von Ihren begeisterten Besuchern münden, werden Sie in den SERPs nicht einen einzigen Platz nach oben bringen. Sie helfen ihnen wirklich nur dann, wenn Sie durch die zusätzliche Besucherzahl neue eingehende Links erhalten. Das mag sich zwar in Zukunft ändern, doch ich halte das für unwahrscheinlich. Warum? Diese Signale sind viel zu leicht zu manipulieren. Wenn das mit einbezogen werden würde, dann würde in kürzester Zeit wieder deutlich mehr Chaos in den SERPs herrschen. Das gilt übrigens auch für den Google+1 Button.

    Wenn Sie mir nicht glauben, weil Sie sonst wo anderes gehört haben, dann versuchen Sie es doch einfach selbst. Erstellen Sie sich eine 0815-Seite auf einer Domain ohne hoher Autorität. Schauen Sie, wo sich diese Seite einpendelt. Dann geben Sie ihr einige tausend Social Media Likes und beobachten Sie so lange wie Sie wollen, wie sich diese Seite nicht vom Fleck bewegt.

    Auf der anderen Seite ist das Google Autoren-Ranking Wirklichkeit. Demzufolge sind Sie gut beraten, Google+ zu nutzen.

    • Das kleine Bildchen neben den Suchergebnissen ist natürlich hilfreich für Click-Throughs.
    • Wenn Sie jedoch bereits einen guten Ruf bei Google+ für ein bestimmtes Thema genießen, dann können Sie durchaus bei bestimmten Artikeln höher als Ihre Konkurrenz in den Suchergebnissen eingestuft werden. Das Autoren-Ranking ist ein klares Qualitätssignal, das bereits fest im Algorithmus eingebaut ist.

    Andere allgemein nützliche Tipps

    • Falls nicht schon geschehen, machen Sie Ihre Seite mit einem entsprechenden Design mobil freundlich. Jedes Jahr nimmt die Anzahl der Mobilgeräte massiv zu. Auch wenn es nicht unbedingt einen unmittelbaren SEO Nutzen nach sich zieht, so ist doch jeder Nutzer, der Ihre Seite nicht in voller Pracht erfahren kann, ein Nutzer weniger, mit dem Sie potentiell ins Geschäft kommen können.
    • Verwenden Sie Bilder und wenn möglich Videos. Beides sind Qualitätssignale, auf die Sie nicht verzichten sollten. Reiner Text wird zudem schnell eintönig.
    • Die lokale Suche ist ein Faktor, der nicht leichtfertig ignoriert werden sollte. Google ist bemüht darum, Websites in Ihrer Sprache, Ihrem Land und vor allem Ihrem lokalen Umfeld eine Präferenz einzuräumen. Je nach Nische, könnte sich das durchaus zu Ihrem Vorteil nutzen lassen.
    • Die inhaltliche Qualität Ihrer Seiten setzt sich im Wesentlichen aus drei Kriterien zusammen:
      • Reichhaltigkeit: Wie aufschlussreich und interessant ist der Text? Man kann auch mit viel Text wenig sagen. Es gibt algorithmische Erkennungsmethoden, um zumindest im Ansatz festzustellen, wie reichhaltig und relevant ein gegebener Text ist.
      • Einzigartigkeit: Wie einzigartig sind Ihre Inhalte im Vergleich zu anderen thematisch ähnlichen Quellen?
      • Neuheit: Google mag neue und frische Dinge. Neuere Beiträge können ältere ähnliche Themen in der Suche ersetzen.
    • Bemühen Sie sich darum, immer korrekte Metadaten zu verwenden. Schlecht gewählte Metadaten können Ihren Webauftritt aus SEO Sicht stark beeinträchtigen.
    • Wenn Sie nicht gerade ein sogenanntes “Churn & Burn” Business praktizieren, denken Sie langfristig (mindestens zwei Jahre im Voraus) und setzen Sie sich diesen Zeitrahmen als Grundlage Ihrer SEO-Bemühungen. Falls Sie vor allem auf schnelle Resultate hoffen, werden Sie damit wahrscheinlich Ihre Langfristziele gefährden. Heute in zwei Jahren interessiert keinen mehr, ob Sie damals auf Position eins waren oder nicht. Zentraler ist die Frage: “Wird Zukunfts-Google immer noch das gut heißen, was ich heute tue?”
    • Geschwindigkeit beim Seitenaufbau ist selbstverständlich wichtig. SEO-technisch hat es eine langsam ladende Webseite schwer, mit einer blitzschnellen Seite mitzuhalten. Folgende Dinge helfen gewöhnlich, die Geschwindigkeit beim Seitenaufbau zu erhöhen: Blockierende Elemente aus dem Header entfernen, Caching wiederkehrender Objekte, Nutzung eines Content Delivery Network (CDN) für statische Dateien, PHP-Datenbankanfragen reduzieren, den Browser-Cache aktivieren und Javascript, HTML sowie CSS verkleinern. Das bei Ihnen verfügbare Caching-Verfahren hängt stark davon ab, ob Sie Root-Zugang zu Ihrem Hosting-Server (VServer, Dediziert > Alle, einschließlich APC, Memcached, XCache…) oder nicht (Shared > HDD, Datenbank) haben.
    • Es kommt nicht nur auf die Qualität, sondern auch auf die Relevanz von eingehenden Links an. Dies gilt insbesondere für Fremdsprachen. Die relevantesten Links stammen von Domains aus Ihrem Zielland.

    Empfehlung: Seien Sie ein White Hat, aber testen Sie hinter den Kulissen weiter

    Black Hat White HatEs geht bei einem langfristig angelegten Projekt nicht darum, in kürzester Zeit auf eine so Hohe Position wie möglich zu kommen. Im Kern geht es auch nicht um das Marketing an sich. Es geht in erster Linie darum, überhaupt etwas zum Vermarkten zu haben: Nämlich nützliche Produkte oder Dienstleistungen, die ansprechend präsentiert sind und auf einem Code basieren, der exzellent indexiert werden kann.

    Im Laufe der Zeit werden Sie sich einen Ruf aufbauen, der unter anderem in Form von Links und Referenzen Ausdruck findet, mit denen Sie wiederum mehr Leute erreichen können. Warum ist das wichtig? Es ist nicht ganz leicht zu akzeptieren, dass auf Lange Sicht nicht unbedingt die selbsterstellten Links am besten sind, welche heute den meisten Linksaft übermitteln. Vielmehr werden es solche sein, die Menschen für Sie erstellen, die Ihre Seite mögen. Letztere Links bringen Sie vielleicht in den nächsten Tagen oder Wochen nicht dort hin, wo Sie gerne hin möchten, doch mit Googles gegenwärtigen Anti-Spam-Maßnahmen scheint es nur eine Frage der Zeit, bis diese Links die einzigen sind, die Ihnen überhaupt noch in der Google-Suche nach oben verhelfen können.

    In der Vergangenheit hatte der Begriff SEO viel gemeinsam mit Möglichkeiten, um Googles Algorithmus auszutricksen und zu seinem Vorteil zu manipulieren, denn das war schon immer in hohem Maße profitabel. In den letzten Jahren hat sich jedoch viel getan und der Begriff SEO hat eine grundlegend neue Bedeutung erhalten. Seien Sie also nicht einer derjenigen, die sich stur und anpassungsunwillig zeigen. Die zentrale Frage ist nicht mehr: “Wie kann ich Google überlisten?” Assoziieren Sie mit dem Begriff SEO eher Folgendes: “Wie kann ich die Gesamtqualität (Code und Inhalt) meiner Webseite steigern, sodass ich es Google erleichtern kann, mich dort einzustufen, wo ich gerne sein würde?”

    Das gesagt, möchte ich Ihnen dennoch nahelegen, weiterhin neue und auch schräge Ideen auszuprobieren. Wenn Sie nicht selbst neue Dinge versuchen (und damit meistens Fehlschlagen), dann sind Sie immer auf aus zweiter Hand stammenden Erfahrungen angewiesen, durch die Sie in vielen Fällen nicht das gleiche Wissen und die nötige Flexibilität erhalten, die Sie haben könnten, wenn Sie selbst Sachen ausprobieren.

    Im Allgemeinen würde ich einem über SEO sprechenden Menschen mehr Gehör schenken, wenn dieser es in der Vergangenheit mehrfach (absichtlich oder nicht) übertrieben hat, sodass Google einige seiner Domains auf dem Gewissen hat, als jemandem, der von Anfang an alles “richtig” machte, weil er alle möglichen Risiken und potentiellen Fehler scheute. Die erstgenannte Person weiß ganz genau, wo Limits liegen und sie weiß vor allem, weswegen Sie etwas auf eine ganz bestimmte Weise macht, da sie selbst die nötigen Erfahrungen gesammelt hat und das ist viel wert. Abgesehen davon ändern sich die effizientesten Methoden ständig und nur die SEO Basis (z.B. die Wichtigkeit qualitativ hochwertiger Backlinks, ansprechende Inhalte) bleibt davon relativ unberührt. Sollten Sie also in der Vergangenheit erwischt worden sein, fühlen Sie sich deswegen nicht schlecht. Lernen Sie daraus, ziehen Sie weiter und machen Sie es nächstes Mal besser. Und falls Sie noch nie aufgefallen sein sollten, haben Sie keine Angst davor, großartige Ideen auszuprobieren.

    Das war es vorerst. Vielen Dank fürs Lesen. Ich wünsche noch einen schönen Tag!

    facebooktwittergoogle_plus

Leave a Reply

Your email address will not be published. Required fields are marked *

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>