Feeds: RSS 2.0 | RSS 0.92 | Atom

Farmer-Update: Einige Erklärungsansätze

geschrieben am 29.03.2011 von

Das Farmer-Update von Google ist derzeit in aller Munde, die Erklärungsansätze sind aber noch recht rar gesät. Einen sehr spannenden Artikel hat dazu Bert Schulzki verfasst. Dort vermutet er, dass vor allem fehlender Brand-Traffic die Ursache fürs Abrutschen etlicher, aber eben bei weitem nicht aller Contentfarmen ist. So sehr mich seine Argumentation überzeugte – und das sollte sie auch, schließlich habe ich vor einem guten Jahr beim Google-Marken-Boost ähnlich argumentiert – so bin ich inzwischen doch zur Überzeugung gelangt, dass sie in diesem Fall nicht zutreffend ist.

Denn das Update zielt auf die (oftmals eben nicht vorhandene) inhaltliche Qualität und diese Qualität hat wenig mit Brands zu tun. Wir müssen uns nur einmal erinnern, mit welch spammigen Seiten so manche Online-Ableger von bekannten Printmedien in den letzten Jahren angetreten waren. Das Brand-Update 2009 hatte ja eine ganz andere Zielsetzung: Damals hatte Google offenbar festgestellt, dass viele Nutzer bei der Suche nach generischen Begriffen – etwa Drucker – bekannte Brands wie Canon oder Brother vermissten. Für diese Zielsetzung ist die Auswertung des Brandtraffics sinnvoll. Im Farmer-Update geht es hingegen darum, die Seiten vorne anzuzeigen, die bessere Qualität haben. Überlegen wir deshalb einmal, wie diese Qualität algorithmisch gemessen werden könnte.

Semantische Analyse

Auf den ersten Blick naheliegend wäre es, die inhaltliche Qualität eines Textes automatisiert zu bewerten. Doch kann das wirklich funktionieren? Werfen wir dazu einen Blick auf folgenden Pseudo-Ratgeber-Text:
Gartenteich anlegen
Um im eigenen Garten einen Gartenteich anlegen zu können, benötigen wir eine Teichfolie, manchmal auch einfach Teichplane genannt. Viele Heimwerker würden nun hergehen und ein Loch graben, doch wir sparen uns diese Arbeit. Wir schichten einfach einen runden Sandwall auf und legen die Folie hinein. Nun durchlöchern wir unsere Teichfolie, denn das befördert den Sauerstoffaustausch und verhindert die Algenbildung. Wenn wir jetzt noch unseren Tümpel mit Wasser aus dem Schlauch füllen, ist unser selbstgemachter Gartenteich auch schon fertig.

Dieser Text ist sprachlich ordentlich geschrieben und setzt sogar einige Synonyme ( für die Freunde der Latent Semantischen Optimierung) ein. Trotzdem ist jedem Menschen klar, dass so nie ein Gartenteich funktionieren würde. Aber kann tatsächlich eine Maschine erkennen, dass der Sandwall dem Wasserdruck nicht standhielte und eine durchlöcherte Folie nicht für bessere Sauerstoffversorgung sorgte? Bis wir soweit sind, dürften noch einige Jahrzehnte vergehen.

Nutzerverhalten

Ich habe in einem früheren Artikel bereits die Möglichkeiten, die Google hat, das Nutzerverhalten zu bewerten, einmal dargelegt. Die dort geschilderten Möglichkeiten ließen sich auch einsetzen, um die Qualität von Artikeln auf Contentfarmen zu bewerten. Allerdings ist die Analyse dieser Daten sicherlich nicht so ganz einfach. Wer einen Gartenteich anlegen möchte, wird bei der Recherche meist mehr als nur einen Artikel lesen. Wenn also der Nutzer auf die Ergebnisse eins, zwei und drei geht und dann (von Googles Radar) verschwindet, heißt das, dass eins und zwei schlecht, Artikel drei aber gut war? Oder einfach nur, dass der Nutzer nach dem dritten Artikel bemerkt hat, dass alle wesentlichen Hinweise ähnlich sind und er somit seine Recherche abbrechen kann?

Für so weitreichende Entscheidungen wie sie offensichtlich beim Farmer-Update getroffen wurden, erscheinen mir die Daten des Nutzerverhaltens auf den Google-Suchergebnisseiten zu schwammig zu sein als dass Google diesen Daten alleine vertrauen würde.

Social Media Signale

Allerdings ist das Web heute voll von Hinweisen auf das Verhalten von Nutzern – und Google kann viele davon abgreifen. Denn Nutzer stellen heute mit guten Inhalten alles mögliche an: Sie twittern URLs, sie stellen Artikel in Bookmarking-Dienste wie Mister-Wong ein oder sie teilen sie mit ihren “Freunden” auf Facebook.

Tabelle mit Backlink-Daten
Anzahl von Backlinks auf die beispielhaft ausgewählten Content-Farms.

Um einen Eindruck davon zu bekommen, ob sich daraus Rankingsignale für unseren Zweck ableiten ließen, habe ich für jeweils drei zufällig ausgewählte Farmer-Verlierer und -Gewinner über Yahoo die Backlinks aus den drei Social-Diensten Twitter, Facebook und Mister-Wong ermittelt und aufgelistet. Mir ist bewusst, dass die Erhebung dieser Zahlen über Yahoo alles andere als zuverlässig ist. Aber ich möchte hier ja auch keinen Beweis antreten, sondern lediglich einen Denkanstoß geben. Und die Zahlen deuten an, dass das Farmer-Update womöglich in diese Richtung gehen könnte.

Ich höre schon den Einwand, dass diese Dinge ja einfach manipuliert werden könnten. Und ja, das ist richtig. Das gibt Matt Cutts im Wired-Interview explizit zu:

But for example, our most recent algorithm does contain signals that can be gamed. If that one were 100 percent transparent, the bad guys would know how to optimize their way back into the rankings.

Diese Aussage legt zudem nahe, dass es keine tiefsinnigen semantischen Analysen gibt und auch die Auswertung des Nutzerverhaltens auf den Google-SERPs nicht das zentrale Kriterium ist – beide Punkte wären nicht so einfach zu manipulieren. Getwitterte und gefacebookte URLs sind hingegen recht einfach zu beeinflussen; auch wenn Google garantiert detailliertere Analysen macht als nur die pure Anzahl an Erwähnungen zu bewerten. So wäre eine erste Verbesserung, nicht die pure Anzahl an Social-Mentions heranzuziehen, sondern diese in Relation zur Anzahl vorhandener (oder in einem bestimmten Zeitraum veröffentlichter) Artikel zu setzen. Ich kann mir jedenfalls gut vorstellen, dass solche Analysen zumindest als Teil der Spam-Signale mit eingeflossen sind. Und wer meint, solch vage Zahlen eignen sich nicht als Ranking-Parameter, der möge nochmals meinen Artikel über Spam-Signale und Ranking-Faktoren lesen.

Sobald das Farmer-Update (oder Panda-Update, wie Google es nennt) auch hierzulande angekommen ist, sollten wir uns leichter tun mit einer Analyse. Wenn auch die Geschichte der letzten großen Updates – Mayday, Brand – zeigt, dass es uns Google immer schwerer macht, die Änderungen zu durchschauen.

Weiterer Lesestoff

Zusammenstellung der Gewinner und Verlierer
Offizieller Google-Post
Algorithmus-Änderung: Google sucht nach Qualität
Zahlen zu den Gewinnern und Verlierern

Bildnachweis: Markus Langer – Fotolia.com

2 Kommentare

  • Markus
    29. März 2011 14:01

    Sehr guter Gedankenanstoß, aber denke auch, dass es selbst mit deutschen Daten nicht einfach sein wird, die letztlich ausschlaggebenden Panda-Signale herauszufiltern. Verschiedentlich ist ja auch die Frage aufgekommen, ob die Farmer vielleicht nur “halbautomatisch” (also eben nicht “voll-algorithmisch”) gebrandmarkt wurden bzw. werden.

  • Mariusz
    30. März 2011 06:40

    @Markus: habe auch davon gehoert, allerdings gehe ich bei Google davon aus, dass sie eher eine Whitelist-Markierung einsetzen und dann den Algorithmus dann aktiviert haben.

    Ein weiterer Faktor(!), der fuer die Gewinner sprechen koennte, ist die Bouncerate. Jedoch nicht gemessen anhand der ueblichen Datenquellen (Adsense, Analytics, Toolbar, PubDNS etc.), sondern per Suchintensitaet (Stichwort: Suchintervalle). Daraus abgeleitet, bietet sich imho ein moegliches Muster zur Erkennung von werbe-schwangeren und zusammengescrapten Seiten.

Entschuldige, das Kommentarformular ist zurzeit geschlossen.

SEOlytics
- Anzeige -

Weitere Artikel

SEO Cheat-Sheet

Termine

Suchmaschinen-Ranking

Suchmaschinen-Verzeichnis

Suchmaschineneintrag

Intern

Linktipps

Archiv: 2012, 2011, 2010, 2009, 2008, 2007, 2006, 2005, 2004, 2003, 2002, 2001, 2000