Das Google Panda Update und die Auswirkungen in Deutschland

 

Google Update Panda Bear

(Bildquelle sxc.hu)

 

Der Panda in Deutschland

In der zweiten Augustwoche 2011 aktivierte Google das bereits im Februar in den USA ausgerollte Panda-Update auch in Deutschland. Um dieses und andere Aktualisierungen am Index zu verstehen, sollte man sich immer das Credo der Suchmaschine vor Augen halten:

"Our goal is simple: to give people the most relevant answers to their queries as quickly as possible."

Google Blog

 

Der Hintergrund zum Update

Durch das Caffeine-Update im Juni 2010 wurde der Index drastisch erweitert und um neue Inhalte angereichert, die nicht alle als hochwertig zu bewerten waren. Mit "Big Panda" (nach einem Mitarbeiter bei Google benannt) räumt die Suchmaschine unbeabsichtigt hochgespülte Fragmente wieder heraus.

Der nun zugrunde liegende Algorithmus basierte auf Ergebnissen eines Fragenkatalogs an Quality Rater.

Im Februar diesen Jahres erschien für den Google Chrome Browser eine Extension zum Blocken von Seiten (Personal Blocklist Chrome extension). Laut diesem Beitrag gab es interessanterweise zwischen den Ergebnissen des Algorithmus und der Liste der über die Blocklist-Extension gemeldeten Seiten eine Übereinstimmung von 84%.
 

Gewinner und Verlierer - genauer betrachet

Ziemlich schnell wurden Anfang August in diversen Blogs Gewinner und Verlierer ausgemacht:

"Gewinner"

- Brands
- Nachrichten- und Infoseiten
- Social Media

"Verlierer"

- Content- und Werbefarmen
- Preisvergleiche
- Frageportale
- RSS & Tweet Aggregatoren
- Personensuchmaschinen
- Verzeichnisse

Vgl. Searchmetrics, Sistrix und Kathrin Siemokrat (PDF Liste mit den jeweils 100 Auf- und Absteigern).

Bei genauer Betrachtung der Liste gibt es keine Gewinner. Es wurden bestimmte Seiten abgewertet, während darunter liegende folglich profitierten. Eine direkte Aufwertung bestimmter Seiten fand nicht statt, so zumindest mein Eindruck. Bestraft wurden Seiten mit hohem Anteil an Werbung, kaum uniquen Texten und qualitativ minderwertigen Inhalten. Dabei spielte wohl auch das Benutzerverhalten eine stärkere Rolle, also ob jemand beim Anklicken einer Seite sofort den Zurück-Button im Browser betätigt ( = Nutzer hat nicht das gefunden, was er bei der Suche erwartete), die reine Verweildauer (sofern z.B. über Google Analytics verwertbar) und die Intensität der Verlinkung / Nennung in sozialen Netzen.

Sowohl Preisvergleiche wie auch Scraperseiten bieten kaum unique Texte und enthalten vergleichsweise viel Advertisement. Über automatisiert übersetzte Inhalten wollen wir hier gar nicht erst anfangen zu reden...

Problem user generated content

Frageportale bieten den bei einigen SEOs so heiß geliebten UGC (user generated content ), der immerhin in 2009 noch 77% des organischen Indexes bei Google ausmachte. Im Gegensatz zu professionell erstellten Texten schreibt der Großteil der Benutzer meist banal und inhaltlich wenig anspruchsvoll.

Fazit

Verschont und somit begünstigt wurden Seiten mit redaktionellen Anspruch.  Es ist davon auszugehen, dass rein technische Faktoren bei der Bewertung nun weniger gewichtet werden und das Userverhalten stärker ausgewertet wird. Man hat die Google Toolbar und den Chrome-Browser etabliert und greift auf eine breitere Datenbasis hinzu. Der Google+-Button war die logische Konsequenz. Webmaster und Affiliates müssen sich nun auf den Nutzer konzentrieren. Eine Veränderung, die aus Benutzersicht zu begrüßen ist. Und die Veränderung am Algorithmus:

"This requires constant tuning of our algorithms, as new content—both good and bad—comes online all the time."

Google Blog

Wer auf dem laufenden bleiben will bei Google Updates, sollte diese SEOMOZ-Seite im Auge behalten.