Die Evolution des Google Rankings und die Konsequenzen für das Online Marketing

Wachsende Kritik an der Qualität seiner Suchergebnisse, die zunehmend von qualitativ minderwertigen Seiten wie zum Beispiel Content Farmen beherrscht wurden, veranlasste Google, mit einem Update seines Algorithmus zu reagieren. Das sogenannte Farmer/Panda Update wurde Ende Februar vorgenommen und betraf immerhin etwa 12% der US Suchergebnisse. Die deutsche SEO Firma Sistrix hat die Auswirkungen untersucht und die größten Verlierer ermittelt.

Google hat im Lauf der Zeit seinen Algorithmus, der sich aus mindestens 200 verschieden Faktoren zusammensetzt, immer wieder durch Updates angepasst bzw. weiterentwickelt. Die wichtigsten Updates, früher auch Google Dances genannt, sind in einer Infografik von Level343.com dargestellt.

Rand Fishkin, Chef der amerikanische SEO Company SEOmoz hat sich Gedanken die zukünftige Entwicklung der Suchmaschinen, auch im Hinblick auf Traffic für Websites gemacht. Er geht davon aus, dass:

  1. Die Suchmaschinen in eine “ganzheitliche” Richtung gehen werden, bei der Marken mit einer mehrdimensionalen Online-Präsenz bevorzugt werden und natürlichen Traffic beispielsweise auch durch Social Media Aktivitäten erhalten.
  2. Die Zunahme und die zunehmende Bedeutung von Social Media Seiten wie Facebook, Twitter, Yelp, aber auch Newcomern wie Foursquare oder Quora  kann – wenn geschickt genutzt – zu einer zunehmenden Diversifikation des Traffics führen und so den Anteil bzw. die einseitige Abhängigkeit von Suchmaschinen (aber auch anderen dominanten Kanälen) verringern.

In der Präsentation The Evolution of Google Rankings führt er diese Überlegungen weiter aus.

Bonus: Passend zum Thema gibt es ein aktuelles Adzine Interview mit dem bekannten deutschen SEO Markus Tandler aka Mediadonis –>  “Wie groß ist der Einfluss von Social Media auf das Ranking”

Google und die ungewisse Zukunft der Suche

Die Geschäfte laufen gut. Die Quartalsergebnisse von Google geben kontinuierlich Anlass zur Freude. Der Mobile Markt entwickelt sich anscheinend prächtig. Die Kriegskasse ist gut gefüllt, auch für die Übernahme von “überbewerteten” Unternehmen wie Twitter. Und doch gibt es Grund zur Sorge. Der Kern des Unternehmens, die Suchmaschine und die Qualität ihrer Ergebnisse geraten immer mehr und öffentlich in Misskredit.  Wurde das Thema bereits seit einiger Zeit (wieder) verstärkt in Experten- und SEO-Kreisen diskutiert, ist es auch bei den Mainstream Magazinen wie Spiegel oder der Süddeutschen Zeitung angekommen. Ungeachtet dessen werden die Nutzer vor allem bei produktbezogenen Suchanfragen wie etwa “Geschirrspüler” unmittelbar mit dem Problem konfrontiert.

Die Vorwürfe an Google lauten, dass organisierter Spam die Kontrolle über die Suchergebnisse gewonnen habe. Inzwischen herrschten wieder Zustände wie vor 1998/9, also dem Zeitpunkt, als das frische und noch unkorrumpierte Google auf den Plan trat und viele nutzlose und spamverseuchte Suchmaschinen Geschichte werden ließ. Seit jeher befinden sich Suchmaschinen in einem ständigen Kampf mit Websites, die versuchen, mit unlauteren Mitteln ihre Positionen in den Suchergebnissen zu verbessern und den Algorithmus zu manipulieren. Google hat deswegen Richtlinen entwickelt, um Webmastern und SEOs dezidierte Grundlagen für eine gute Zusammenarbeit zu geben. Darin werden auch unerlaubte Verfahren beschrieben. Die Verschlechterung der Qualität der Suchergebnisse hat verschiedene Ursachen. Hier sind einige der wichtigsten:

Scraping bezieht sich auf das automatisierte “Abkratzen” von dynamischen Inhalten anderer Seiten, um sie dann auf eigenen Seiten einzubinden. So wird einerseits  teures Geld für die Erstellung von originären Inhalten gespart. Zum anderen entsteht dadurch sogenannter duplicate content (mehrfach verwendete Inhalte), was Google verhindern will. Von Google’s Bereinigungsmaßnahmen kann im schlechtesten Fall das Orignal und nicht die Kopie betroffen sein.

Linkspam bedeutet Einsatz von gekauften oder getauschten Links. Seit bekannt wurde, dass Google eingehende Links auf Webseiten für deren Bewertung im Rahmen des PageRank heranzieht, gehört Linkaufbau zu den Aufgaben von Webmastern und SEOs. Dabei werden von einigen schon mal Grenzen überschritten, wie es kürzlich im  heftig diskutierten Fall Bloggergate zu sehen war. Einen Vorfall viel größeren Ausmaßes  deckte die New York Times auf, als sie die guten Suchergebnisse der Kaufhauskette JCPenny und die dahinter stehenden Linkstrukturen untersuchte. Das Irritierende dabei ist, dass Google dieses Treiben monatelang geduldet haben soll.

Content-Farmen produzieren am Fließband Inhalte (Texte, Artikel), die auf Seiten wie beispielsweise ehow.com veröffentlicht werden. Ziel und Zweck dieser billig produzierten Inhalte (das bezieht sich auch auf die schlechte Bezahlung der Autoren) ist es, für bestimmte Themen (also Suchanfragen) in den Suchmaschinen auf den vorderen Plätzen zu erscheinen, was durch geschickte Verlinkung und optimierten Einsatz der Suchbegriffe , sprich SEO, erreicht wird. Auf diesen Seiten wird dann Werbung, insbesondere Google AdWords geschaltet. Das bekannteste Unternehmen in dieser Branche ist Demand Media, das auch hinter eHow steckt. Mit Hilfe eines eigenen Algorithmus wird errechnet, mit welchen Themen sich genügend Werbeeinnahmen erwirtschaften lässt.

Google sah sich aufgrund der massiven Kritik und der negativen PR gezwungen, zu reagieren. Im Hinblick auf Scraping Seiten kündigte dessen oberster Spam Bekämpfer Matt Cutts Ende Januar eine Verbesserung des Algorithmus an. Was den Umgang mit Content-Farmen und “low-quality” Seiten angeht, soll ebenfalls nachgebessert werden:

Nonetheless, we hear the feedback from the web loud and clear: people are asking for even stronger action on content farms and sites that consist primarily of spammy or low-quality content. We take pride in Google search and strive to make each and every search perfect. The fact is that we’re not perfect, and combined with users’ skyrocketing expectations of Google, these imperfections get magnified in perception. However, we can and should do better.

Die kleine, aufstrebende Suchmaschinenkonkurrenz blekko ist da schon einen Schritt weiter. Sie erlaubt sowieso standardmäßig die Suchergebnisse zu kuratieren (für den persönlichen Bedarf anzupassen) und so unerwünschte Seiten auszuschließen. Darüber hinaus wurde jetzt auch eine Liste von Content-Farmen geblockt. Wo wir schon bei alternativen Suchmaschinen sind. DuckDuckGo ist ebenfalls einen näheren Blick wert.

Heute legte Google nach. Zumindest für Nutzer von Google Chrome steht jetzt eine Erweiterung zur Verfügung, mit der sich unerwünschte Seiten, zum Beispiel Content-Farms in den Suchergebnissen blocken lassen. Gleichzeitig gewinnt Google durch dieses Crowdsourcing  wertvolle Rückmeldungen für die Verbesserung seines Algorithmus und die Eindämmung von Spam.

Infographik: Die Geschichte der Suche (und ihrer Vermarktung)

… oder wie das Geschäft mit der Suche im Web ein 20 Milliarden Dollar Geschäft wurde.

Search Engine History.

Infographic by the PPC Blog.com

Verwandte Beiträge:

Infographik: Wie Google funktioniert

Die Geschichte der Suchmaschinen als Infografik

Technorati Tags:

Tracking und Targeting: Den Nutzern auf der Spur

Internetnutzung ist untrennbar mit den Themen Datenschutz und Privatsphäre verbunden. Dazu gehören einerseits die “freiwilligen” Entäußerungen von Nutzern beispielsweise auf Social Networks, andererseits aber auch Daten und Informationen, die man unfreiwillig und unwissentlich durch seine Bewegungen im Netz preisgibt.

Gaben sich die Werbetreibenden in den Anfängen des World Wide Web noch damit zufrieden, Anzeigen in einem halbwegs relevanten Umfeld (Website) zu platzieren, geht es heute eher darum, Zugang zu Nutzern mit bestimmten Eigenschaften zu haben. Um Nutzer und ihren Präferenzen auf die Spur zu kommen, wird das sogenannte Tracking eingesetzt.

Mittels kleiner Programme, die beim Besuch von Webseiten auf den Rechner geladen werden, können Informationen gesammelt und Profile erstellt werden. Dazu gehören Cookies oder Beacons. First-party Cookies merken sich zum Beispiel bevorzugte Einstellungen auf einer Seite, was durchaus bequem für den Nutzer ist. Durch Third-party Cookies können Rechner aber mit einer bestimmten ID Nummer versehen und dadurch das Nutzungsverhalten über viele verschiedene Websites (etwa eines Werbenetzwerks) verfolgt werden. Beacons sind in der Lage, die Bewegungen eines Nutzers auf einer Seite aufzuzeichnen, inklusive Eingaben und Mausbewegungen.

Tracking ist die Grundlage einer milliardenschweren Werbebranche und wird für diese immer wichtiger. Je besser die Informationen aus dem Tracking, desto gezielter kann dem einzelnen Nutzer möglichst passende Werbung gezeigt werden. Und je relevanter die Werbung für einen Nutzer, desto höher die Chance auf eine Interaktion mit dem Werbemittel. Im Idealfall wird sie dann schon gar nicht mehr als Werbung sondern als nützliche Information angesehen.

Das nennt sich dann entweder Behavioral Targeting oder auch Interest-based Advertising. Die letztere, etwas euphemistische Variante wird von Yahoo! oder Google bevorzugt. Wie das Ganze funktioniert, zeit das folgende Video von Google, das interessanterweise auf dem Google Privacy Channel veröffentlicht wurde:

Das Wall Street Journal hat diesem Thema ein sehr gut gemachtes Projekt unter der Überschrift What they know gewidmet. In einer Serie von Artikeln werden mit teilweise investigativen Methoden unterschiedliche Aspekte beleuchtet, wobei die einzelnen Beiträge mit aufwändigen interaktiven Grafiken und Videos versehen sind, die das Beschriebene anschaulich machen. Ein Glossar rundet dieses empfehlenswerte Special ab.

Technorati Tags:

Infographik: Wie Google funktioniert

Eine Suchanfrage bei Google ist einfach und schnell gemacht. Zu erklären, was danach passiert, dauert aufgrund der Komplexität der Vorgänge etwas länger.

Auf Seobook’s Schwesterblog, dem PPC Blog gibt es eine Infographik, die Google unter die Haube schaut und die komplizierte Arbeitsweise der Suchmaschine sichtbar machen will. Als Nebeneffekt liefert sie Online Marketern wichtige Argumentationshilfen, um skeptischen Kunden vor Augen zu führen, wie aufwändig SEO und SEM Maßnahmen doch sind.

How Does Google Work?

Infographic by PPC Blog

Technorati Tags:

SEO Beratung durch Google Experten

Wovon viele Webseiten-Betreiber träumen, wurde auf der Google Entwickler Konferenz Google I/O 2010 für einige zumindest wahr: Eine Beratung – aus erster Hand sozusagen – durch kompetente Mitarbeiter der wichtigsten Suchmaschine.

Während der Session SEO Site Advice from the Experts konnten die Teilnehmer konkrete Fragen zu ihren eigenen Websites stellen. Das Google Search Quality Team vertreten durch Matt Cutts, Google’s oberstem Spam-Bekämpfer, Greg Grothaus und Evan Roseman sowie die SEO-Expertin Vanessa Fox lieferten Antworten und Analysen.

Das einstündige Video findet sich auf der Google I/O Seite im Bereich Session Videos, (wo über 90 weitere Sessions der Konferenz dokumentiert sind und als Video oder als Präsentationscharts zur Verfügung stehen). Für alle, die nicht soviel Zeit mitbringen, hat das Ikroh Blog die wichtigsten Erkenntnisse daraus schriftlich zusammengefasst.

Wie funktioniert Google?

Diese Frage wird vor dem Hintergrund des überwältigenden Erfolgs des Unternehmens und seiner dominierenden Stellung im Netz immer wieder gestellt. Google will jetzt mit drei kurzen, einfachen Videos auf einer Microsite selbst Antworten dazu  liefern. Die drei Kernbereiche Suche, Anzeigen und Anwendungen (Search, Ads und Apps) und ihre wichtigsten Aspekte werden von renommierten Mitarbeitern aus der jeweiligen Sparte allgemeinverständlich erklärt.

Matt Cutts erklärt, wie die Suche funktioniert:

Nundu Janakiram erläutert die Anzeigen auf den Suchergebnisseiten:

Vivian Leung veranschaulicht die Google Anwendungen:

[via Google Operating System]

Technorati Tags: