Tod und Auferstehung von SEO

Das Internet hat sich in den letzten Jahren gewaltig verändert. Neue Technologien und  das Aufkommen von Social Media haben erheblich dazu beigetragen. Auch Google hat seine Suchmaschine und deren Algorithmus ständig weiter entwickelt, einerseits, um Spam und Manipulation zu unterbinden, zweitens, um eine bessere Nutzererfahrung zu bieten und drittens, um neue Entwicklungen im Web aufzugreifen und diese zu kongenial abzubilden.

Dazu gehört beispielsweise die Integration von sozialen Signalen (Tweets, Likes, etc.) als Ranking-Faktoren. Oder die Nutzererfahrung einer Website, die seit dem letzten Update namens Panda wesentlich stärker bewertet wird. Vor diesem Hintergrund verändern sich auch die Aufgaben von SEO.

Rand Fishkin, Chef der Internet Marketing Company SEOmoz und einer der Vordenker eines neuen, integrierten Ansatzes ist der Meinung, dass der moderne SEO ein Webstratege werden muss. Was damit gemeint ist, erläutert er in der folgenden Präsentation, die ich nur  jedem wärmstens an’s Herz lege, der sich auch nur ansatzweise für Online Marketing, SEO und Social Media interessiert.

Advertisements

What is SEO / Search Engine Optimization in Plain English

Was sich hinter dem Begriff SEO (= Search Engine Optimization) zu deutsch Suchmaschinenoptimierung verbirgt, ist nicht unbedingt jedem klar und auch nicht so einfach zu erklären. Und immer, wenn es darum geht etwas Komplexes im Internet möglichst anschaulich zu vermitteln, ist Commoncraft nicht weit.

Für die großartige Ressource zum ThemaWhat is SEO” von Search Engine Land, einem der populärsten Blogs zum Thema Suchmaschinenoptimierung und Suchmaschinenmarketing, haben sie ein knapp 3:30 minütiges Video in bewährter “plain English” Manier verfasst. Sehen Sie selbst!

Was geht ab auf Facebook? 10 Monitoring Tools für Trends, Themen und Neuigkeiten

Facebook MonitoringFacebook ist mit seinen weit über 500 Millionen Nutzern natürlich eine attraktive Plattform, wenn es darum geht, angesagte Trends, aktuelle Themen und wichtige Diskussionen zu entdecken und zu verfolgen. Neben der in-house Suche von Facebook, die noch stark verbesserungswürdig ist, gibt es eine Reihe von externen Tools, die den öffentlich zugänglichen Datenstrom von Facebook durchsuchen und Einsichten in die ‘Likes’ und ‘Shares’ der Nutzer vermitteln. Grundlage dieses Datamining sind a) die offene Programmierschnittstelle (API) und b) die Social Plugins von Facebook. Im Folgenden stelle ich 10 (+2) dieser Dienste kurz vor.

Like Button: Hat zwar das Facebook Erscheinungsbild, gehört aber nicht zum Unternehmen. Die Like Button Seite listet die aktuellsten und populärsten Links, die auf Facebook geteilt werden in verschiedenen Kategorien auf. Ist man auf Facebook angemeldet, wird auch das Sharing-Verhalten des eigenen Freundeskreises reflektiert.

SharedLikes: Aggregations-Seite mit ähnlichem Look & Feel wie Like Button. Als zusätzliches Feature gibt es hier noch die Suchfunktion, welche anzeigt, wieviele Likes für die einzugebende Website angefallen sind. Auch bei SharedLikes werden, falls in Facebook eingeloggt, die populären Links der Freunde mit angezeigt.

All Things Now: Diese Seite funktioniert ähnlich wie die beiden Vorgänger. Hier werden die am häufigsten geteilten (‘shared’) Links versammelt und können nach Themengebieten oder über die eingebaute Suchfunktion abgesurft werden.

myprops.org: Ebenfalls eine aggregierende Seite, die sich selbst als ‘Content Discovery Engine’ bezeichnet. Sie speist sich aus dem gesamten Social Web, wobei Facebook-Inhalte eine herausragende Stellung einnehmen (Facebook Most Shared Videos, Facebook Most Shared Links). Eine Suchfunktion ist ebenso vorhanden wie die Möglichkeit, nach Themen und Kategorien zu filtern.

openbook: Ist eine Suchmaschine, mit der sich öffentliche Updates von Facebook Usern durchsuchen lassen. Die Entwickler wollen mit diesem Projekt eigentlich auf datenschutzrelevante Missstände bei Facebook hinweisen. Ein interessantes Feature unter Marktforschungsgesichtspunkten könnte die geschlechterspezfische Abfrage nach Männern oder Frauen sein.

Kurrently: Eine Echtzeit-Suchmaschine, die Facebook und Twitter durchsucht, die aber eine Filtermöglichkeit anbietet, so dass nur die öffentlichen Datenströme von Facebook oder Twitter präsentiert werden. Interessant für das Monitoring ist die Integration von RSS, so dass Suchanfragen per Feedreader abonniert werden können.

Topsy: Eine der besten Echzeit-Suchmaschinen für das Social Web. Um aus dem sozialen Datenstrom spezielle Facebook Inhalte zu isolieren, geht man in die ‘Advanced Search’, wo es diverse Filtermöglichkeiten gibt. Dort den Suchbegriff und unter ‘Search within a site or domain’ dann facebook.com eingeben. Verfügt über RSS!

Socialmention: Ebenfalls ein hervorragendes Such-und Analyse Tool für das Echtzeitweb. Neben der generellen Suche über das gesamte Social Web hinweg, bietet Socialmention unzählige Filtermöglichkeiten an –  über einzelne Kategorien wie Blogs oder Social Networks bis hin zu speziellen  Quellen wie etwa Twitter, Digg, Netvibes oder auch Facebook. Verfügt über RSS!

Google’s Realtime Search: Aufgrund der wachsenden Bedeutung des Social bzw. des Echtzeitweb hat Google 2010 reagiert und seine Echtzeitsuche als weitere vertikale Suchmaschine eingeführt. Neben der Hauptquelle Twitter werden auch öffentliche Updates aus Facebook angezeigt. Hier gibt es ebenfalls über die Advanced Search (oder den Operator site:facebook.com) die Möglichkeit, nach Inhalten aus Facebook zu filtern.

quirk.li: Offensichtlich ein deutsches Projekt, das auch unter Adtellingence bekannt ist. Auch hier handelt es sich um eine Suchmaschine, die den Vorteil hat, dass nach verschiedenen Sprachen (Deutsch, Englisch, Spanisch, Französisch, Italienisch, Japanisch, Niederländisch) gefiltert werden kann.

Zwei weitere interessante Dienste mit ambitionierteren Ansätzen sind Booshaka und Likester. Beide erfordern allerdings die Installation der zugehörigen App in Facebook, um daraus Nutzen ziehen zu können.

Blekko’s Live Link Roll Widget – Eingehende Links in Echtzeit anzeigen lassen

Aufstrebende Suchmaschinen wie Blekko haben es enorm schwer gegen die übermächtige Konkurrenz Google. Nicht immer liefert diese solche Steilvorlagen wie in den vergangenen Wochen, wo im Fall J.C. Penney großangelegte Manipulationen mit gekauften Links das Vertrauen in den Suchmaschinengiganten mächtig erschütterten. In solchen Phasen fällt dann immer auch ein bischen Aufmerksamkeit für alternative Suchmaschinen ab.

Das Team hinter Blekko versteht es allerdings auch unabhängig davon, sich in’s Gespräch zu bringen. Mit Blekkogear wurde vor kurzem eine ganze Kiste mit Werkzeugen für Webmaster, SEOs und Seitenbetreiber zur Verfügung gestellt. Das neueste Tool in der Sammlung ist das Inbound Link Widget. Dort kann man sich für die eigenen (und andere) Websites die eingehenden Links mehr oder weniger in Echtzeit anzeigen lassen und bei Bedarf natürlich per embed code in die eigene Website einbauen.

Blekko Live Link Widget

Wem nicht unbedingt daran gelegen ist, seine eigene Linksstruktur offenzulegen, kann dieses Tool auch für die Konkurrenzbeobachtung nutzen. Mit dem Inbound Link Widget lässt sich sehr leicht ein Monitoring Dashboard für die eingehenden Links der Mitbewerber aufsetzen. Die Schlauberger von Blekko lassen sich übrigens von jedem ausgelieferten Widget verlinken und kassieren so jede Menge Backlinks, mit denen sie ihre eigene Präsenz in den Suchmaschinen verbessern.

(via SearchEngineWatch.com)

Google und die ungewisse Zukunft der Suche

Die Geschäfte laufen gut. Die Quartalsergebnisse von Google geben kontinuierlich Anlass zur Freude. Der Mobile Markt entwickelt sich anscheinend prächtig. Die Kriegskasse ist gut gefüllt, auch für die Übernahme von “überbewerteten” Unternehmen wie Twitter. Und doch gibt es Grund zur Sorge. Der Kern des Unternehmens, die Suchmaschine und die Qualität ihrer Ergebnisse geraten immer mehr und öffentlich in Misskredit.  Wurde das Thema bereits seit einiger Zeit (wieder) verstärkt in Experten- und SEO-Kreisen diskutiert, ist es auch bei den Mainstream Magazinen wie Spiegel oder der Süddeutschen Zeitung angekommen. Ungeachtet dessen werden die Nutzer vor allem bei produktbezogenen Suchanfragen wie etwa “Geschirrspüler” unmittelbar mit dem Problem konfrontiert.

Die Vorwürfe an Google lauten, dass organisierter Spam die Kontrolle über die Suchergebnisse gewonnen habe. Inzwischen herrschten wieder Zustände wie vor 1998/9, also dem Zeitpunkt, als das frische und noch unkorrumpierte Google auf den Plan trat und viele nutzlose und spamverseuchte Suchmaschinen Geschichte werden ließ. Seit jeher befinden sich Suchmaschinen in einem ständigen Kampf mit Websites, die versuchen, mit unlauteren Mitteln ihre Positionen in den Suchergebnissen zu verbessern und den Algorithmus zu manipulieren. Google hat deswegen Richtlinen entwickelt, um Webmastern und SEOs dezidierte Grundlagen für eine gute Zusammenarbeit zu geben. Darin werden auch unerlaubte Verfahren beschrieben. Die Verschlechterung der Qualität der Suchergebnisse hat verschiedene Ursachen. Hier sind einige der wichtigsten:

Scraping bezieht sich auf das automatisierte “Abkratzen” von dynamischen Inhalten anderer Seiten, um sie dann auf eigenen Seiten einzubinden. So wird einerseits  teures Geld für die Erstellung von originären Inhalten gespart. Zum anderen entsteht dadurch sogenannter duplicate content (mehrfach verwendete Inhalte), was Google verhindern will. Von Google’s Bereinigungsmaßnahmen kann im schlechtesten Fall das Orignal und nicht die Kopie betroffen sein.

Linkspam bedeutet Einsatz von gekauften oder getauschten Links. Seit bekannt wurde, dass Google eingehende Links auf Webseiten für deren Bewertung im Rahmen des PageRank heranzieht, gehört Linkaufbau zu den Aufgaben von Webmastern und SEOs. Dabei werden von einigen schon mal Grenzen überschritten, wie es kürzlich im  heftig diskutierten Fall Bloggergate zu sehen war. Einen Vorfall viel größeren Ausmaßes  deckte die New York Times auf, als sie die guten Suchergebnisse der Kaufhauskette JCPenny und die dahinter stehenden Linkstrukturen untersuchte. Das Irritierende dabei ist, dass Google dieses Treiben monatelang geduldet haben soll.

Content-Farmen produzieren am Fließband Inhalte (Texte, Artikel), die auf Seiten wie beispielsweise ehow.com veröffentlicht werden. Ziel und Zweck dieser billig produzierten Inhalte (das bezieht sich auch auf die schlechte Bezahlung der Autoren) ist es, für bestimmte Themen (also Suchanfragen) in den Suchmaschinen auf den vorderen Plätzen zu erscheinen, was durch geschickte Verlinkung und optimierten Einsatz der Suchbegriffe , sprich SEO, erreicht wird. Auf diesen Seiten wird dann Werbung, insbesondere Google AdWords geschaltet. Das bekannteste Unternehmen in dieser Branche ist Demand Media, das auch hinter eHow steckt. Mit Hilfe eines eigenen Algorithmus wird errechnet, mit welchen Themen sich genügend Werbeeinnahmen erwirtschaften lässt.

Google sah sich aufgrund der massiven Kritik und der negativen PR gezwungen, zu reagieren. Im Hinblick auf Scraping Seiten kündigte dessen oberster Spam Bekämpfer Matt Cutts Ende Januar eine Verbesserung des Algorithmus an. Was den Umgang mit Content-Farmen und “low-quality” Seiten angeht, soll ebenfalls nachgebessert werden:

Nonetheless, we hear the feedback from the web loud and clear: people are asking for even stronger action on content farms and sites that consist primarily of spammy or low-quality content. We take pride in Google search and strive to make each and every search perfect. The fact is that we’re not perfect, and combined with users’ skyrocketing expectations of Google, these imperfections get magnified in perception. However, we can and should do better.

Die kleine, aufstrebende Suchmaschinenkonkurrenz blekko ist da schon einen Schritt weiter. Sie erlaubt sowieso standardmäßig die Suchergebnisse zu kuratieren (für den persönlichen Bedarf anzupassen) und so unerwünschte Seiten auszuschließen. Darüber hinaus wurde jetzt auch eine Liste von Content-Farmen geblockt. Wo wir schon bei alternativen Suchmaschinen sind. DuckDuckGo ist ebenfalls einen näheren Blick wert.

Heute legte Google nach. Zumindest für Nutzer von Google Chrome steht jetzt eine Erweiterung zur Verfügung, mit der sich unerwünschte Seiten, zum Beispiel Content-Farms in den Suchergebnissen blocken lassen. Gleichzeitig gewinnt Google durch dieses Crowdsourcing  wertvolle Rückmeldungen für die Verbesserung seines Algorithmus und die Eindämmung von Spam.

Seomoz: State of the SEO Industry 2010

Bild klicken für größere AuflösungIm April dieses Jahres bat die amerikanische Internet Marketing Firma Seomoz die internationale SEO Community um Mitwirkung bei der zweiten SEO Industry Survey, einer Bestandsaufnahme der Branche. Die erste Umfrage dieser Art fand bereits 2008 statt.

Mit 3.000 Rückmeldungen hatte man gerechnet, über 10.000 sind letztendlich eingegangen. Eine vergleichbare Untersuchung von eConsultancy und SEMPO brachte es nur auf 1.500 Antworten. Ein weiterer Unterschied liegt darin, daß die Seomoz Studie kostenlos zur Verfügung gestellt wird.

Die Untersuchungsergebnisse gibt es in einer kurzen Version als Zusammenfassung. Die vollständigen Ergebnisse werden hier aufgeführt, wobei sogar die Rohdaten im CSV Format zum Download zur Verfügung stehen. Komplettiert wird das Angebot durch die Visualisierung der Resultate in Form einer Infografik, die sogar in Postergröße erworben werden kann.

Disclaimer: „The 2010 SEO Industry Survey content was re-published in whole or in part with permission. SEOmoz is not affiliated with this site.“ The original article on the SEOmoz site: http://www.seomoz.org/seo-industry-survey.

Kostenloses Ebook von Google: Improving Online Conversions for Dummies

Das Werbeprogramm Google AdWords bildet die Grundlage von Google’s außerordentlichem wirtschaftlichen Erfolg. Die kleinen Textanzeigen werden täglich millionenfach geklickt. Sie sind verantwortlich für über zwei Drittel des Umsatzes, den das Unternehmen macht. Im zweiten Quartal 2010 betrug der Anteil von Google AdWords 4,5 von insgesamt 6,82 Milliarden Dollar.

Kein Wunder, dass Google alles tut, um die Hürden für potentielle Werbekunden so niedrig wie möglich zu halten. Neben kostenloser Software wie beispielsweise das Google Keyword-Tool, wird auch umfangreiches Informations- und Weiterbildungsmaterial zur Verfügung gestellt. So wie dieses neue, 68 Seiten umfassende Ebook Improving Online Conversions for Dummies, das von einer speziell eingerichteten Microsite heruntergeladen werden kann.

google adwords for dummies

Das Buch ist auf englisch und in 6 kleine überschaubare Kapitel aufgeteilt:

Chapter 1: Tracking Conversions in AdWords.
Chapter 2: Getting to Grips with Basic Analytics.
Chapter 3: Increasing Conversion Rates with Google Website Optimizer.
Chapter 4: Boosting Conversions with Bid Management Tools.
Chapter 5: Introducing Attribution and Search Funnels.
Chapter 6: Ten (Or So) Useful Phrases.

Technorati Tags: