Ist Content Marketing die Zukunft des Marketing?

Content Marketing, sprich Marketing mit hochwertigen und kreativen Inhalten, ist ja schon seit längerem ein Buzz-Word, das heftig diskutiert wird. Ist es nun alter Wein in neuen Schläuchen oder eine neue Sau, die durchs digitale Dorf getrieben wird? Wurde vorher nur Marketing mit minderwertigen Inhalten betrieben?

Sicher gab es immer schon Marketing mit hochwertigen Inhalten. Aber es gelang eben auch Suchmaschinenoptimierern (SEOs) mit Linkaufbau-Strategien und anderen Tricks eher minderwertige Inhalte auf Suchergebnisseiten nach oben zu pushen. Google hat deswegen mit seinen beiden letzten großen Updates, Pinguin und Panda ganz deutlich Akzente gesetzt. Hochwertige Inhalte sollen bevorzugt und minderwertige abgewertet werden. Die Frage, wie gut Google bzw. sein Algorithmus Qualität erkennen und bewerten kann, wäre einen gesonderten Artikel wert. Ich denke aber, dass Google dafür verstärkt auf Nutzersignale aus dem sozialen Web (z.B. aus Google+) zurückgreifen wird und Links an Bedeutung verlieren. Diese Entwicklung ist also ein erster, wichtiger Grund für die gestiegene Bedeutung von Content Marketing.

Weiterlesen

Das Content Marketing Manifesto: Gute Inhalte als Schlüssel zum Erfolg

Der Begriff Content Marketing taucht in letzter Zeit immer häufiger auf. Unter Content Marketing versteht man das Erstellen und Verbreiten von relevanten und nützlichen Inhalten, um klar definierte Zielgruppen zu erreichen und als Kunden zu erschließen. Im Vordergrund steht dabei nicht das Anpreisen von Produkten und direktes Verkaufen, sondern die kontinuierliche Bereitstellung von wertvollen und nützlichen Informationen zum eigenen Angebot mit dem Ziel, Vertrauen aufzubauen und loyale Kunden zu gewinnen.

Auf Fachblogs wie Content Marketing Institute oder Heidi Cohen findet man eine ganze Reihe weiterer Definitionen. Marketing mit Hilfe von Inhalten – das Corporate Storytelling hat eigentlich eine jahrhundertelange Tradition, wie das folgende Video vom Content Marketing Institute zeigt:

Weiterlesen

Tod und Auferstehung von SEO

Das Internet hat sich in den letzten Jahren gewaltig verändert. Neue Technologien und  das Aufkommen von Social Media haben erheblich dazu beigetragen. Auch Google hat seine Suchmaschine und deren Algorithmus ständig weiter entwickelt, einerseits, um Spam und Manipulation zu unterbinden, zweitens, um eine bessere Nutzererfahrung zu bieten und drittens, um neue Entwicklungen im Web aufzugreifen und diese zu kongenial abzubilden.

Dazu gehört beispielsweise die Integration von sozialen Signalen (Tweets, Likes, etc.) als Ranking-Faktoren. Oder die Nutzererfahrung einer Website, die seit dem letzten Update namens Panda wesentlich stärker bewertet wird. Vor diesem Hintergrund verändern sich auch die Aufgaben von SEO.

Rand Fishkin, Chef der Internet Marketing Company SEOmoz und einer der Vordenker eines neuen, integrierten Ansatzes ist der Meinung, dass der moderne SEO ein Webstratege werden muss. Was damit gemeint ist, erläutert er in der folgenden Präsentation, die ich nur  jedem wärmstens an’s Herz lege, der sich auch nur ansatzweise für Online Marketing, SEO und Social Media interessiert.

What is SEO / Search Engine Optimization in Plain English

Was sich hinter dem Begriff SEO (= Search Engine Optimization) zu deutsch Suchmaschinenoptimierung verbirgt, ist nicht unbedingt jedem klar und auch nicht so einfach zu erklären. Und immer, wenn es darum geht etwas Komplexes im Internet möglichst anschaulich zu vermitteln, ist Commoncraft nicht weit.

Für die großartige Ressource zum ThemaWhat is SEO” von Search Engine Land, einem der populärsten Blogs zum Thema Suchmaschinenoptimierung und Suchmaschinenmarketing, haben sie ein knapp 3:30 minütiges Video in bewährter “plain English” Manier verfasst. Sehen Sie selbst!

Welche Resonanz erzielt meine Blogpost im Social Web? Schneller Check mit URL-basierten Monitoring Tools

Nach der Veröffentlichung einer Blogpost interessiert man sich als Autor selbstverständlich für die Reaktionen und die Resonanz auf seinen Output. Dazu gehören die Sichtbarkeit in den Suchmaschinen für die relevanten Suchbegriffe, die Kommentare auf dem eigenen Blog oder die Referenzierung auf anderen Blogs via Trackback/Pingback.  Auch die Statistiken, die beispielsweise meine Blog Plattform wordpress.com ausliefert, geben ein Feedback und machen Angaben zu Aufrufen, verweisenden Links oder Suchbegriffen, über die Besucher zu den Blogposts gelangen.

Was aber nur unzureichend reflektiert wird, ist die unmittelbare Resonanz im Social Web, dort wo nicht sofort eine direkte und damit messbare Interaktion mit der Website (dem Blog) stattfand. Interessant ist doch auch zu wissen, wie oft wurde der Beitrag  auf Facebook ‘geliket’ oder ‘geshart’, wie oft auf Twitter weitergegeben oder auf Delicious gebookmarkt?

Für den sehr wahrscheinlichen Fall, dass man noch kein professionelles Social Media Monitoring mit Tools wie Radian 6, Sysmos Heartbeat oder Alterian SM2 betreibt, gibt es auch eine Reihe kostenloser Tools für die schnelle Übersicht zu Resonanz und Reaktion auf den wichtigsten Plattformen. Alle im Folgenden vorgestellten Tools analysieren auf Grundlage der URL die ‘soziale Wirkung’ einer Blogpost. Als Beispiel verwende ich meine vorangegangene Blogpost Was geht ab auf Facebook? 10 Monitoring Tools für Trends, Themen und Neuigkeiten, die auf erfreulich große Resonanz stieß.

Backtype: Bezeichnet sich als ‘Marketing Intelligence Company’ und bietet Unternehmen Monitoring und Analyse Tools für das Social Web an. Neben den kostenpflichtigen Lösungen gibt es ein paar kostenlose Basis-Dienste. Für den den hier vorgestellten muss man sich allerdings anmelden.  Danach  kann man in das Suchfeld auf der Startseite eine URL eingeben und sich den ‘social impact’ dergestalt anzeigen lassen:

Backtype

Postrank: 2007 zunächst unter dem Namen AideRSS gestartet, bietet Postrank inzwischen eine ganze Palette von Daten- und Analyse-Diensten an, die soziale Interaktionen, Reaktionen und Wirkungen im Bezug auf Inhalte messen. Auch hier werden etliche kostenlose Tools zur Verfügung  gestellt. Es lohnt sich, das Angebot genauer in Augenschein zu nehmen. Für unseren Zweck ist Discover the Best Blogs (unter dem Reiter Topics)  interessant. Hier dann allerdings nicht die nicht die konkrete Blogpost URL, sondern die allgemeine Blog-URL eingeben! Zu jedem Artikel gibt es einen PostRank Score-Wert. Geht man mit dem Cursor auf diesen Wert, klappt ein Feld mit den Resultaten aus den einzelnen Quellen auf. Das sieht dann in meinem Fall so aus:

Postrank

Shared Count: Ist eine rohes Tool, das der Web Analytics Architect und Entwickler Yahel Carmon gebastelt hat. Es gewinnt zwar keine Schönheitspreise was die Benutzeroberfläche angeht, seine Funktionalität ist davon aber nicht beeinträchtigt. Einfach die konkrete Blogpost URL eingeben und so sieht dann das fertige Zahlenwerk aus:

Shard Count

Keyword Strategy Social Tool: Keyworld Strategy ist, wie der Name schon andeutet, ein Tool aus dem SEO Bereich: Eine Datenbank mit der große Mengen an Keywords online verwaltet werden können. Als kleines kostenloses Extra gibt es das kostenlose Social Tool. Hier werden für eingegebene URLs die Anzahl der Tweets und Facebook Likes (bei Bedarf auch für Sets von bis zu 50 URLs) angezeigt. Die gelieferten ‘Social Data’ für meine URL sahen dann so aus:

Keyword Strategy

Ergänzend zu den vorgestellten Tools will ich noch auf Extensions hinweisen, die zwar für den SEO Bedarf konzipiert wurden, die inzwischen aber auch die für diesen Bereich immer wichtiger werdenden Signale aus dem Social Web abfragen. yExplore gibt es sowohl für den Firefox als auch für Google Chrome. Das folgende Beispiel habe ich mit Google Chrome generiert:

yExplore

Vergleichbare Eigenschaften haben die beiden Google Chrome Extensions SEO Site Tools oder Chrome SEO. Abschließend sei gesagt, dass diese Art der Überprüfung nicht nur für Blogposts, sondern allgemein für Inhalte im Web funktioniert. Natürlich sind solche kostenlosen Tools nicht hundertprozentig perfekt, was sich auch daran zeigt, dass teilweise voneinander abweichende Resultate auftreten. Auch stellen sie oftmals nur reine Counts also Zählergebnisse ohne Weiterleitung zu den Ergebnissen zur Verfügung. Im  Großen und Ganzen liefern sie, wenn man die Ergebnisse miteinander abgleicht, doch ganz brauchbare Resultate.

Blekko’s Live Link Roll Widget – Eingehende Links in Echtzeit anzeigen lassen

Aufstrebende Suchmaschinen wie Blekko haben es enorm schwer gegen die übermächtige Konkurrenz Google. Nicht immer liefert diese solche Steilvorlagen wie in den vergangenen Wochen, wo im Fall J.C. Penney großangelegte Manipulationen mit gekauften Links das Vertrauen in den Suchmaschinengiganten mächtig erschütterten. In solchen Phasen fällt dann immer auch ein bischen Aufmerksamkeit für alternative Suchmaschinen ab.

Das Team hinter Blekko versteht es allerdings auch unabhängig davon, sich in’s Gespräch zu bringen. Mit Blekkogear wurde vor kurzem eine ganze Kiste mit Werkzeugen für Webmaster, SEOs und Seitenbetreiber zur Verfügung gestellt. Das neueste Tool in der Sammlung ist das Inbound Link Widget. Dort kann man sich für die eigenen (und andere) Websites die eingehenden Links mehr oder weniger in Echtzeit anzeigen lassen und bei Bedarf natürlich per embed code in die eigene Website einbauen.

Blekko Live Link Widget

Wem nicht unbedingt daran gelegen ist, seine eigene Linksstruktur offenzulegen, kann dieses Tool auch für die Konkurrenzbeobachtung nutzen. Mit dem Inbound Link Widget lässt sich sehr leicht ein Monitoring Dashboard für die eingehenden Links der Mitbewerber aufsetzen. Die Schlauberger von Blekko lassen sich übrigens von jedem ausgelieferten Widget verlinken und kassieren so jede Menge Backlinks, mit denen sie ihre eigene Präsenz in den Suchmaschinen verbessern.

(via SearchEngineWatch.com)

Google und die ungewisse Zukunft der Suche

Die Geschäfte laufen gut. Die Quartalsergebnisse von Google geben kontinuierlich Anlass zur Freude. Der Mobile Markt entwickelt sich anscheinend prächtig. Die Kriegskasse ist gut gefüllt, auch für die Übernahme von “überbewerteten” Unternehmen wie Twitter. Und doch gibt es Grund zur Sorge. Der Kern des Unternehmens, die Suchmaschine und die Qualität ihrer Ergebnisse geraten immer mehr und öffentlich in Misskredit.  Wurde das Thema bereits seit einiger Zeit (wieder) verstärkt in Experten- und SEO-Kreisen diskutiert, ist es auch bei den Mainstream Magazinen wie Spiegel oder der Süddeutschen Zeitung angekommen. Ungeachtet dessen werden die Nutzer vor allem bei produktbezogenen Suchanfragen wie etwa “Geschirrspüler” unmittelbar mit dem Problem konfrontiert.

Die Vorwürfe an Google lauten, dass organisierter Spam die Kontrolle über die Suchergebnisse gewonnen habe. Inzwischen herrschten wieder Zustände wie vor 1998/9, also dem Zeitpunkt, als das frische und noch unkorrumpierte Google auf den Plan trat und viele nutzlose und spamverseuchte Suchmaschinen Geschichte werden ließ. Seit jeher befinden sich Suchmaschinen in einem ständigen Kampf mit Websites, die versuchen, mit unlauteren Mitteln ihre Positionen in den Suchergebnissen zu verbessern und den Algorithmus zu manipulieren. Google hat deswegen Richtlinen entwickelt, um Webmastern und SEOs dezidierte Grundlagen für eine gute Zusammenarbeit zu geben. Darin werden auch unerlaubte Verfahren beschrieben. Die Verschlechterung der Qualität der Suchergebnisse hat verschiedene Ursachen. Hier sind einige der wichtigsten:

Scraping bezieht sich auf das automatisierte “Abkratzen” von dynamischen Inhalten anderer Seiten, um sie dann auf eigenen Seiten einzubinden. So wird einerseits  teures Geld für die Erstellung von originären Inhalten gespart. Zum anderen entsteht dadurch sogenannter duplicate content (mehrfach verwendete Inhalte), was Google verhindern will. Von Google’s Bereinigungsmaßnahmen kann im schlechtesten Fall das Orignal und nicht die Kopie betroffen sein.

Linkspam bedeutet Einsatz von gekauften oder getauschten Links. Seit bekannt wurde, dass Google eingehende Links auf Webseiten für deren Bewertung im Rahmen des PageRank heranzieht, gehört Linkaufbau zu den Aufgaben von Webmastern und SEOs. Dabei werden von einigen schon mal Grenzen überschritten, wie es kürzlich im  heftig diskutierten Fall Bloggergate zu sehen war. Einen Vorfall viel größeren Ausmaßes  deckte die New York Times auf, als sie die guten Suchergebnisse der Kaufhauskette JCPenny und die dahinter stehenden Linkstrukturen untersuchte. Das Irritierende dabei ist, dass Google dieses Treiben monatelang geduldet haben soll.

Content-Farmen produzieren am Fließband Inhalte (Texte, Artikel), die auf Seiten wie beispielsweise ehow.com veröffentlicht werden. Ziel und Zweck dieser billig produzierten Inhalte (das bezieht sich auch auf die schlechte Bezahlung der Autoren) ist es, für bestimmte Themen (also Suchanfragen) in den Suchmaschinen auf den vorderen Plätzen zu erscheinen, was durch geschickte Verlinkung und optimierten Einsatz der Suchbegriffe , sprich SEO, erreicht wird. Auf diesen Seiten wird dann Werbung, insbesondere Google AdWords geschaltet. Das bekannteste Unternehmen in dieser Branche ist Demand Media, das auch hinter eHow steckt. Mit Hilfe eines eigenen Algorithmus wird errechnet, mit welchen Themen sich genügend Werbeeinnahmen erwirtschaften lässt.

Google sah sich aufgrund der massiven Kritik und der negativen PR gezwungen, zu reagieren. Im Hinblick auf Scraping Seiten kündigte dessen oberster Spam Bekämpfer Matt Cutts Ende Januar eine Verbesserung des Algorithmus an. Was den Umgang mit Content-Farmen und “low-quality” Seiten angeht, soll ebenfalls nachgebessert werden:

Nonetheless, we hear the feedback from the web loud and clear: people are asking for even stronger action on content farms and sites that consist primarily of spammy or low-quality content. We take pride in Google search and strive to make each and every search perfect. The fact is that we’re not perfect, and combined with users’ skyrocketing expectations of Google, these imperfections get magnified in perception. However, we can and should do better.

Die kleine, aufstrebende Suchmaschinenkonkurrenz blekko ist da schon einen Schritt weiter. Sie erlaubt sowieso standardmäßig die Suchergebnisse zu kuratieren (für den persönlichen Bedarf anzupassen) und so unerwünschte Seiten auszuschließen. Darüber hinaus wurde jetzt auch eine Liste von Content-Farmen geblockt. Wo wir schon bei alternativen Suchmaschinen sind. DuckDuckGo ist ebenfalls einen näheren Blick wert.

Heute legte Google nach. Zumindest für Nutzer von Google Chrome steht jetzt eine Erweiterung zur Verfügung, mit der sich unerwünschte Seiten, zum Beispiel Content-Farms in den Suchergebnissen blocken lassen. Gleichzeitig gewinnt Google durch dieses Crowdsourcing  wertvolle Rückmeldungen für die Verbesserung seines Algorithmus und die Eindämmung von Spam.