Google Trends oder Insights for search war sicher das Vorbild für eine API, die die Entwickler der Zeit (Zeitung) erstellt haben. Man kann damit die Häufigkeit eines Begriffs im Zeitverlauf abfragen. Ich habe das in diesem Beispiel mal auf der Seite der Webevangelisten mit dem Begriff „Cloud“ gemacht.
Neues aus dem Land der Häuserverpixeler und Abmahnanwälte
Vermutlich ist das nur im Land der Häuserverpixeler und Abmahnanwälten möglich: Die Post soll 2000 Euro an einen Kläger in Bremen bezahlen, der einmal zuviel die Wurfsendung „Einkauf aktuell“ erhalten hat und in der Vergangenheit sich eine Unterlassungserklärung an Land ziehen konnte. Hier ist der Artikel in der Online-Welt.
Immer wieder erfährt man von Urteilen hochinstanzlicher Gerichte, die solchen juristischen Tricks Vorschub leisten. In diesem Fall muss die Post nun, wenn sie wieder Einkauf aktuell einwirft, satte 250.000 Euro zahlen, weil das Recht auf informationelle Selbstdarstellung verletzt wird. Verkauft wird dies nun als origineller Sieg für den Vebraucherschutz. Endlich ein positives Urteil für die „Werbegeschädigten“. Ohne ein ausgesprochener Post-Fan zu sein, vermisse ich hier aber jede Verhältnismäßigkeit. Da will jemand, dass keine Werbung in seinen Briefkasten geworfen wird, erwirkt eine Unterlassungserklärung und weil Einzelwünsche bei Massensendungen schwer zu realisieren sind, passiert es eben doch einmal, dass wieder eine Werbebotschaft eingeworfen wird. Folglich werden 2.000 Euro fällig und wenn es nochmal passiert dann eine Viertel Million. Eigentlich toll, wenn man so ein lukratives Geschäftsmodell gefunden hat.
Zeitungsterben: Wer produziert demnächst noch Content im Web?
Wenige Wochen vor Jahresende kommt das Aus für die Frankfurter Rundschau, die Financial Times Deutschland und aus der Hauptstadt hört man, dass auch beim Berliner Verlag Entlassungen im redaktionellen Bereich anstehen. Die Meinungen, woran das liegt, sind vielfältig.
Sascha Lobo glaubt, die Darstellungsform Artikel hat damit zu tun. Klassische Artikel wie in der Zeitung sind statisch und werden dem dynamischen Nachrichtenfluss nicht gerecht. Schon gar nicht, wenn sie auf Papier gedruckt werden, aber das Papier kann nichts dafür. Andere meinen, das Zeitungsterben liegt an nachwachsenden Generationen, die kein lineares Papier mehr vor sich haben wollen und es auch viele qualitativ hochwertige Information werbefinanziert im Web existiert. Da ist der Konsument eben nicht mehr bereit, zu bezahlen.
Als jemand, der das journalistische Handwerk in den 1990er Jahren ganz klassisch als Volontär, Zeitungspraktikant und freier schreibender Mitarbeiter erlernt und erlebt hat, stellt sich mir der Eindruck, dass die Verlegern zwar immer mal nach neuen publizistischen Wegen für ihr Geschäftsmodell gesucht haben, aber in das Brot- und Buttergeschäft Zeitung nicht so viel investiert haben. Praktisch alle deutschen Verlage haben sich in den 80ern an den neuen Privatradios beteiligt, zumindest die großen auch am kapitalintensiveren Privatfernsehen. Sat.1 war einmal das Velegerfernsehen schlechthin.
Die Zeitungsredaktionen haben sich aus meiner (zugegebenermaßen etwas eingeschränkten) Sicht wenig weiterentwickeln können. Immer wieder las man von schwierigen Tarifverhandlungen für die festangestellten Redakteure. Die Printhäuser wollten nicht so viel bezahlen, die Redakteure fanden die Einführung von PC-gestütztem Layout, das sie selber anfertigen sollten, nicht besonders gut.
Die globale Strategie war offensichtlich, regional oder medienspezifisch das Monopol zu behalten, also über die Leserschaft bzw. das Publikum im regionalen Markt oder durch geschickte Beteiligungen an den Trägergesellschaften von Fernsehsendern und Rundfunkanbietern. Mit dem erstarkendem Internet Ende der 1990er wurde diese Strategie immer wirkungsloser. Die Gatekeeperrolle ging auf andere Konstrukte über, zunächst auf Portale und Trafficaggregatoren, die durch Verlinkung Userströme kontrollieren konnten, später auf die Suchmaschine Google.
Das Fernsehen kämpft noch. Noch ist TV das Leitmedium und von pleite gehenden Programmen hört man zumindest in Deutschland selten, auch wenn am Programm gespart werden muss. Doch es ist nicht unwahrscheinlich, dass auch bald TV den Weg gehen, den Print und andere Werbeträger schon beschritten haben, nämlich den Weg in die zweite und dritte Reihe.
Das werbefinanzierte Mediengeschäft mit Fokus auf qualifizierte Inhalte ist heftig unter Attacke. In den vergangenen Jahren wurden massive Budgets von Print und TV hin zu online verschoben. Große Gewinner waren Suchmaschinen, große E-Commerce-Player und nicht zuletzt soziale Netzwerke. Als Positivbeispiel wird immer Spiegel Online genannt, als Beispiel dafür, dass ein Printflaggschiff auch online gut weitersegeln kann. Ich bin mir aber nicht sicher, ob Spiegel Online ohne die gedruckte Mutter auf Dauer existieren kann. Dann ist die Abhängigkeit zu den Suchmaschinen oder den Mobilplattformen extrem hoch. Die Online Gatekeeper haben schon öfter mal demonstriert, welche Auswirkungen ein Nichtberücksichtigen eines Veröffentlichungsmediums auf das Geschäftsmodell der Onlineableger von Zeitungen und Zeitschriften hat.
Das Geschäft mit Inhalten (sprich: die Generierung von journalistisch-redaktionell betreuten Texten) reduziert sich zunehmend mehr darauf, Suchmaschinen Futter zu liefern, zum Beispiel als Füllstoff für die „DKZ“, die de-kommerzialisierte Zone eines Onlineshops, die Suchmaschinenusermagnet sein soll und die vielleicht freiwillig verlinkt wird. Denn: Internetuser suchen auch nach Informationen, nicht nur nach Produkten, die sie online bestellen könnten. Dem versuchen die Suchmaschinen zwar Rechnung zu tragen. Die Wahrscheinlichkeit ist groß, dass man auf den vordersten Plätzen der Suchmaschinenergebnisseiten Links zu Shops findet – oder gut getarnt – Links zu Inhalten, die alleine deswegen geschaffen worden sind, um diesen Traffic aus Suchmaschinen einzufangen.Das läuft unter dem Stichwort Content Curation. Journalistisches Arbeiten ist das aber nur bedingt.
Wenn nun aber nach und nach Zeitungen eingestellt werden und die Onlineableger sich nicht mehr alleine halten können, wer produziert dann noch Nachrichtentexte, die Google News finden könnte, die per RSS verbreitet werden und die von Bloggern zitiert werden könnten? Wer schreibt die Texte, filtert, aggregiert, bewertet, kommentiert, glossiert? Es könnte zur Contentkrise kommen. Wer meint, Blogger könnten in die Bresche springen, übersieht, dass viele die Blogger entnervt ausgegeben haben, da sie ebenfalls für eine schwindende Leserschaft geschrieben haben. Blogs wurden und werden von den Suchmaschinen immer weiter abgewertet.
Adwords: Wie um alles in der Welt kommt die Landeseitenqualität zustande?
Einer der Mysterien bei Google Adwords ist für mich immer noch der Qualitätsfaktor und hier insbesondere die Landeseitenqualität. Selten kann man Seiten generieren, die in diesem Aspekt von Adwords als „überdurchschnittlich“ eingestuft werden. Das scheint recht schwierig zu sein. Ich frage mich, welche Faktoren der Bewertung durch Google zugrunde liegen können bzw. wie die algorithmische Bewertung funktionieren kann. Im Grunde dürften es Faktoren sein wie Seitenladegeschwindigkeit, Bounce-Rate (insbesondere die Rückkehr auf die Google SERP durch den Zurückbutton des Browsers). Unklar ist mir, wie stark sich formale Kriterien wie die W3C-Korrektheit des HTML-Gerüsts oder der CSS-Vorschriften auswirken.
Hoch bewertet, würde man vermuten, sind vielleicht inhaltliche Kriterien wie auch sonst im Seo – Bereich, also Kriterien wie die Keyworddichte (ich benutze das „böse Wort“ nochmal, gerne können wir das auch mit Termfrequenz bzw. WDF (within-document frequency) und IDF (inverse-document frequency ersetzen). Ich habe das gelegentlich ausprobiert, auf die Landeseitenqualität hat sich das nicht ausgewirkt. Mir wurde auch gesagt, irgendwo in den Richtlinen von Adwords steht explizit, dass der Suchbegriff (das Keyword) nicht auf der Landeseite vorzukommen braucht. Wenn dem so ist, bleibt als wichtigstes Bewertungskriterium, das sich maschinell leicht erfassen lässt, die Bouncerate und die Verweildauer auf der Seite, was für Google Adwords nur messbar ist, wenn der User in dieser Session wieder zur Suchergebnisseite zurückspringt.
Das Thema Navigation sollte sich auf einer schlanken und schmalen Landeseite nicht so sehr auswirken, offensichtlich zahlt dies auf die „Nutzererfahrung“ ein, auch wenn dies ein immer noch sehr wolkiger und theoretischer Begriff ist. Nutzererfahrung hat natürlich mit der Navigation im weitesten Sinne auch zu tun: Findet der User auf der Landeseite, was er sucht und was er aufgrund seines Klicks auf die Anzeige erwartet? Kann der User mit der Seite interagieren? In den meisten Fälle heißt das für Landeseiten wohl, sich durch weitere Informationsangebote hangeln, sei es Text, Video oder ein PDF-Download. Die Bestandteile müssen gut zusammenpassen. Nicht zuletzt muss die Seite ästhetischen Vorstellungen des Users entsprechen, was ein sehr schwieriger Punkt für algorithmische Bewertungen per Bot sein wird. Zwar kann man Farbschema und Aufteilung der Seite etwas bewerten, doch der Gesamteindruck, gegeben durch die – wie die Gestaltpsychologen sagen würden – Übersummativität („Die Gesamtheit ist mehr als die Summe der Teile“) wird schwer zu bemessen sein. Es gibt gut konstruierte Skalen mit sehr guter Validität, um die die Ästhetik einer Webseite zu prüfen, aber man braucht dafür menschliche Rater. Angeblich sollen ja in Dublin ein großes Google-Rater-Team für die Adwords-Anzeigen und die dazugehörigen Zielseiten.
In Frankreich: Google gegen Staat und Verleger
Google wehrt sich gegen eine Initiative der französischen Regierung wonach die Suchmaschinenbetreiber eine Abgabe an Verlage zahlen müssen, wenn auf den Ergebnisseiten Links zu Content der Verlage führen. Wie der Focus (Burda-Verlag) berichtet, handelt es sich um eine ähnliche Gesetzesinitiative wie dem Leistungsschutzrecht für Presseverleger. Offensichtlich lässt Burda zur Zeit ohnehin gegen Google feuern, wenn man sich die kritischen, aber doch überzogene Betitelung bei Focus Online Beiträgen der letzten Zeit ansieht: Sei es die Ausweidung der Panne mit den Geschäftszahlen und dem Aktienkurs („Peinliche Bilanz-Panne“ und „Derber Bilanz-Patzer bei Google: Rasante Fahrt in den Keller“), Datenschutz („Google zwingt User zu Daten-Striptease“) oder der Fall Wulff („Google – die neuzeitliche Rufmordmaschine“). Ein alter Streit flammt jetzt heftig auf.
Natürlich gibt es eine Abhängigkeit von Google. Das gilt für jeden Webseitenbetreiber und das gilt auch für Webseiten etablierter Medien. Warum probiert Burda nicht mal aus, wie sich der Traffic ohne die Sichtbarkeit in den Suchmaschinen entwickelt und ob nicht eine eigene inhaltlich ausgerichtete eigene Suchmaschine für die Verlagsangebote sinnvoll wäre? Genauso wie bei den 154 brasilianischen Zeitungen sollte ein entsprechender robots-Eintrag eigentlich reichen, um das Spidern und Ausliefern entsprechender Suchmaschinenergebnisse bei Google zu verhindern. Nach Alexa ist focus.de auf Traffic-Rang 34 in Deutschland und zwischen 15 und 20 Prozent der Zugriff kommen aus Suchmaschinen. Focus hat also – im Gegensatz zu vielen anderen Webseitenbetreibern – genug alternative Trafficquellen und könnte auf die 20 Prozent, die von Google kommen, vielleicht sogar verzichten, auch wenn die Konkurrenz spiegel-online.de noch weniger abhängig von Google zu sein scheint (was die Alexa-Zahlen nahelegen)
Eine Sonderabgabe, die den jammernden deutschen Verlagen zugute kommt, die wenig und zu spät ins Webgeschäft investiert haben (dann zudem auch noch recht glücklos bis unbedarft agiert) und das Geschäft eben verpasst haben, geht stark in Richtung Subvention. Durch die Sonderabgabe verteuern sich wahrscheinlich die Klickpreise für Google Adwords, so dass andere Werbetreibende mehr zahlen müssen, was diese dann in ihre Produktpreise kalkulieren müssen, so dass die Verteuerung eh bei den Verbrauchern ankommt. Klar, dass die Verleger darum kämpfen und ihre publizistische Macht entsprechend einsetzen. Doch Umverteilungsmonster wie die Gema passen einfach nicht mehr in die Zeit.
Small Business im Web: Geld verdienen mit der eigenen Website
Für den Blog des Hosters goneo habe ich heute diesen Artikel live gestellt. Es geht darin um die Möglichkeit, mit der eigenen Homepage Geld zu verdienen, was sicher für einige Hobby-Seitenbetreiber halbwegs verlockend ist. Einige Betreiber berichten offen über ihre Umsätze aus Affiliateprogrammen, kontextbasierter Werbung und anderen Möglichkeiten, die Seite zu monetarisieren. Eine große Frage ist bnatürlich, was man als Alleinkämpfer an Umsätzen monatlich erwarten kann. Diejenigen, die offen darüber berichten, nennen Beträge um einige Hundert Euro pro Monat. Der Spitzenblogger aus dieser Gruppe weist 1.300 Euro aus. Leben kann man davon also nicht, es handelt sich eher um ein zusätzliches Taschengeld und ein wenig Zusatzeinkommen. Um das hochzuskalieren müsste man drei oder vier solche gut laufenden Projekte stemmen, was sicher irgendwann zum Zeitproblem wird. Zudem muss man auf Informationsquellen zurückgreifen und selbst Marketing für die eigene Seite betreiben.
Weiter starkes Wachstum und Konzentration im E-Commerce – was wird aus den Innenstadthändlern?
Statista hat aus der E-Commerce Studie 2012 einige Fakten veröffentlicht. Sie basiert auf einer Analyse der Top 1000 E-Shops in Deutschland. Die Studie kostet 980 Euro, aber Dass E-Commerce Jahr für Jahr mehr Umsätze generiert, war zu erwarten. Internetworld hat einige Grafiken veröffentlicht. Die Wachstumsraten sind immer noch gigantisch und liegen im Vorjahresvergleich des Jahresumsatzes bis plus 13 Prozent. Fast 30 Milliarden Euro werden online umgesetzt. Natürlich sind das die Summen, die dem traditionelle Einzelhandel mit dem Shop vor Ort nicht mehr zur Verfügung stehen. In nahezu jeder Sparte werden händeringend Rezepte gesucht, um dem Trend wieder auszugleichen. Es wird wohl nicht nur Einzelhändler treffen. Innenstadtvermieter müssen wohl die Mieten senken, wenn sie Leerstand vermeiden wollen.
Was man zumindest in einigen großen und mittelgroßen Städten beobachten kann, ist ein ungebrochener Trend zur Shoppinggalerie. Mit hohem Aufwand werden an Top Standorten neue Galerien hochgezogen. Neben einem großen Retailer rekrutieren sich die neuen Mieter hauptsächlich aus Ketten und Franchisenehmern. Der inhabergeführte Einzelhandel schaut oft in die Röhre. In nicht so attraktiven Umfelder verödet die Innenstadt einfach.
Selbst wenn kleine Einzelhändler einen Onlineshop aufziehen wollen, sind die Chancen begrenzt. Es ist heute einfacher, einen stationären Laden zu betreiben als einen Onlineshop mit den vielen Businessprozessen wie Bezahlung, Performance Marketing, SEO und SEM. An Amazon, Ebay und auch an Google führt kein Weg vorbei. Selbst wenn man die Basics richtig macht, besteht kaum Chance auf große Sichtbarkeit in Googles Universal Search für lokaler Händler abschminken, selbst im regionalen Umfeld nicht. Wer nach „Addidas Laufschuhe Herren“ sucht, sieht selbst wenn man die Google-Option „Standort“ verwendet oder den Suchbegriff mit einer Ortsangabe ergänzt neben den bezahlten Suchergebnissen hochoptimierte Treffer von Preisvergleichssites und den üblicherweise angezeigten Onlineshops, darunter Sportscheck, Zalando, Otto. Einen kompetitiven Onlineshop aufzuziehen, kostet heute viele Tausend Euro, selbst für Nischenprodukte. Da wird es schwer, ein funktionierendes Geschäftsmodell zu entwickeln.
Insofern ist es das Bemerkenswerteste an der E-Commerce-Studie, dass die Konzentration im Onlinehandel weiter voranschreiten kann, ohne dass Gegenwehr aus Politik und Verbänden zu erkennen wäre. Dem inhabergeführten Einzelhändler fehlt die Lobby. Die politischen Initiativen der großen Händler werden sich aktuell eher gegen Reglementiereungen im Sinne eines Verbraucherschutzes richten als gegen verödende Innenstädte. Für die Wirtschaftsförderungen der Städte und Kommunen könnte sich hier allerdings ein neues Aufgabenfeld auftun: Welche Initiativen könnte eine Verwaltung ergreifen, um vielleicht ein „buy local“ – Bewusstsein zu schaffen?
Aus VZ wird Bebo
So kommt die Internationalisierung der VZ-Netzwerke doch noch, kurz vor dem Aus. Bebo übernimmt die einst glorreiche Social Media Plattform StudiVZ. Die VZs kamen in Bedrängnis, weil Facebook in Deutschland stark wurde und dank der offenen Schnittstellen für Entwickler und Anbieter viel interessanter war als das geschlossene VZ-Ökosystem. Auch hier wieder leider ein Beispiel dafür, dass sich deutsche Unternehmen in aller Regel schwertun, attraktive, originär in Deutschland entstandene Internetangebote auf die Beine zu stellen und nachhaltig erfolgreich zu betreiben – von Contentplattformen als Spinoff einer etablierten Zeitschrift mal abgesehen. Unter den Top Seiten finden sich meist lokalisierte internationale Angebote. Ausnahmen sind Zalando, GuteFrage, MeineStadt, einige Preisvergleicher und Otto. Dass Deutschland hier einen Trend verschlafen könnte, hat auch die FAZ vor kurzem bedauert. Gerne wird das Fehlen von Fachkräften als Grund angeführt. Vielleicht liegt es aber auch an der Dämonisierung des Webs durch Autoren wie Schnitzler und seine Hypothese von der „Digtialen Demenz„. Nach eigener Erfahrung stehen auch Ängste in der Auseinandersetzung mit neuen Ansätzen und Ideen im Vordergrund (bei der Präsentation meiner Geschäftsidee bei einem Businessplanwettbewerb kürzlich, das sich um Contentaggregation drehte, war auch die erste Reakton der Jurymitglieder: „Darf man denn das?“ und ein nicht ganz unbekanner, kleinerer Venture Capitalist hat das Thema sofort für tot erklärt, da das böse Wort „Content“ auftauchte).
Alle rätseln über Googles Rankingfaktoren
Suchmaschinenoptimierung ist wichtig. Die Aussage, dass man nur „exzellenten Content“ und „eine phantastische Nutzererfahrung“ präsentieren muss, um die eigene Seite im Web auffindbar zu machen, funktioniert vielleicht in einer idealen Welt. Realität ist, dass die meisten Internetuser ihre Websession mit Google starten und auf Suchergebnisse vertrauen, die Google auf den obersten Positionen zeigt. Die Seite, die dort steht, bekommt den Traffic.
Kein Wunder, dass also viele Webseitenbetreiber nach Wegen suchen, die eigene Site möglichst weit oben anzuzeigen. Es werden auch von vielen Dienstleistern Informationen angeboten, welche Faktoren wie relevant sind, um die Position in der Google-Suche bezogen auf ein Keyword vorherzusagen. Ein Beispiel dafür sind diese Rankingfaktoren, die Hanns Kronenberg zusammengestellt hat. Grafisch kann man dies wie in diesem Beispiel aufzeigen. Ein Ansatz ist, die wesentlichen Rankingfaktoren über Korrelationsanalysen herauszufinden. Eine Analyse dieser Art ist die von Searchmetrics. Hier werden die Zusammenhangsstärken aufgelistet, ich selbst hätte mir noch die Effektstärken dazu gewünscht. Erstaunlich an dieser Analyse ist, dass Korrelationen um .3 für Facebook Shares gefunden worden sind während die Anzahl der Backlinks (was gemeinhin als wichtigster Prädiktor aufgefasst wird) nur auf .23 kommt. Meiner Meinung nach sind diese Werte unbefriedigend, denn untersucht wird mit der Korrelation ja die gemeinsame Varianz, die bei einem r = .3 gerade mal 0,09 beträgt, das heißt dieser eine Prädiktor liefert gerade mal gerundet 10% Erklärung für die Suchmaschinenposition. Sicher funktioniert der Algorithmus komplexer und mir kam die Frage, warum man, wenn man schon das ganze Datenmaterial zur Verfügung hat, nicht ein paar andere Methoden anwendet, um die Vorhersage der Suchmaschinenposition zu verbessern. Vielleicht wäre es sinnvoll ein Verfahren wie die Pfadanalyse (es gibt ja viele hypothetische Modelle, die zeigen sollen wie Google funktioniert) oder auch eine konfirmatorische Faktorenanalyse. So könnte man feststellen, wie die inkrementelle Validität aussieht, das heißt welche zusätzliche Erklärung liefern die weiteren hypothetisch angenommenen Rankingfaktoren wirklich. Für eine Pfadanalyse muss man etwas mehr Aufwand treiben, denn die Software (wie AMOS von IBM) kostet recht viel an Lizenzgebühren (14 Tage gratis Test), aber eine Faktorenanalyse wird man noch bequem mit SPSS (oder eben PSPP) hinbekommen.
Internetmarke abgelöst durch „efiliale“ – Formular-Ausfüllzwang trotz Portokasse
Die Deutsche Post hat ihren Dienst Internetmarke, mit dem sich online Briefmarken kaufen und ausdrucken lassen in die „Efiliale“ integriert.
Die Funktionalität ist im Grunde gleich geblieben, aber nun muss man als „Portokassen“-Nutzer bei jedem Kaufvorgang das komplette Registierformular mit Name und Anschrift neu ausfüllen. Das Login an der Portokasse und die AGB Akzeptanz reicht der Post nicht mehr.
Der Versuch, sich vor dem Kaufvorgang nur mit der Portokasse zu verbinden wird mit roten Warntexten über dem Formular quittiert. Erst wenn man brav immer wieder seine Daten einhackt, geht es weiter.
Der zweimalige Versuch, den Support auf dieses Usabilityproblem hinzuweisen, war wenig zielführend. Man erhält als Antwort einen wenig hilfreichen Standardtext, vermutlich von einem vollautomatischen Antwortsystem.