In Frankreich: Google gegen Staat und Verleger

Google wehrt sich gegen eine Initiative der französischen Regierung wonach die Suchmaschinenbetreiber eine Abgabe an Verlage zahlen müssen, wenn auf den Ergebnisseiten Links zu Content der Verlage führen. Wie der Focus (Burda-Verlag) berichtet, handelt es sich um eine ähnliche Gesetzesinitiative wie dem Leistungsschutzrecht für Presseverleger. Offensichtlich lässt Burda zur Zeit ohnehin gegen Google feuern, wenn man sich die kritischen, aber doch überzogene Betitelung bei Focus Online Beiträgen der letzten Zeit ansieht: Sei es die Ausweidung der Panne mit den Geschäftszahlen und dem Aktienkurs („Peinliche Bilanz-Panne“ und „Derber Bilanz-Patzer bei Google: Rasante Fahrt in den Keller“), Datenschutz („Google zwingt User zu Daten-Striptease“) oder der Fall Wulff („Google – die neuzeitliche Rufmordmaschine“). Ein alter Streit flammt jetzt heftig auf.  

Natürlich gibt es eine Abhängigkeit von Google. Das gilt für jeden Webseitenbetreiber und das gilt auch für Webseiten etablierter Medien. Warum probiert Burda nicht mal aus, wie sich der Traffic ohne die Sichtbarkeit in den Suchmaschinen entwickelt und ob nicht eine eigene inhaltlich ausgerichtete eigene Suchmaschine für die Verlagsangebote sinnvoll wäre? Genauso wie bei den 154 brasilianischen Zeitungen sollte ein entsprechender robots-Eintrag eigentlich reichen, um das Spidern und Ausliefern entsprechender Suchmaschinenergebnisse bei Google zu verhindern. Nach Alexa ist focus.de auf Traffic-Rang 34 in Deutschland und zwischen 15 und 20 Prozent der Zugriff kommen aus Suchmaschinen. Focus hat also  – im Gegensatz zu vielen anderen Webseitenbetreibern – genug alternative Trafficquellen und könnte auf die 20 Prozent,  die von Google kommen, vielleicht sogar verzichten, auch wenn die Konkurrenz spiegel-online.de noch weniger abhängig von Google zu sein scheint (was die Alexa-Zahlen nahelegen)

Eine Sonderabgabe, die den jammernden deutschen Verlagen zugute kommt, die wenig und zu spät ins Webgeschäft investiert haben (dann zudem auch noch recht glücklos bis unbedarft agiert) und das Geschäft eben verpasst haben, geht stark in Richtung Subvention. Durch die Sonderabgabe verteuern sich wahrscheinlich die Klickpreise für Google Adwords, so dass andere Werbetreibende mehr zahlen müssen,   was diese dann in ihre Produktpreise kalkulieren müssen, so dass die Verteuerung eh bei den Verbrauchern ankommt.  Klar, dass die Verleger darum kämpfen und ihre publizistische Macht entsprechend einsetzen. Doch Umverteilungsmonster wie die Gema passen einfach nicht mehr in die Zeit.

Small Business im Web: Geld verdienen mit der eigenen Website

Für den Blog des Hosters goneo habe ich heute diesen Artikel live gestellt. Es geht darin um die Möglichkeit, mit der eigenen Homepage Geld zu verdienen, was sicher für einige Hobby-Seitenbetreiber halbwegs verlockend ist. Einige Betreiber berichten offen über ihre Umsätze aus Affiliateprogrammen, kontextbasierter Werbung und anderen Möglichkeiten, die Seite zu monetarisieren. Eine große Frage ist bnatürlich, was man als Alleinkämpfer an Umsätzen monatlich erwarten kann. Diejenigen, die offen darüber berichten, nennen Beträge um einige Hundert Euro pro Monat. Der Spitzenblogger aus dieser Gruppe weist 1.300 Euro aus. Leben kann man davon also nicht, es handelt sich eher um ein zusätzliches Taschengeld und ein wenig Zusatzeinkommen. Um das hochzuskalieren müsste man drei oder vier solche gut laufenden Projekte stemmen, was sicher irgendwann zum Zeitproblem wird. Zudem muss man auf Informationsquellen zurückgreifen und selbst Marketing für die eigene Seite betreiben.

Weiter starkes Wachstum und Konzentration im E-Commerce – was wird aus den Innenstadthändlern?

Statista hat aus der E-Commerce Studie 2012 einige Fakten veröffentlicht. Sie basiert auf einer Analyse der Top 1000 E-Shops in Deutschland. Die Studie kostet 980 Euro, aber Dass E-Commerce Jahr für Jahr mehr Umsätze generiert, war zu erwarten. Internetworld hat einige Grafiken veröffentlicht. Die Wachstumsraten sind immer noch gigantisch und liegen im Vorjahresvergleich des Jahresumsatzes bis plus 13 Prozent. Fast 30 Milliarden Euro werden online umgesetzt. Natürlich sind das die Summen, die dem traditionelle Einzelhandel mit dem Shop vor Ort nicht mehr zur Verfügung stehen. In nahezu jeder Sparte werden händeringend Rezepte gesucht, um dem Trend wieder auszugleichen. Es wird wohl nicht nur Einzelhändler treffen. Innenstadtvermieter müssen wohl die Mieten senken, wenn sie Leerstand vermeiden wollen.

Was man zumindest in einigen großen und mittelgroßen Städten beobachten kann, ist ein ungebrochener  Trend zur Shoppinggalerie. Mit hohem Aufwand werden  an Top Standorten neue Galerien hochgezogen. Neben einem großen Retailer rekrutieren sich die neuen Mieter hauptsächlich aus  Ketten und Franchisenehmern. Der inhabergeführte Einzelhandel schaut oft in die Röhre. In nicht so attraktiven Umfelder verödet die Innenstadt einfach.

Selbst wenn kleine Einzelhändler einen Onlineshop aufziehen wollen, sind die Chancen begrenzt. Es ist heute einfacher, einen stationären Laden zu betreiben als einen Onlineshop mit den vielen Businessprozessen wie Bezahlung, Performance Marketing, SEO und SEM. An Amazon, Ebay und auch an Google  führt kein Weg vorbei. Selbst wenn man die Basics richtig macht, besteht kaum Chance auf große Sichtbarkeit in Googles Universal Search für lokaler Händler abschminken, selbst im regionalen Umfeld nicht. Wer nach „Addidas Laufschuhe Herren“ sucht, sieht selbst wenn man die Google-Option „Standort“ verwendet oder den Suchbegriff mit einer Ortsangabe ergänzt neben den bezahlten Suchergebnissen hochoptimierte Treffer von Preisvergleichssites und den üblicherweise angezeigten Onlineshops, darunter Sportscheck, Zalando, Otto.  Einen kompetitiven Onlineshop aufzuziehen, kostet heute viele Tausend Euro, selbst für Nischenprodukte. Da wird es schwer, ein funktionierendes Geschäftsmodell zu entwickeln.

Insofern ist es das Bemerkenswerteste an der E-Commerce-Studie, dass die Konzentration im Onlinehandel weiter voranschreiten kann, ohne dass Gegenwehr aus Politik und Verbänden zu erkennen wäre. Dem inhabergeführten Einzelhändler fehlt die Lobby. Die politischen Initiativen der großen Händler werden sich aktuell eher gegen Reglementiereungen im Sinne eines Verbraucherschutzes richten als gegen verödende Innenstädte. Für die Wirtschaftsförderungen der Städte und Kommunen könnte sich hier allerdings ein neues Aufgabenfeld auftun: Welche Initiativen könnte eine Verwaltung ergreifen, um vielleicht ein „buy local“ – Bewusstsein zu schaffen?

Aus VZ wird Bebo

So kommt die Internationalisierung der VZ-Netzwerke doch noch, kurz vor dem Aus. Bebo übernimmt die einst glorreiche Social Media Plattform StudiVZ. Die VZs kamen in Bedrängnis, weil Facebook in Deutschland stark wurde und dank der offenen Schnittstellen für Entwickler und Anbieter viel interessanter war als das geschlossene VZ-Ökosystem. Auch hier wieder leider ein Beispiel dafür, dass sich deutsche Unternehmen in aller Regel schwertun, attraktive, originär in Deutschland entstandene Internetangebote auf die Beine zu stellen und nachhaltig erfolgreich zu betreiben – von Contentplattformen als Spinoff einer etablierten Zeitschrift mal abgesehen. Unter den Top Seiten finden sich meist lokalisierte internationale Angebote. Ausnahmen sind Zalando, GuteFrage, MeineStadt, einige Preisvergleicher und Otto. Dass Deutschland hier einen Trend verschlafen könnte, hat auch die FAZ vor kurzem bedauert. Gerne wird das Fehlen von Fachkräften als Grund angeführt. Vielleicht liegt es aber auch an der Dämonisierung des Webs durch Autoren wie Schnitzler und seine Hypothese von der „Digtialen Demenz„. Nach eigener Erfahrung stehen auch Ängste in der Auseinandersetzung mit neuen Ansätzen und Ideen im Vordergrund (bei der Präsentation meiner Geschäftsidee bei einem Businessplanwettbewerb kürzlich, das sich um Contentaggregation drehte, war auch die erste Reakton der Jurymitglieder: „Darf man denn das?“ und ein nicht ganz unbekanner, kleinerer Venture Capitalist hat das Thema sofort für tot erklärt, da das böse Wort „Content“ auftauchte).

Alle rätseln über Googles Rankingfaktoren

Suchmaschinenoptimierung ist wichtig. Die Aussage, dass man nur „exzellenten Content“ und „eine phantastische Nutzererfahrung“ präsentieren muss, um die eigene Seite im Web auffindbar zu machen, funktioniert vielleicht in einer idealen Welt. Realität ist, dass die meisten Internetuser ihre Websession mit Google starten und auf Suchergebnisse vertrauen, die Google auf den obersten Positionen zeigt. Die Seite, die dort steht, bekommt den Traffic.

Kein Wunder, dass also viele Webseitenbetreiber nach Wegen suchen, die eigene Site möglichst weit oben anzuzeigen. Es werden auch von vielen Dienstleistern Informationen angeboten, welche Faktoren wie relevant sind, um die Position in der Google-Suche bezogen auf ein Keyword vorherzusagen. Ein Beispiel dafür sind diese Rankingfaktoren, die Hanns Kronenberg zusammengestellt hat. Grafisch kann man dies wie in diesem Beispiel aufzeigen. Ein Ansatz ist, die wesentlichen Rankingfaktoren über Korrelationsanalysen herauszufinden. Eine Analyse dieser Art ist die von Searchmetrics. Hier werden die Zusammenhangsstärken aufgelistet, ich selbst hätte mir noch die Effektstärken dazu gewünscht. Erstaunlich an dieser Analyse ist, dass Korrelationen um .3 für Facebook Shares gefunden worden sind während die Anzahl der Backlinks (was gemeinhin als wichtigster Prädiktor aufgefasst wird) nur auf .23 kommt. Meiner Meinung nach sind diese Werte unbefriedigend, denn untersucht wird mit der Korrelation ja die gemeinsame Varianz, die bei einem r = .3 gerade mal 0,09 beträgt, das heißt dieser eine Prädiktor liefert gerade mal gerundet 10% Erklärung für die Suchmaschinenposition. Sicher funktioniert der Algorithmus komplexer und mir kam die Frage, warum man, wenn man schon das ganze Datenmaterial zur Verfügung hat, nicht ein paar andere Methoden anwendet, um die Vorhersage der Suchmaschinenposition zu verbessern. Vielleicht wäre es sinnvoll ein Verfahren wie die Pfadanalyse (es gibt ja viele hypothetische Modelle, die zeigen sollen wie Google funktioniert) oder auch eine konfirmatorische Faktorenanalyse. So könnte man feststellen, wie die inkrementelle Validität aussieht, das heißt welche zusätzliche Erklärung liefern die weiteren hypothetisch angenommenen Rankingfaktoren wirklich. Für eine Pfadanalyse muss man etwas mehr Aufwand treiben, denn die Software (wie AMOS von IBM) kostet recht viel an Lizenzgebühren (14 Tage gratis Test), aber eine Faktorenanalyse wird man noch bequem mit SPSS (oder eben PSPP) hinbekommen.  

Internetmarke abgelöst durch „efiliale“ – Formular-Ausfüllzwang trotz Portokasse

Die Deutsche Post hat ihren Dienst Internetmarke,  mit dem sich online Briefmarken kaufen und ausdrucken lassen in die „Efiliale“ integriert.

Die Funktionalität ist im Grunde gleich geblieben, aber nun muss man als „Portokassen“-Nutzer bei jedem Kaufvorgang das komplette Registierformular mit Name und Anschrift neu ausfüllen. Das Login an der Portokasse und die AGB Akzeptanz reicht der Post nicht mehr.

Der Versuch, sich vor dem Kaufvorgang nur mit der Portokasse zu verbinden wird mit roten Warntexten über dem Formular quittiert. Erst wenn man brav immer wieder seine Daten einhackt, geht es weiter.

Der  zweimalige Versuch, den Support auf dieses Usabilityproblem hinzuweisen, war wenig zielführend. Man erhält als Antwort einen wenig hilfreichen Standardtext, vermutlich von einem vollautomatischen Antwortsystem.

Unbounce gehackt?

Unbouce.com ist ein guter Service, wenn man Landingpages herstellen will, beispielsweise, um PPC-Kampagnen zu optimieren. Offensichtlich ist der Service gerade gehackt worden. Zumindest aus Deutschland (und ich habe es mit mehreren Netzen probiert, nicht mein PC oder Netz ist kompromittiert worden) erscheint gerade, Samstag, 21.7.2012, 13:00 Uhr diese Seite, eine Arbitrage  Seite für „loans“, „credit“, etc.

Der Preis für MySpace fällt

Laut Spiegel Online will Murdoch nur noch 20 Millionen Dollar für My Space haben. Zu groß sind offensichltich die Verluste, zu hoch die Betriebskosten und zu extrem der Nutzerschwund. Noch würde man bei diesem Kaufpreis 1 Dollar pro aktivem User bezahlen. Klingt eigentlich erstmal nach einem gutem Deal. Ich denke trotz der Probleme, dass der Ausstieg übereilt ist und der Verkauf eine zu frühe Kapitulation vor Facebook. Facebook wird für Internetnutzer auf der ganzen Welt nicht die allein seeligmachende Anwendung bleiben. Irgendwann hat jeder genug vom Glücksnuss-Spam und von den ständigen Privacy-Diskussionen. Vermutlich gibt es bald wieder einen Platz neben Facebook, denn MySpace lässt viel mehr Anpassungsmöglichkeiten im eigenen Profil zu als Facebook. Das könnte bald auch für mehr User interessant sein, nicht nur für kreativgetriebene User wie es Musiker sind – die ja MySpace lieben.Mehr Freiheit bei der Profilgestaltung und in etwa die gleichen sozialen Funktionen sind durchaus positve Elemente, mit denen MySpace immer noch punkten könnte.

Google Labs: Correlate

Google bringt ein neues Analysetool, zur Zeit nur als ß in den Google Labs verfügbar und nur für den amerikanischen Markt ausgerichtet.Google Correlate findet zu Suchbegriffen korrelierende Suchbegriffe. Dies müssen keine ähnlichen Suchbegriffe im Sinne einer ähnlichen Schreibweise oder Bedeutung sein, sondern es handelt sich um Begriffe, die aufgrund des Suchverhaltens aller User in Zusammenhang verwendet worden sind. Es handelt sich also um eine Analyse historischer Daten. Ziel war, ein Modell zu finden, das aus den Sucheingaben der Google Suchmaschine auf allgemeines Verhalten oder bestimmte Begebenheiten in der Realität schließen lässt. So kann man damit darstellen, wie sich Krankheiten über die US-Bundestaaten ausgebreitet haben, da man unterstellt, dass Google User, wenn sie von z.B. Grippe-Symptomen betroffen sind, nach Begriffen wie „Husten“, „Schnupfen“, „Fieber“ oder eben „Grippe“ suchen. D.h. es gibt dann eine erhöhte Wahrscheinlichkeit in dem betroffenen geographischen Gebiet, dass diese Begriffe vermehrt eingegeben werden. Nutzt man also Google Correlate, dann kann man Begriffe finden, die etwas mit dem eingebenen Oberbegriff zu tun haben. Das lässt sich dann bezogen auf geographische Regionen oder auf einer  Zeitachse seit 2004 darstellen.

Beispiel:

Mich interessiert, welche Begriffe mit „PHP“ korrelieren. Google Correlate findet eine sehr starke Korrelation (r=0,9876; dies ist das „Maß“ für die Zusammenhangstärke) zu „mySQL“. Der Zusammenhang zum Begriff „html input“ ist mit r=.9785 ein wenig schwächer. Aber hier wird sehr gut der innere Zusammenhang sichtbar.

Diese Grafik zeigt den Zusammenhang zwischen „hosting“ und „mysql php“ (r=0.9664). Man könnte interpretieren, dass Mitte/Ende 2004 PHP und mySQL ein neues Thema war und verstärkt in Zusammenhang mit Hosting danach gesucht wurde. Heute gehört PHP und MySQL zur Standardfunktion im Bereich Hosting, so dass sich die Suchanfragen nicht mehr unterscheiden. Es lässt sich eine Grafik als Zeitreihe anzeigen oder auch als Scatterplot, um die Nähe der beiden Werte zur Regressionsgeraden zu sehen.

Geht Renault den FHM-Weg?

Was ist mit renault.de passiert? Am Freitag, 1.4.2011 stand beim Aufruf der deutschen Domain auf der Seite „renault.de gibt es nicht mehr. Die Zukunft schreiben wir gemeinsam“ (sinngemäß). Es folgte ein Redirect auf die Facebookseite von Renault. Die anderen Domains renault.com und renault.fr erschienen zu wie immer. Ich dachte, Renault Deutschland wäre dem FHM-Beispiel gefolgt und hätte alle Webaktivitäten zu Facebook ausgelagert bzw. sich Facebook ausgeliefert. Offensichtlich ein Aprilscherz – oder man ruderte zurück. 

Die Startseite von Renault Deutschland – am 1.April folgte beim Aufruf der Domain renault.de ein Redirect auf die Facebookseite von Renault. 

Über die Möglichkeit, sich eine eigene Website zu sparen und statt dessen ein Profil, eine Applikation oder eine Page in Facebook anzulegen, denken viele Unternehmer nach. Das Sparpotential ist verlockend, aber die Risiken sind auch unübersehbar: 
  • Was ist, wenn Facebook die Regeln (wieder) ändert ? 
  • Was, wenn jede „Interaktion“ für den Pagebetreiber plötzlich Geld kostet? 
  • Wie soll man so einfache Dinge wie einen Shop oder ein Kontaktformular realisieren ohne Facebook-Vorgaben zu verwenden (die FBML kann das gleiche wie HTML und Facebook setzt einiges an Einschränkungen) ?
  • Was, wenn die Datenschutzdebatte rund um Facebook wieder aufflammt?
Man darf annehmen, dass Facebook auch bestrebt ist, ein eigenes „Ökosystem“ zu schaffen und an allen Aktivitäten mitzuverdienen. 
Es kann kein Weg sein, sich als professioneller Akteuer im Internetbusiness von Facebook abhängig zu machen. Facebook ist ein tolles Marketingtool, um User und Kunden zu kontaktieren und mit Ihnen einen guten Dialog aufzubauen. Das Gleiche gilt auch für Twitter. Und natürlich braucht man einen Coroprate Blog. Alle diese Dinge sollten sich den Aktivitäten auf der eigenen Website, die man vollständig selber unter Kontrolle hat, unterordnen. Ein Ausliefern an Facebook wäre fatal.