ARD und ZDF sollten sich beeilen mit der Werbefreiheit

Meedia berichtet von einem Thesenpapier der Gewerkschaft verdi. Demnach steht wieder die Forderung im Raum, die Öffentlich-Rechtlichen werbefrei zu machen.

http://meedia.de/2014/03/12/verdi-will-werbefreiheit-und-freie-bahn-im-internet-fuer-ard-und-zdf/ 

Mehr Online-Verbreitung soll möglich gemacht werden. Auch die Abschaffung der Depublizierungspflicht – ein subventionartiges Zugeständnis an deutsche Verleger – solll gestrichen werden, was auch aus Zuschauersicht vernünftig erscheint.

Nachteilig wäre jedoch, ein Aufblähen mit hastig zusammengedrehten „Digitalkanälen“ zu erlauben, um den Anstieg der Rundfunkgebühren begründen zu können.

Ich finde, ARD und ZDF sollten sich beeilen und einen Verzicht auf Werbung schnell umsetzen. TV steht vor drastischen Veränderungen. „Low Budget“ dominiert, auch die werbetragenden Premiumkanäle. Zwar sind die den Nachmittag und den Abend füllenden Eigenproduktionen vergleichweise billig, aber wichtige Zuschauerschichten haben sich schon umorientiert. Deutsches Fernsehen (auch das private) hat versucht, auf (teuere) wichtige US-Serien zu verzichten und dudelt Quizshows, Ekelshows und Freakshows mit Konzepten aus dem letzten Jahrzehnt weiter runter. Die Zuschauer holen sich diese Serien nun bei Apple TV, Watchever und Co.  

Contentkrise

United Internet (UI) fährt größere Geschütze auf. Ruft ein User mit installiertem Adblocker Addon eine Seite von web.de, gmx.de oder anderen UI-Sites auf, erscheint eine Warnung. 

Diese sagt, man sei in Gefahr, denn der Adblocker verhalte sich schädlich und man möge diesen doch bitte deaktivieren. 

Ich finde  die Aktion gar nicht verkehrt. Adblocker sind kein Segen für den User, sondern Geschäftsmodell.

Geht UI zu aggressiv vor? 

Wenn auf einer Website mal ein SSL Zertifikat ausgelaufen ist, setzt Google einen knallroten Warnhinweis davor, dass es sich hierbei um eine hochtoxische Site handeln könnte… das nur als Vergleich. 

Adblocker werden ja journalistisch immer als Segen für User dargestellt, dabei halten Adblocker wie Adblocker Plus als Gatekeeper erwiesenermaßen einfach nur die Hand auf. Die Großen zahlen (UI übrigens auch!), Google auch, Yahoo vermutlich auch, Zanox z.B. nicht – das bedeutet: Affiliatebanner kommen nicht durch und der kleine Blogger kann seine Site nicht wenigstens ein bisschen refinanzieren. Daher funktioniert eigentlich nur noch der Voucher-Kram mit Affiliatesystemen.

Adblocker tragen zur Konzentration bei 

Werbetreibende und Sitebetreiber werden Content und Ads stärker vermischen und mehr qualitativer Content wird hinter die Paywall verschoben oder verschwindet. 

Die großen Werbenetzwerke zahlen

User-generierter Content erscheint vielleicht noch mit (verzichtbaren) Ads. Heute schon erscheint auf Top Suchpositionen zu wichtigen Keywords irgendetwas mit Wikipedia (geht ja noch), gute-frage.de (schon nicht mehr toll), ein ungepflegtes Forum oder eine Leadgen- oder Shoppingseite (danach suchte ich aber nicht) ==> #Contentkrise 

Conversion: akzeptiere Werbung

Das könnte die erste Userinteraktion sein, die eine Werbung-tragende Website vom User verlangt: Die Akzeptanz, dass Werbung gezeigt werden darf. Andernfalls dürften die Inhalte eben nicht angezeigt werden. Auch das wäre ein Modell. 

Suchmaschinenmarkt vor Paradigmenwechsel – Was kommt nach dem Webgraphenmodell?

Ein viel zitiertes Gerücht besagt: Suchmaschinen werden künftig die Relevanz einer Website für eine Suchanfrage nicht mehr anhand von Backlinks abschätzen.

Der aktuelle Webmaster-Video-Post von Matt Cutts (Google) geht dieser Thematik nach:

Vor kurzem gab es mal eine Meldung über Yandex, dass man dort (in Russland, genauer gesagt erst mal für die lokale Suche um Moskau) auf Backlinks verzichten will. Ergebnisse kennen wir noch nicht.

Für Google wäre ein solcher Schritt ein Paradigmenwechsel, ist aber wohl kurzfristig nicht zu erwarten. Der ganze Erfolg der Suchmaschine beruht, wenn man so will, auf der Idee, dass wichtige und relevante Webdokumente von anderen Webdokumenten aus verlinkt werden und unwichtige nicht. Das lässt sich mit dem Webgraphenansatz, also graphentheoretisch modellieren und maschinell sehr gut umsetzen. Man muss nur sehr, sehr viele Webdokumente finden und auswerten. Das kostet Zeit und Rechenkapazität. Dann hat man aber eine gute Suchmaschine, wie Google.

Natürlich gibt es eine Reihe weiterer Kriterien. Aber im Zentrum stand bisher immer der PageRank, wie dieses Graphenmodell bei Google heißt. Offensichtlich gibt es noch nichts besseres, was praktikabel wäre.

Man fragt sich natürlich, welches Kriterium sonst eine Rolle spielen könnte. Immer noch können Suchmaschinen den Sinn von Wörtern schlecht erfassen. Das semantische Web bleibt wohl vorerst Träumerei. Hübsch im Labor, untauglich in der Praxis. Diese semantische Information tragenden und dennoch maschinenkompatiblen Microformats sind auch viel zu unhandlich, um sie in Webdokumenten einzusetzen (dazu hat man als Mensch ja eigentlich die Sprache).

Guten Morgen: Amazon zeigt Edeka und Co., wie man Lebensmittel online verkauft

Und wieder muss erst mal ein amerikanisches Webunternehmen in Deutschland zeigen, wie man sowas macht:

http://www.berliner-zeitung.de/wirtschaft/-online-supermarkt-amazon-liefert-kuenftig-lebensmittel,10808230,26257054.html

Europäische Supermarktketten haben zu lange gebraucht, um einen solchen Service au die Beine zu stellen, selbst wenn sie im Lebensmittelmarkt zuhause sind. Warum bekommen Rewe, die Metro oder Edeka das nicht hin. Das muss mir mal jemand erklären.

Statt dessen fahren die deutschen Ketten Analogshops mit allerlei Krims Krams, den man bei Ebay und dergleichen auch bekommt, manchmal auch billiger.

Habe ich das nicht 2010 schon mal geschrieben?
http://mkaekenm.blogspot.de/index.html2010/06/real-online-shop-keine-kleidung-keine.html

16 Milliarden Dollar sind auch für Facebook viel

16 bis 19 Milliarden US Dollar lässt sich Facebook den Messengerservice WhatsApp mit seinen 450 Millionen Nutzern kosten.

Die Nutzer sind jung, aktiv, täglich bis ständig online, während die Nutzerschaft von Facebook immer älter wird. Aus dieser Perspektive macht der Kauf Sinn. Aber um die 35 Dollar pro aktivem Nutzer, der nichts bezahlen muss, um den Service verwenden zu können, ist immens viel, auch für Facebook. An der Wall Street hat das für Kursverluste der Aktie gesorgt.

Wenn man ähnliche Übernahmen vergleicht, findet man Kosten von 60 Cent bis vielleicht vier Dollar, meist so um die zwei Dollar pro User von werbefinanzierten Diensten.

Mit der Werbefreiheit bei WhatsApp dürfte es mit einer Integration in Facebook dann vorbei sein. So gesehen hat Facebook jüngere Zielgruppen für die Klickmaschine WhatsApp zugekauft. Das ist wertvoller Rohstoff für das klickbasierte Adsystem von Facebook, das extrem gut funktioniert, soweit die Ads unumgänglich sind.

Das setzt voraus, dass die Integration gelingt. Meistens gehen sie schief oder laufen suboptimal: Wer führt schon Videotelefonate mit Skype via Facebook? Wo sind die Instagramfotos auf den Facebook-Walls?

Innovative Services sind hip, solange sie frei segeln können. Sobald sie von einem Multi übernommen werden, ist es vorbei mit der Coolness. Die Gründer sind mindestens Millionäre, oft auch Milliardäre und die Nutzer suchen sich einen anderen Ort für „the next big thing“.

Notizen aus dem Schlandnetz: SlideShare und der Datenschutz

Deutschland gilt ja sowieso nicht gerade als Internetland der ersten Liga. Unser langsames DSL, die strahlend weiße LTE-Landkarte, die GEMA-beherrschte musikbefreite Youtube-Playlist einerseits und die Beherrschung des Marktes durch amerikanische Unternehmen andererseits sind schon Kult. Das Restpotential machen wir uns dann noch mit widersinnigen Gesetzen und Vorschriften kaputt, was man auch als Subventionsprogramm für unterbeschäftigte Anwälte, die dann Abmahnungen in Serie abschicken können, deuten kann.

Da glaubt man auch sofort, dass eine Schlagzeile wie „SlideShare: Einsatz in Deutschland ist unzulässig“ absolut realistisch ist.

In einem Land, in dem wildgewordene Abmahnanwälte, die täglich auf ihrer Jagd auf Internetnutzer auf der PC-Tastatur Tausend mal öfter das € – Zeichen als das §-Zeichen eintippen und die unnachvollziehbarsten Gerichtsurteile bei Internetklagen zustande kommen, ist man sowieso schon geneigt, dies in die Liste alltäglicher Web-Absurditäten einzuordnen.

Genauso wie die Pressemitteilung des Datenschutzbeauftragten in Baden-Württemberg, der den den Datenschutzfinger hebt und in Ba-Wü ansässige Unternehmen darauf hinweist, dass sie Google Analytics nicht datenschutzkonform einsetzen. Sie müssten nämlich einen Auftragsdatenverarbeitungsvertrag mit Google abschließen. Ausserdem muss man die IP-Adressen anonymisieren und muss eine ausführliche Aufklärung über die erhobenen, personenbezogenen Daten (die IP-Adresse gehört dazu) darstellen. Zusätzlich muss der User der Datenerhebung auch widersprechen können (Optout). Man kann kleine Gewerbetreibende quälen, gegen NSA und GCHQ  ist man in deutschen Datenschutzbüros eh machtos.

In eine ähnliche Kerbe haut die Meldung auf der Site „www.datenschutzbeauftragter-info.de“, die von einer auf Datenschutz spezialisierten Consultingfirma – also nicht von einem Landesdatenschutzbeauftragten –  betrieben wird: Nutzt man als Webseitenbetreiber SlideShare und baut eine dort bereitgestellte Präsentation per iFrame in die Seite ein, werden Trackingtools verwendet, die auch IP-Adressen nichtanonymisiert erfassen. Das geschieht zudem noch ohne Erklärung in der Datenschutzrichtlinie und ist sozusagen illegal. Der Abmahnanwalt an sich darf tätig werden.

Webworker Viktor Dite hat auf die Schnelle ein Tool produziert, das den Standard-Slideshare Embed-Code variiert und Optout-Möglichkeiten anbietet.

SlideShare dürfte nur der Anfang sein. Es gibt unzählige Tools, die per iFrame in die eigene Site integriert werden können.

In meinem Vlog: Google Adwords, Facebook Paper App, Zanox AGB, Klout Score, .ruhr-Domain

Vergangene Woche erschien Brandeins mit einer Story über Probleme im Onlinemarketing. Die Autoren haben getestet wie gut man mit jeweils 250 Euro Abos auf Newssites, in Google oder auf Facebook bewerben kann. Das Fachportal Meedia hat dies für eine eigene Kommentierung zum Anlass genommen.

Dies ist ein Thema in meinen aktuellen Vlog Beitrag:

Außerdem habe ich mich gefragt, wo die Social Graph Search denn nun in der deutschen Version zu finden ist. Man muss wohl auf Englisch umschalten. Dann ändert sich auch der Header. 
Noch eine Facebook-Frage: Wie bekommt man nun eigentlich die neue Facebook Paper App? In Deutschland offensichtlich noch gar nicht: Eine Android Version gibt es (noch) nicht und Apple erlaubt nicht das Herunterladen aus dem amerikanischen Store (iTunes oder Appstore).
Zanox wollte die AGBs verändern und ein „Umgehungsverbot“ einführen. Demnach wäre eine Vertragsstrafe fällig geworden, wenn ein Publisher ein Zanox-Programm in einem anderen Netzwerk fortsetzen möchte. Dies ist aber wieder abgeblasen worden. 
Neues von Klout.com (die mit dem Klout-Score): Seit kurzem kann man auch Beiträge aus Klout heraus sharen, wenn man will auch zeitgesteuert. Auch das ist im Video thematisiert. 
Ein weiterer Beitrag betrifft die Einführung vieler neuer Top Level Domains wie zum Beispiel .ruhr. Ich habe mal nachgesehen, ob es denn nun schon recht viele .ruhr – URLs gibt. 

Hässliche Notizen aus dem Schland Netz

Eigentlich ist es zum Haareausraufen, was an blödsinnigen Entscheidungen und Abmahnereien im Zusammenhang mit dem deutschen Internet ständig zu erfahren ist:

  • Das Landgericht Köln (bekannt durch die Redtube-Affaire) hat einem Abmahner Recht gegeben, der einen Webseitenbetreiber wettbewerbsrechtlich durch eine einschlägige Kanzlei in Berlin abmahnen ließ, weil dieser ein Bild von Pixelio verwendet hat. Das Aktenzeichen ist AZ 14 O 427/13. Pixelio ist ein Bilderdienst, über den Fotografen Bilder vertreiben können, die Webseitenbetreiber „kostenlos“ verwenden können, sofern der Fotografenname genannt wird. Diese Bedingung war nahezu penibel genau erfüllt. Allerdings bezog sich der Abmahner auf die Argumentation, dass seine Fotos ja auch direkt geladen werden können, also mit der Bilder-URL, und dann sei der Fotografenname ja nicht ersichtlich. Also müsste der Fotografenname bitteschön schon in die Bilddatei selbst.

    Und so funktioniert die Verwertungskette, die man auch als Abmahnabzockfalle bezeichnen könnte: Zunächst werden Hunderte nichtssagender Fotos in bereitgestellt. Der eine oder andere Webseitenbetreiber nutzt eines davon, meist aus der Idee heraus, ein illustrierendes Bild zu brauchen. Die „Lizenzbedingung“ des Bilderdienstes ist, dass der Fotografenname genannt wird. Per Bildersuche findet der Einsteller das eine oder andere Vorkommen und nutzt das im deutschen Recht vorgesehene Instrument der Abmahnung, wenn er nachweisen kann, dass der Name nicht genannt wird (aus der Praxis heraus: es gibt genug Szenarien, in denen das gar nicht möglich ist).

    Mit dieser Abmahnung wird der Verstoß gegen die Lizenzbestimmungen erklärt und daher müsse man den vollen Lizenzpreis nachzahlen. Berechnet wird dieser anhand einer eher realitätsfernen Honorarpreisliste eines Branchenverbands für Fotografen. Die Abmahnanwälte schlagen nochmal „Gebühren“ obendrauf und stellen die unangenehme Post in Serienbriefen zu. Ein einträgliches Geschäft. Dabei wenden sich die Abmahnanwälte ausschließlich an Gewerbetreibende, denn für sie gilt nicht die Obergrenze für Abmahnungen in Urheberrechtsfällen für Verbraucher.

    Also: Auf Stockfotos verzichten, eigene Bilder nutzen. Als „Illustration“ braucht die sowieso niemand, lieber etwas selbst mit dem Smartphone fotografieren oder eine Zeichnung bzw. ein  Diagramm erstellen. Das muss sich gar nicht mal nur auf Webseiten beziehen. Powerpoint-Präsentation u.ä., die Fotos aus Stocks beinhalten und die nach Vorträgen online gestellt werden, können genauso betroffen sein.

  • Ein Verband mahnt großflächig Onlinehändler wegen diverser Bestimmungen des Wettbewerbsrechts ab. Häufig geht es um kleinliche AGB-Formulierungen wie die Reihenfolge der Nennungen von Gesetzestextstellen oder Preisangaben. 
  • Die Gema möchte gerne Gebühren für eingebettete Videoclips. Wenn jemand ein Youtube-Video mittels Embed-Code auf seiner Seite einbaut, soll er zahlen, wenn der Urheber des Videos von der Gema vertreten wird. Dabei hat schon Youtube Gemagebühren bezahlen müssen.   

Yandex will auf Backlinks zur Festlegung der Suchergebnisposition verzichten

Die russische Suchmaschine Yandex möchte offensichtlich neue Wege gehen, um die Reihenfolge der Suchergebnisse auf der Suchergebnisseite festzulegen. Es sieht so aus als würde Yandex, die mit 61 Prozent Marktanteil meistverwendete Suchmaschine in Russland, zumindest zunächst für die Region Moskau, wie es heißt, auf das Ranking-Kriterium Backlinks verzichten wollen.

http://seograd.com/2013/12/yandex-turns-seo-business-upside-down/
http://www.design4u.org/russland-gus/seo-russland/yandex-mini-faq-zum-ranking-ohne-backlinks/ 

Statt dessen sollen, wie es in einer Unternehmens FAQ heißt, 750 andere Kriterien herangezogen werden, um wichtige von unwichtigen Seiten zu unterscheiden.

„Wir hoffen, dass wir mit der Neuausrichtung zu einem zivilisierteren Internet-Marketing beitragen können“, heißt es in einer Übersetzung der FAQs, die auf design4u.org veröffentlicht ist. Weiter: „Wir erwarten eine deutlich steigende Nachfrage nach Leistungen im Bereich Usability, mit dem Ziel Konversionsraten zu steigern.“

Ziel dieses Experiments ist wohl, den „Überoptimierungen“ entgegen zu wirken. Offensichtlich sollen Kriterien, die als Onpage-Faktoren bekannt sind, wichtiger werden. Die Ankündigung von Yandex hat SEO-Agenturen in zwei Lager geteilt: Es gibt sowohl viele Befürworter als auch strikte Ablehner des neuen Kurses. Die lokale Suche ist für Yandex sehr wichtig, denn die Ergebnisse gelten hier als besser im Vergleich zu denen von Google.

Zwar ist die Überoptimierung durch eingehende Links, die gekauft oder gemietet werden können, schon seit vielen Jahren ein Problem. Eine überzeugende Lösung hatte bisher jedoch noch keine wichtige Suchmaschine. Große Hoffnungen liegen in der semantischen Suche, oft auch als „Internet der Dinge“ apostrophiert.

Mit der Anzahl und Wertigkeit eingehender Links wird die „Wichtigkeit“ einer Domain oder einer einzelnen Webseite abgeschätzt. Das zugrundeliegende Paradigma ist, dass eine Webseite umso wichtiger ist, je mehr Links darauf zeigen.  Googles zentraler PageRank Algorithmus basiert auf dieser graphentheoretischen Idee und hat Anfang der 2000er Jahre die Suchmaschinenlandschaft weltweit revolutioniert. Im Laufe der Zeit gab es viele Korrekturen und Anpassungen, aber nach wie vor wird die Reihenfolge der Ergebnisse hauptsächlich durch die Anzahl der Links auf diese Seite bestimmt. Andere Faktoren sind untergeordnet wichtig.

Der Freilandversuch von Yandex kann als Experiment gewertet werden. Vermutlich deshalb ist der Einsatz zunächst auf die Region Moskau beschränkt. Man darf also gespannt sein, wie sich die Ergebnisseiten verändern werden.