(Fast) Alle tracken mit Google Analytics

Was WordPress für die CMS-Landschaft ist, ist Google-Analytics im Sektor Webanalyse. Beide dominieren ihren jeweiligen Bereich. Google Analytics hat sich mit über 8o Prozent Marktanteil allerdings viel deutlicher an die Spitze gesetzt als WordPress für Content-Management-Systeme. Hier weist W3Techs einen Anteil von mittlerweile 27 Prozent für WordPress aus. Allerdings ist der Abstand zur Nummer zwei, Joomla, ähnlich frappierend wie der Abstand von Analytics zu Yandex.Metrika, das ich auf Platz zwei befindet (etwas über acht Prozent). Jetpack, das Tool von Automattic (WordPress.com) folgt dicht dahinter mit etwa sieben Prozent. Jetpack funktioniert nur, wenn das entsprechende kostenlose WordPress-Plugin installiert und ein Account bei wordpress.com registriert ist.

Die oft zitierte Open-Source-Alternative zu Google Analytics, Piwik, erreicht nach den Analysen von W3Techs einen Marktanteil von nur zwei Prozent.

Piwik ist in Deutschland recht beliebt, da das Hosting auf eigenen Servern und die weitgehende Kontrolle über die gesammelten Daten als großer Vorteil gesehen wird. Allerdings brechen die W3Techs-Analysen die Ergebnisse nicht auf Länder herunter, so dass sich im weltweiten Vergleich nur ein geringer Anteil für Piwik offenbart.

Quelle: Usage Statistics and Market Share of Traffic Analysis Tools for Websites, April 2017

Welche Zukunft haben Open-Source-Webapplikationen?

Einige Open-Source-Webapplikationen dominieren das Web – aber wie kommen kleinere Projekte zurecht?

Nach eigenem Bekunden sind weltweit mehr als 20 Prozent aller Webseiten mit WordPress realisiert. Manche Analysten kommen auf noch höhere Werte. WordPress ist der Prototyp einer Anwendung für Webserver, die unter einer quelloffenen Lizenz steht und sich mit der weitverbreiteten Serverzusammenstellung Linux, Apache, MySQL und PHP -ebenfalls alles unter quelloffenen Lizenzen verfügbar – begnügt.

„Welche Zukunft haben Open-Source-Webapplikationen?“ weiterlesen

Warum Deutschland im Internet so rückständig ist

Magnetspeicher als Massensopeicher
Bundeswirtschaftsminister Gabriel hat die „Digitale Agenda“ ausgerufen. Die Cebit 2016 war dafür ein schöner Anlass. Immer klarer wird selbst den notorisch technologiefernen Gruppen wie der der Berufspolitiker, dass einiges im Argen liegt. Deutschland hat den Anschluss verloren. Woran könnte das liegen?

„Warum Deutschland im Internet so rückständig ist“ weiterlesen

Was bringt den Geheimdiensten diese Really Big Data – Analyse eigentlich? – Antwort: Einen Blick in die Zukunft (UPDATE)

Visualization of all editing activity by user "Pearle" on Wikipedia (Pearle is a robot). To find out more about this project, go to: www.research.ibm.com/visual/projects/chromogram.html

UPDATE des Artikels vom 23.6.2013

Am Wochenende hat sich der Skandal um die Überwachungsabitionen weiter ausgeweitet. Dies ist die dritte Woche in Folge, in der sich durch weitere Enthüllungen neue Ausmaße abzeichnen.

Langsam, finde ich, wird es Zeit für etwas genauere Analysen. Soweit ich das überblicke, ist noch nirgendwo eine verlässliche oder glaubwürdige Einschätzung erschienen, welchen Nutzen diese immens teuren Schnüffelaktionen überhaupt haben.

Okay, wir wissen, dass sich Geheimdienste In USA und UK Zugang zu den Glasfaserknoten und den wichtigen Netzknoten verschafft haben. Damit lässt sich der darüber fließende Internetverkehr grundsätzlich abhören und mitschneiden, also speichern. Da es sich um Daten auf recht rohem Niveau handelt, dürften recht aufwändige Analysen nötig sein, um den Fragmenten dieses Datenstroms einen Sinn zu geben.

Die Frage ist doch auch: Was lässt sich mit dieser Datensuppe eigentlich anfangen? Welche Möglichkeiten sind den Diensten überhaupt gegeben? Ich vermute, nach dem ich ein paar sowieso selten zu findende, weiterführende Artikel gelesen habe, dass man in der Lage sein wird, einzelne E-Mailkonten zu überwachen. Und in einigen Fällen wird es möglich sein, neben der reinen Aktivitätsmessung auch die Inhalte zu entschlüsseln bzw. zuzuordnen. Vielleicht erleben wir deswegen die häufigen unspezifischen Warnungen wie zuletzt vor Anschlägen auf Fanmeilen. Möglicherweise stellt man fest, dass über bekannte Mobilfunkverbindungen bzw. E-Mailadressen verstärkter Traffic läuft und darauf kann man schließen, dass die eine oder andere Gruppe etwas vor hat.

Vermutlich kann man auch im gespeichertem Datenbestand nachträglich Spuren finden, wenn man weiß, wonach man suchen soll. Dass Anschläge verhindert werden, wird behauptet. Bewiesen ist das glaube ich noch nicht. Offensichtlich ist der Versuch, Verbrechen mit Big Data Analysen zu verhindern viel viel schwieriger als gezielte Fahndung.

Für Deutschland auch kein Neuland. Bereits in den 1970ern versuchte das BKA per damals auch umstrittener Rasterfahndung der RAF auf die Spur zu kommen. Geholfen hat das wohl nicht viel.

Es wäre also sehr schön, es erschiene bald irgendwo im Spiegel oder in der Süddeutschen oder wo auch immer ein Beitrag, der einige Hintergründe etwas genauer ausleuchtet und nicht nur auf Empörung setzt.

UPDATE 6.7.2013

Inzwischen hat sich die PRISM-Geschichte weiterentwickelt. Wir wissen, dass der englische Geheimdienst und auch die NSA Glasfaserkabel anzapft. Wir wissen, dass auch die Franzosen und auch die Deutschen (BND am DECIX) abhören.

Was also macht man mit dieser Riesenmenge an Daten?

Es ist der Versuch, durch korrelative Zusammenhänge Erkenntnisse über die Zukunft ermitteln zu können. Eine Anwendung davon ist Predictive Policing, also der Versuch, aus vergangenen Mustern von Kriminalität Vorhersagen aus damit gewonnenen Zusammenhangsmodellen zu gewinnen. Dies ist in diesem Dokument genau beschrieben. 

Der englische Guardian hat eine entsprechende Geschichte über prädiktive Analysen veröffentlicht: http://www.guardian.co.uk/science/2013/jul/01/how-algorithms-rule-world-nsa

Das Prinzip: Man sieht sich vorhandene Daten an, sucht nach inneren Zusammenhängen, die auch versteckt sein können, indem man geeignete statistische Verfahren anwendet (Stichwort: Strukturgleichungsmodelle) und kann dieses Modell darauf prüfen, wie gut es der Realität entspricht (Model Fit). Wenn dieser Model Fit hoch genug ist, taugt das Modell auch als Vorhersagemodell für zukünftige Zusammenhänge. Die Vorhersagekraft kann enorm sein, beängstigend und faszinierend zugleich, denn die Zusammenhänge sind ja tatsächlich, abgesehen von einer statistischen Fehlerwahrscheinlichkeit, tatsächlich vorhanden.

In vielen Lebensbereichen funktioniert predictive analysis sehr gut, gerade auch in kreativen Bereichen, von denen man naiv annehmen würde, hier kommt der menschliche freie, d.h. unvorhersehbare Wille zu tragen. Das ist offensichtlich nicht so.

So lässt sich mit guter Treffsicherheit vorausberechnen, ob ein Popsong eine Hit wird oder nicht. Ein Wedesigner names McCready entwickelte so ein Verfahren, das auf erweiterter Spektralkonvolution basiert.

Beschrieben sind solche Methoden, wie man oft liest, in „Automate This: How Algorithms Came to Rule Our World“ von Christopher Steiner.

Automate This: How Algorithms Came to Rule Our World

Neues aus Bluffdale?

Die Aufregung auch in Deutschland war groß, als die Süddeutsche mit einer Story aufmachte, wonach in den USA praktisch der komplette Datenstrom von Google, Amazon, Microsoft, Facebook über die National Security Agency (NSA) ausgewertet wird.

Hier ist eine nette Infografik zum Aufbau und der Funkitionsweise der NSA.

Dass die NSA in Bluffdale eine Riesenanlage (Datacenter) gebaut hat, ist schön länger (durch den Informanten und Exmitarbeiter William Binney) bekannt und das Ansinnen der Behörde eigentlich auch: Den Datenverkehr zu scannen und und in der Lage zu sein, auch sichere Verschlüsselungen zu brechen. Blöderweise kann aber jeder US-Bürger und natürlich auch Ausländer damit überwacht werden (das erinnert an die TV – Serie „Person of Interest„, die in Deutschland abgesetzt worden ist, weil das Publikum von RTL die Szenerie nicht verstanden hat).

Die Vorwürfe von ihm gegen die US-Regierung sind etwa ein Jahr alt und Wire hat darüber ausführlich berichtet: http://www.wired.com/threatlevel/2012/03/ff_nsadatacenter/

Irritierend waren Formulierungen in einem angeblich geleakten Dokument, wonach die staatlichen Behörden „direkten Zugriff“ auf die Server der Unternehmen haben. Dies sei im sogenannten Prism-Programm so auf Basis geltenden Rechts wie dem Patriot Act oder FISA (Foreign Intelligence Surveillance Act), unter denen auch die Echelon – Anlagen in Deutschland fielen.

Die Frage ist natürlich, ob die gezeigte Prism-Präsentation echt ist. Besonders professionell gestaltet wirken Logo und Aufmachung ja nicht gerade. Da wäre vielleicht ein Design-Job frei, wie der englische Guardian bemerkte, der auch festgestellt hat, dass auch englische Geheimdienste auf die Erkenntnisse aus der NSA-Datenflut zugreifen konnten. Involviert ist hier der britische GCHQ mit dem harmlos klingenden Namen Goverment Communications Headquaters, der allerdings auch in kalten Kriegszeiten in Deutschland Echelon mitbetrieben hat.

Ernst genommen wird die Affaire, die auch den US-Präsindenten unter Druck geraten lässt dennoch erstaunlich heftig. Nach dem 11.September 2001 war Abhören salonfähig geworde, egal was, egal wo, egal wen – wenn’s nur dem Kampf gegen den Terror dient.

Auch wenn man in USA Datenschutzfragen nicht mit der Intensität diskutiert und bewerten wie in Deutschland, lassen sich auch Amerikaner nicht gerne von ihrer Regiererung überwachen. Verkaufbar ist das nur unter dem Totschlagargument Terrosismusbekämpfung, doch die Beweise dafür, dass man ein solches System wie Prism braucht, fehlen.

Die Amerikaner lassen sich die NSA nun einiges kosten. Überwachung der eigenen Bevölkerung hat noch nie besonders gut funktioniert – in Deutschland hat man das über einige Jahrzehnte zumindest im östlichen Teil sehr ernsthaft versucht und alles eingesetzt, was damals technisch und menschlich möglich war. Die CIA war dabei und sollte eigentlich daraus gelernt haben (Stichwort Rosenstolz).

Insbesondere Apple und Google dementieren, dass es Zugriff auf deren Server von staatlicher Seite gibt. In Google Plus finden sich zitierten Dementis, verbreitet über den Account von +MattCutts (http://googleblog.blogspot.de/2013/06/what.html) und +LarryPage.

Ich hatte gestern eine interessante Diskussion mit Leuten, die ohnehin sehr Google kritisch eingestellt sind. Eine Stimme meinte, man könne „schon selbst etwas tun“, zumindest die Big4 meiden (Google, Microsoft, Facebook und Apple).

Auch der hessische Justizminister hat sich – ich finde naiverweise – dafür ausgesprochen, die betroffenen, d.h. erst mal die ständig benannten US-Anbieter zu meiden. Ansonsten zeigt sich Verbraucherschutzministerin Aigner empört, leider hört man von den Piraten nichts (da sollte man eigentlich die Kompetenz am ehesten vermuten).

Ich denke, der Schein der seeligen Internetinsel trügt: Wer auf deutsche oder auch europäische Anbieter setzen will, muss zunächst erstmal welche finden: Auch Anbieter mit deutsch klingenden Namen haben Filialen in den USA und damit dürfte Patriot Act für sie ebenso gelten. Internetinfrastruktur ist international. Pure lokale Player sind sehr selten. Dazu gehören 1&1 (und damit auch mail.com, web.de, gmx.xyz), Deutsche Telekom mit T-mobile), Hetzner (Dienstleister für Jimdo) und viele viele mehr. Google, Facebook, Apple liefern Dementis und Beteuerungen, es gäbe keinen „direkten Zugriff“ auf die eigenen Server. Von deutscher international aktiver Seite hört man auffällig wenig.Man hält sich zurück, solange die deutschen Internetnutzer sich dem noch nicht bewusst geworden sind.

Die größten Infrastrukturanbieter sind (nach Markosweb.com; gelb markiert die europäischen bzw. deutschen) :

1. GoDaddy.com 480662 139801 114836
2. Google 416917 8961 13579
3. THEPLANET.COM INTERNET SERVICES 338908 79727 128702
4. Bluehost 178043 48370 26205
5. SoftLayer Technologies 148042 55884 57967
6. Ovh Systems 126252 25010 16722
7. Hetzner Online AG 125884 40265 27697
8. Rackspace Hosting 122243 68806 21835
9. 1&1 Internet AG 117878 62421 9091
10. New Dream Network, LLC 85968 13341 13830
11. Layered Technologies 83124 55991 41211
12. Oversee.net 79935 50713 35268
13. Secure Hosting 76057 59658 19197
14. Peer 1 Network 72991 42038 61947
15. The Endurance International Group 71332 17522 13297
16. AMAZON.COM 61126 30577 15372
17. 1&1 Internet 60942 7923 10886
18. Castle Access 58171 48388 19896
19. Plus.line AG 57107 46894 15188
20. MEDIA TEMPLE 55400 14330 10018

Diese europäischen bzw. deutschen Anbieter unterhalten in den USA Büros, Datacenter, Firmenableger und fallen dementsprechend unter den Patriot Act und andere einschlägige Gesetze.

Verleger beschweren sich übers Internet, aber schon Btx konnte Paid Content

Warum beschweren sich Zeitungs- und Zeitschriftenverleger auf der einen Seite über „Enteignung“ durch Google, stellen aber ihre kompletten Inhalte hochsuchmaschinenoptimiert kostenlos zur Verfügung? Es gibt wirklich bald inen Grund mehr, eine Tageszeitung zu kaufen. Hätten die Inhalteproduzenten ein bisschen früher auf einige Technologien gesetzt, hätte vielleicht die „Kostenlos-Kultur“ wie es gerne so schön heißt, nicht so drastisch durchgeschlagen. Selbst das altehrwürdige Btx/Datex-J kannte Bezahlmöglichkeiten für Inhalte im Micropaymentbereich von einigen Pfennigen (damals gab es noch die D-Mark) pro Seite. Eine Btx-Seite konnte 0,01 bis 9,99 DM kosten. Pro Abruf! Und die Telekom (damals Deutsche Bundespost) kümmerte sich um die Bezahlprozesse, nämlich per Telefonrechnung, notfalls sogar ums Inkasso. Ist es wirklich so schwer, Paid Content auf die Reihe zu kriegen?

Microsoft hat auch mal wieder was Neues

Ich war von Windows Vista schon enttäuscht. Ein wenig mehr Optik, aber sonst nichts Neues. Seit heute gibts den Internet Explorer 8 und er soll ja sehr schnell sein, was ich gerade austeste. Schön, dass Microsoft sich nun an alle Standards hält. Paradoxerweise gibt einen Rückwärtskompatibilitätsmodus. Webseiten bauen sich wiklich sehr schnell auf. Mit Faccebook und allen gängigen Seiten funktioniert das eigentlich sehr gut. Komischerweise laden meine privaten Webseiten eher langsamer. Das kann aber auch gerade am Hoster oder der Internetverbindung liegen. Das Laden großer Bilder scheint länger zu dauern.. ob das Bild durch einen Zwangsfilter von Microsoft muss, um potentiell schädlichn Code zu entdecken?

Ich bin sehr gespannt, wie die Webslices funktionieren, eine Art aufgebohrtes RSS? Ein grüner Button auf Websites soll darauf hinweisen. Bisher habe ich noch nirgendwo einen gefunden.

Ich verwende den IE 8 auf einem betagten Notebook mit einem Pentium M 725 Prozessor und habe den Eindruck, mit ihm ähnlich schnellen Seitenaufbau zu erleben wie mit Google Chrome, den ich nur hin und wieder mal verwende, da mich Googles Datensammelwut grundstzlich nervt. Safari finde ich eigentlich auch nicht schlecht, nutze ich aber eher nur auf dem iphone.

Eigentlich könnte Outlook Express bzw. das ultralahme Livemail auch mal ein Update gebrauchen.

Konsolidierung im Werbe-Web

Erstes „prominentes Opfer“ sei Lycos Europe