Was WordPress für die CMS-Landschaft ist, ist Google-Analytics im Sektor Webanalyse. Beide dominieren ihren jeweiligen Bereich. Google Analytics hat sich mit über 8o Prozent Marktanteil allerdings viel deutlicher an die Spitze gesetzt als WordPress für Content-Management-Systeme. Hier weist W3Techs einen Anteil von mittlerweile 27 Prozent für WordPress aus. Allerdings ist der Abstand zur Nummer zwei, Joomla, ähnlich frappierend wie der Abstand von Analytics zu Yandex.Metrika, das ich auf Platz zwei befindet (etwas über acht Prozent). Jetpack, das Tool von Automattic (WordPress.com) folgt dicht dahinter mit etwa sieben Prozent. Jetpack funktioniert nur, wenn das entsprechende kostenlose WordPress-Plugin installiert und ein Account bei wordpress.com registriert ist.
Die oft zitierte Open-Source-Alternative zu Google Analytics, Piwik, erreicht nach den Analysen von W3Techs einen Marktanteil von nur zwei Prozent.
Piwik ist in Deutschland recht beliebt, da das Hosting auf eigenen Servern und die weitgehende Kontrolle über die gesammelten Daten als großer Vorteil gesehen wird. Allerdings brechen die W3Techs-Analysen die Ergebnisse nicht auf Länder herunter, so dass sich im weltweiten Vergleich nur ein geringer Anteil für Piwik offenbart.
Einige Open-Source-Webapplikationen dominieren das Web – aber wie kommen kleinere Projekte zurecht?
Nach eigenem Bekunden sind weltweit mehr als 20 Prozent aller Webseiten mit WordPress realisiert. Manche Analysten kommen auf noch höhere Werte. WordPress ist der Prototyp einer Anwendung für Webserver, die unter einer quelloffenen Lizenz steht und sich mit der weitverbreiteten Serverzusammenstellung Linux, Apache, MySQL und PHP -ebenfalls alles unter quelloffenen Lizenzen verfügbar – begnügt.
Bundeswirtschaftsminister Gabriel hat die „Digitale Agenda“ ausgerufen. Die Cebit 2016 war dafür ein schöner Anlass. Immer klarer wird selbst den notorisch technologiefernen Gruppen wie der der Berufspolitiker, dass einiges im Argen liegt. Deutschland hat den Anschluss verloren. Woran könnte das liegen?
Am Wochenende hat sich der Skandal um die Überwachungsabitionen weiter ausgeweitet. Dies ist die dritte Woche in Folge, in der sich durch weitere Enthüllungen neue Ausmaße abzeichnen.
Langsam, finde ich, wird es Zeit für etwas genauere Analysen. Soweit ich das überblicke, ist noch nirgendwo eine verlässliche oder glaubwürdige Einschätzung erschienen, welchen Nutzen diese immens teuren Schnüffelaktionen überhaupt haben.
Okay, wir wissen, dass sich Geheimdienste In USA und UK Zugang zu den Glasfaserknoten und den wichtigen Netzknoten verschafft haben. Damit lässt sich der darüber fließende Internetverkehr grundsätzlich abhören und mitschneiden, also speichern. Da es sich um Daten auf recht rohem Niveau handelt, dürften recht aufwändige Analysen nötig sein, um den Fragmenten dieses Datenstroms einen Sinn zu geben.
Die Frage ist doch auch: Was lässt sich mit dieser Datensuppe eigentlich anfangen? Welche Möglichkeiten sind den Diensten überhaupt gegeben? Ich vermute, nach dem ich ein paar sowieso selten zu findende, weiterführende Artikel gelesen habe, dass man in der Lage sein wird, einzelne E-Mailkonten zu überwachen. Und in einigen Fällen wird es möglich sein, neben der reinen Aktivitätsmessung auch die Inhalte zu entschlüsseln bzw. zuzuordnen. Vielleicht erleben wir deswegen die häufigen unspezifischen Warnungen wie zuletzt vor Anschlägen auf Fanmeilen. Möglicherweise stellt man fest, dass über bekannte Mobilfunkverbindungen bzw. E-Mailadressen verstärkter Traffic läuft und darauf kann man schließen, dass die eine oder andere Gruppe etwas vor hat.
Vermutlich kann man auch im gespeichertem Datenbestand nachträglich Spuren finden, wenn man weiß, wonach man suchen soll. Dass Anschläge verhindert werden, wird behauptet. Bewiesen ist das glaube ich noch nicht. Offensichtlich ist der Versuch, Verbrechen mit Big Data Analysen zu verhindern viel viel schwieriger als gezielte Fahndung.
Für Deutschland auch kein Neuland. Bereits in den 1970ern versuchte das BKA per damals auch umstrittener Rasterfahndung der RAF auf die Spur zu kommen. Geholfen hat das wohl nicht viel.
Es wäre also sehr schön, es erschiene bald irgendwo im Spiegel oder in der Süddeutschen oder wo auch immer ein Beitrag, der einige Hintergründe etwas genauer ausleuchtet und nicht nur auf Empörung setzt.
UPDATE 6.7.2013
Inzwischen hat sich die PRISM-Geschichte weiterentwickelt. Wir wissen, dass der englische Geheimdienst und auch die NSA Glasfaserkabel anzapft. Wir wissen, dass auch die Franzosen und auch die Deutschen (BND am DECIX) abhören.
Was also macht man mit dieser Riesenmenge an Daten?
Es ist der Versuch, durch korrelative Zusammenhänge Erkenntnisse über die Zukunft ermitteln zu können. Eine Anwendung davon ist Predictive Policing, also der Versuch, aus vergangenen Mustern von Kriminalität Vorhersagen aus damit gewonnenen Zusammenhangsmodellen zu gewinnen. Dies ist in diesem Dokument genau beschrieben.
Das Prinzip: Man sieht sich vorhandene Daten an, sucht nach inneren Zusammenhängen, die auch versteckt sein können, indem man geeignete statistische Verfahren anwendet (Stichwort: Strukturgleichungsmodelle) und kann dieses Modell darauf prüfen, wie gut es der Realität entspricht (Model Fit). Wenn dieser Model Fit hoch genug ist, taugt das Modell auch als Vorhersagemodell für zukünftige Zusammenhänge. Die Vorhersagekraft kann enorm sein, beängstigend und faszinierend zugleich, denn die Zusammenhänge sind ja tatsächlich, abgesehen von einer statistischen Fehlerwahrscheinlichkeit, tatsächlich vorhanden.
In vielen Lebensbereichen funktioniert predictive analysis sehr gut, gerade auch in kreativen Bereichen, von denen man naiv annehmen würde, hier kommt der menschliche freie, d.h. unvorhersehbare Wille zu tragen. Das ist offensichtlich nicht so.
So lässt sich mit guter Treffsicherheit vorausberechnen, ob ein Popsong eine Hit wird oder nicht. Ein Wedesigner names McCready entwickelte so ein Verfahren, das auf erweiterter Spektralkonvolution basiert.
Beschrieben sind solche Methoden, wie man oft liest, in „Automate This: How Algorithms Came to Rule Our World“ von Christopher Steiner.
Die Aufregung auch in Deutschland war groß, als die Süddeutsche mit einer Story aufmachte, wonach in den USA praktisch der komplette Datenstrom von Google, Amazon, Microsoft, Facebook über die National Security Agency (NSA) ausgewertet wird.
Hier ist eine nette Infografik zum Aufbau und der Funkitionsweise der NSA.
Dass die NSA in Bluffdale eine Riesenanlage (Datacenter) gebaut hat, ist schön länger (durch den Informanten und Exmitarbeiter William Binney) bekannt und das Ansinnen der Behörde eigentlich auch: Den Datenverkehr zu scannen und und in der Lage zu sein, auch sichere Verschlüsselungen zu brechen. Blöderweise kann aber jeder US-Bürger und natürlich auch Ausländer damit überwacht werden (das erinnert an die TV – Serie „Person of Interest„, die in Deutschland abgesetzt worden ist, weil das Publikum von RTL die Szenerie nicht verstanden hat).
Irritierend waren Formulierungen in einem angeblich geleakten Dokument, wonach die staatlichen Behörden „direkten Zugriff“ auf die Server der Unternehmen haben. Dies sei im sogenannten Prism-Programm so auf Basis geltenden Rechts wie dem Patriot Act oder FISA (Foreign Intelligence Surveillance Act), unter denen auch die Echelon – Anlagen in Deutschland fielen.
Die Frage ist natürlich, ob die gezeigte Prism-Präsentation echt ist. Besonders professionell gestaltet wirken Logo und Aufmachung ja nicht gerade. Da wäre vielleicht ein Design-Job frei, wie der englische Guardian bemerkte, der auch festgestellt hat, dass auch englische Geheimdienste auf die Erkenntnisse aus der NSA-Datenflut zugreifen konnten. Involviert ist hier der britische GCHQ mit dem harmlos klingenden Namen Goverment Communications Headquaters, der allerdings auch in kalten Kriegszeiten in Deutschland Echelon mitbetrieben hat.
Ernst genommen wird die Affaire, die auch den US-Präsindenten unter Druck geraten lässt dennoch erstaunlich heftig. Nach dem 11.September 2001 war Abhören salonfähig geworde, egal was, egal wo, egal wen – wenn’s nur dem Kampf gegen den Terror dient.
Auch wenn man in USA Datenschutzfragen nicht mit der Intensität diskutiert und bewerten wie in Deutschland, lassen sich auch Amerikaner nicht gerne von ihrer Regiererung überwachen. Verkaufbar ist das nur unter dem Totschlagargument Terrosismusbekämpfung, doch die Beweise dafür, dass man ein solches System wie Prism braucht, fehlen.
Die Amerikaner lassen sich die NSA nun einiges kosten. Überwachung der eigenen Bevölkerung hat noch nie besonders gut funktioniert – in Deutschland hat man das über einige Jahrzehnte zumindest im östlichen Teil sehr ernsthaft versucht und alles eingesetzt, was damals technisch und menschlich möglich war. Die CIA war dabei und sollte eigentlich daraus gelernt haben (Stichwort Rosenstolz).
Insbesondere Apple und Google dementieren, dass es Zugriff auf deren Server von staatlicher Seite gibt. In Google Plus finden sich zitierten Dementis, verbreitet über den Account von +MattCutts (http://googleblog.blogspot.de/2013/06/what.html) und +LarryPage.
Ich hatte gestern eine interessante Diskussion mit Leuten, die ohnehin sehr Google kritisch eingestellt sind. Eine Stimme meinte, man könne „schon selbst etwas tun“, zumindest die Big4 meiden (Google, Microsoft, Facebook und Apple).
Auch der hessische Justizminister hat sich – ich finde naiverweise – dafür ausgesprochen, die betroffenen, d.h. erst mal die ständig benannten US-Anbieter zu meiden. Ansonsten zeigt sich Verbraucherschutzministerin Aigner empört, leider hört man von den Piraten nichts (da sollte man eigentlich die Kompetenz am ehesten vermuten).
Ich denke, der Schein der seeligen Internetinsel trügt: Wer auf deutsche oder auch europäische Anbieter setzen will, muss zunächst erstmal welche finden: Auch Anbieter mit deutsch klingenden Namen haben Filialen in den USA und damit dürfte Patriot Act für sie ebenso gelten. Internetinfrastruktur ist international. Pure lokale Player sind sehr selten. Dazu gehören 1&1 (und damit auch mail.com, web.de, gmx.xyz), Deutsche Telekom mit T-mobile), Hetzner (Dienstleister für Jimdo) und viele viele mehr. Google, Facebook, Apple liefern Dementis und Beteuerungen, es gäbe keinen „direkten Zugriff“ auf die eigenen Server. Von deutscher international aktiver Seite hört man auffällig wenig.Man hält sich zurück, solange die deutschen Internetnutzer sich dem noch nicht bewusst geworden sind.
Die größten Infrastrukturanbieter sind (nach Markosweb.com; gelb markiert die europäischen bzw. deutschen) :
Diese europäischen bzw. deutschen Anbieter unterhalten in den USA Büros, Datacenter, Firmenableger und fallen dementsprechend unter den Patriot Act und andere einschlägige Gesetze.
Warum beschweren sich Zeitungs- und Zeitschriftenverleger auf der einen Seite über „Enteignung“ durch Google, stellen aber ihre kompletten Inhalte hochsuchmaschinenoptimiert kostenlos zur Verfügung? Es gibt wirklich bald inen Grund mehr, eine Tageszeitung zu kaufen. Hätten die Inhalteproduzenten ein bisschen früher auf einige Technologien gesetzt, hätte vielleicht die „Kostenlos-Kultur“ wie es gerne so schön heißt, nicht so drastisch durchgeschlagen. Selbst das altehrwürdige Btx/Datex-J kannte Bezahlmöglichkeiten für Inhalte im Micropaymentbereich von einigen Pfennigen (damals gab es noch die D-Mark) pro Seite. Eine Btx-Seite konnte 0,01 bis 9,99 DM kosten. Pro Abruf! Und die Telekom (damals Deutsche Bundespost) kümmerte sich um die Bezahlprozesse, nämlich per Telefonrechnung, notfalls sogar ums Inkasso. Ist es wirklich so schwer, Paid Content auf die Reihe zu kriegen?
Ich war von Windows Vista schon enttäuscht. Ein wenig mehr Optik, aber sonst nichts Neues. Seit heute gibts den Internet Explorer 8 und er soll ja sehr schnell sein, was ich gerade austeste. Schön, dass Microsoft sich nun an alle Standards hält. Paradoxerweise gibt einen Rückwärtskompatibilitätsmodus. Webseiten bauen sich wiklich sehr schnell auf. Mit Faccebook und allen gängigen Seiten funktioniert das eigentlich sehr gut. Komischerweise laden meine privaten Webseiten eher langsamer. Das kann aber auch gerade am Hoster oder der Internetverbindung liegen. Das Laden großer Bilder scheint länger zu dauern.. ob das Bild durch einen Zwangsfilter von Microsoft muss, um potentiell schädlichn Code zu entdecken?
Ich bin sehr gespannt, wie die Webslices funktionieren, eine Art aufgebohrtes RSS? Ein grüner Button auf Websites soll darauf hinweisen. Bisher habe ich noch nirgendwo einen gefunden.
Ich verwende den IE 8 auf einem betagten Notebook mit einem Pentium M 725 Prozessor und habe den Eindruck, mit ihm ähnlich schnellen Seitenaufbau zu erleben wie mit Google Chrome, den ich nur hin und wieder mal verwende, da mich Googles Datensammelwut grundstzlich nervt. Safari finde ich eigentlich auch nicht schlecht, nutze ich aber eher nur auf dem iphone.
Eigentlich könnte Outlook Express bzw. das ultralahme Livemail auch mal ein Update gebrauchen.
This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. These cookies ensure basic functionalities and security features of the website, anonymously.
Cookie
Dauer
Beschreibung
cookielawinfo-checkbox-advertisement
1 year
Set by the GDPR Cookie Consent plugin, this cookie is used to record the user consent for the cookies in the "Advertisement" category .
cookielawinfo-checkbox-analytics
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Analytics".
cookielawinfo-checkbox-functional
11 months
The cookie is set by GDPR cookie consent to record the user consent for the cookies in the category "Functional".
cookielawinfo-checkbox-necessary
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookies is used to store the user consent for the cookies in the category "Necessary".
cookielawinfo-checkbox-others
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Other.
cookielawinfo-checkbox-performance
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Performance".
CookieLawInfoConsent
1 year
Records the default button state of the corresponding category & the status of CCPA. It works only in coordination with the primary cookie.
JSESSIONID
session
The JSESSIONID cookie is used by New Relic to store a session identifier so that New Relic can monitor session counts for an application.
viewed_cookie_policy
11 months
The cookie is set by the GDPR Cookie Consent plugin and is used to store whether or not user has consented to the use of cookies. It does not store any personal data.
Functional cookies help to perform certain functionalities like sharing the content of the website on social media platforms, collect feedbacks, and other third-party features.
Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.
Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics the number of visitors, bounce rate, traffic source, etc.
Cookie
Dauer
Beschreibung
__gads
1 year 24 days
The __gads cookie, set by Google, is stored under DoubleClick domain and tracks the number of times users see an advert, measures the success of the campaign and calculates its revenue. This cookie can only be read from the domain they are set on and will not track any data while browsing through other sites.
CONSENT
2 years
YouTube sets this cookie via embedded youtube-videos and registers anonymous statistical data.
Advertisement cookies are used to provide visitors with relevant ads and marketing campaigns. These cookies track visitors across websites and collect information to provide customized ads.
Cookie
Dauer
Beschreibung
IDE
1 year 24 days
Google DoubleClick IDE cookies are used to store information about how the user uses the website to present them with relevant ads and according to the user profile.
test_cookie
15 minutes
The test_cookie is set by doubleclick.net and is used to determine if the user's browser supports cookies.
VISITOR_INFO1_LIVE
5 months 27 days
A cookie set by YouTube to measure bandwidth that determines whether the user gets the new or old player interface.
YSC
session
YSC cookie is set by Youtube and is used to track the views of embedded videos on Youtube pages.
yt-remote-connected-devices
never
YouTube sets this cookie to store the video preferences of the user using embedded YouTube video.
yt-remote-device-id
never
YouTube sets this cookie to store the video preferences of the user using embedded YouTube video.