Was bringt den Geheimdiensten diese Really Big Data – Analyse eigentlich? – Antwort: Einen Blick in die Zukunft (UPDATE)

Visualization of all editing activity by user "Pearle" on Wikipedia (Pearle is a robot). To find out more about this project, go to: www.research.ibm.com/visual/projects/chromogram.html

UPDATE des Artikels vom 23.6.2013

Am Wochenende hat sich der Skandal um die Überwachungsabitionen weiter ausgeweitet. Dies ist die dritte Woche in Folge, in der sich durch weitere Enthüllungen neue Ausmaße abzeichnen.

Langsam, finde ich, wird es Zeit für etwas genauere Analysen. Soweit ich das überblicke, ist noch nirgendwo eine verlässliche oder glaubwürdige Einschätzung erschienen, welchen Nutzen diese immens teuren Schnüffelaktionen überhaupt haben.

Okay, wir wissen, dass sich Geheimdienste In USA und UK Zugang zu den Glasfaserknoten und den wichtigen Netzknoten verschafft haben. Damit lässt sich der darüber fließende Internetverkehr grundsätzlich abhören und mitschneiden, also speichern. Da es sich um Daten auf recht rohem Niveau handelt, dürften recht aufwändige Analysen nötig sein, um den Fragmenten dieses Datenstroms einen Sinn zu geben.

Die Frage ist doch auch: Was lässt sich mit dieser Datensuppe eigentlich anfangen? Welche Möglichkeiten sind den Diensten überhaupt gegeben? Ich vermute, nach dem ich ein paar sowieso selten zu findende, weiterführende Artikel gelesen habe, dass man in der Lage sein wird, einzelne E-Mailkonten zu überwachen. Und in einigen Fällen wird es möglich sein, neben der reinen Aktivitätsmessung auch die Inhalte zu entschlüsseln bzw. zuzuordnen. Vielleicht erleben wir deswegen die häufigen unspezifischen Warnungen wie zuletzt vor Anschlägen auf Fanmeilen. Möglicherweise stellt man fest, dass über bekannte Mobilfunkverbindungen bzw. E-Mailadressen verstärkter Traffic läuft und darauf kann man schließen, dass die eine oder andere Gruppe etwas vor hat.

Vermutlich kann man auch im gespeichertem Datenbestand nachträglich Spuren finden, wenn man weiß, wonach man suchen soll. Dass Anschläge verhindert werden, wird behauptet. Bewiesen ist das glaube ich noch nicht. Offensichtlich ist der Versuch, Verbrechen mit Big Data Analysen zu verhindern viel viel schwieriger als gezielte Fahndung.

Für Deutschland auch kein Neuland. Bereits in den 1970ern versuchte das BKA per damals auch umstrittener Rasterfahndung der RAF auf die Spur zu kommen. Geholfen hat das wohl nicht viel.

Es wäre also sehr schön, es erschiene bald irgendwo im Spiegel oder in der Süddeutschen oder wo auch immer ein Beitrag, der einige Hintergründe etwas genauer ausleuchtet und nicht nur auf Empörung setzt.

UPDATE 6.7.2013

Inzwischen hat sich die PRISM-Geschichte weiterentwickelt. Wir wissen, dass der englische Geheimdienst und auch die NSA Glasfaserkabel anzapft. Wir wissen, dass auch die Franzosen und auch die Deutschen (BND am DECIX) abhören.

Was also macht man mit dieser Riesenmenge an Daten?

Es ist der Versuch, durch korrelative Zusammenhänge Erkenntnisse über die Zukunft ermitteln zu können. Eine Anwendung davon ist Predictive Policing, also der Versuch, aus vergangenen Mustern von Kriminalität Vorhersagen aus damit gewonnenen Zusammenhangsmodellen zu gewinnen. Dies ist in diesem Dokument genau beschrieben. 

Der englische Guardian hat eine entsprechende Geschichte über prädiktive Analysen veröffentlicht: http://www.guardian.co.uk/science/2013/jul/01/how-algorithms-rule-world-nsa

Das Prinzip: Man sieht sich vorhandene Daten an, sucht nach inneren Zusammenhängen, die auch versteckt sein können, indem man geeignete statistische Verfahren anwendet (Stichwort: Strukturgleichungsmodelle) und kann dieses Modell darauf prüfen, wie gut es der Realität entspricht (Model Fit). Wenn dieser Model Fit hoch genug ist, taugt das Modell auch als Vorhersagemodell für zukünftige Zusammenhänge. Die Vorhersagekraft kann enorm sein, beängstigend und faszinierend zugleich, denn die Zusammenhänge sind ja tatsächlich, abgesehen von einer statistischen Fehlerwahrscheinlichkeit, tatsächlich vorhanden.

In vielen Lebensbereichen funktioniert predictive analysis sehr gut, gerade auch in kreativen Bereichen, von denen man naiv annehmen würde, hier kommt der menschliche freie, d.h. unvorhersehbare Wille zu tragen. Das ist offensichtlich nicht so.

So lässt sich mit guter Treffsicherheit vorausberechnen, ob ein Popsong eine Hit wird oder nicht. Ein Wedesigner names McCready entwickelte so ein Verfahren, das auf erweiterter Spektralkonvolution basiert.

Beschrieben sind solche Methoden, wie man oft liest, in „Automate This: How Algorithms Came to Rule Our World“ von Christopher Steiner.

Automate This: How Algorithms Came to Rule Our World

Altavista: eine weitere Suchmaschine geht den Bach runter

Es hat sich wohl schon länger abgezeichnet, nun ist es amtlich: Die Suchmaschine Altavista wird es nicht mehr lange geben.

http://www.heise.de/newsticker/meldung/Yahoo-macht-Altavista-dicht-1908789.html

Damit ist die Suchmaschinenwelt um eine Alternative zu Google ärmer.

Altavista hat eine lange und wechselvolle Geschichte hinter sich. In den 90er Jahren des vergangenen Jahrtausends gehört Altavista zu den bekanntesten und leistungsfähigsten Volltext-Suchmaschinen.Gestartet aus einem Forschungsprojekt heraus und genutzt als Demonstration für Servertechnologie, hat Altavista im Laufe der Zeit versucht, sich von der Suchmaschine zum Portal zu wandeln, um sich dann wieder auf Suche zu fokussieren.

Hier ist ein Screenshot von 1996 (Screenshots von http://archive.org/)

Das Web und das Usenet konnte man mit Altavista durchsuchen. Altavista sprach von 275.600 Servern und 30 Millionen Webseiten, die damit durchsuchbar waren plus 4 Millionen Artikel in 14.000 Usenet Groups.

1997 sah Altavista nahezu genauso aus. Es kamen mehr Links und Contentelemente dazu.

Ein Jahr später hat Altavista Tabs eingeführt, um damit Spezialsuchen zu ermöglichen. Es gab eine „Business Search“ und eine „People Search“:

Screenshot 1999

Was ist passiert? Die Internetnutzung ist populär geworden und diese Zeit war die große Zeit der Portale und der Walled Gardens (AOL, Compuserve etc.). So wurde auch Altavista portaliger. Dahinter steckte sicher der Versuch, die Nutzer an die Marke zu binden, um den vielen Traffic, den Suchmaschinen damals hatten, zu monetarisieren. Der Versuch war, die User zum Klicken auf den Content zu bewegen, wo man mehr Werbung als auf der Startseite zeigen konnte.

Screenshot 2000
Der Portalansatz hat sich noch mehr durchgesetzt. Die Seiten wurden breiter und breiter. In der Version von 2000 konnte sich die Altavista-Website an die Breite des Bildschirmfensters anpassen. Es gab Spezialsuchen u.a. für MP3, Bilder und Video. 
Die Jagd nach Klicks wurde immer wichtiger: Wichtige Begriffe wurden oben unter der Suchbar platziert. Man hat Suchreiter eingeführt, Shoppinglinks wurden integriert und im zentralen Teil der Seite wurde der Katalog angezeigt. Links sieht man Newsheadlines und den Versuch, die Monetarisierung zu verbessern, indem man Aktionen und externen Content eingebunden hat. Die Suchfunktion als eigentliches Kernfeature geriet fast schon in den Hintergrund.  
Screenshot von 2001
Die Suchtabs wurden offensichtlich wieder aufgegeben, steigenden Bildschirmauflösungen und größeren Monitoren hat man Rechnung getragen. Das Design State of the Art zielte damals auf eine verschlankte Optik (weiße Ränder links und rechts) ab. Die Contentspalte wurde in der Mitte zentriert. 
Meiner Meinung steckte bei diesem redesign hier auch der Versuch dahinter, der Websuche wieder mehr Gewicht zu geben. Google ist im Jahre 2001 ungefähr 4 Jahre auf dem Markt und verzeichnet wachsende Erfolge. Die Portalstrategie von Altavista scheint nicht aufzugehen. 
In Erinnerung dürfte vielen noch der Altavistas Babelfish sein, ein Onlineübersetzungstool. 
2003 war ein entscheidendes Jahr für Altavista. Overture hat die Firma übernommen. Overture gehört zu Yahoo. 
Das Altavista Redesign von 2003 kehrt zu einer sehr schlichten Website mit der Suche im Mittelpunkt zurück – ein Paradigmenwechsel, sicher als Reaktion auf Googles Erfolg. Einige Kategorien werden mit Links darunter gezeigt. Die Suchtabs für die Spezialsuchen sind wieder da. 
Wie man in diesem Screenhsot von 2008 sieht, ist man diesem Weg treu geblieben. Das Directory (der von Redakteuren betreute Webkatalog) ist verschwunden. 
Ab 2010 wird einfach der Yahoo-Suchindex verwendet. Altavista ist nur noch ein Frontend. 
Noch ein bisschen reduzierter präsentierte sich Altavista zuletzt 2013. 
Nun zieht Yahoo den Stecker: Am 8.7.2013 geht Altavista offline. 

Google löscht Blogger.com-Sites, die sich mit Sex und Sexualität beschäftigen und Werbung zeigen

Wie Spiegel Online heute schreibt, beginnt Google damit, neue Content-Richtlinien bei blogger.com umzusetzen. Das bedeutet, Blogs mit „nicht jugendfreien Inhalten“ können gelöscht werden, und zwar dann, wenn Blogger mit nicht-jugendfreien Inhalten Geld verdienen wollen: „Erstellen Sie beispielsweise keine Blogs, bei denen ein erheblicher Teil des Inhalts aus Werbung oder Links zu kommerziellen Pornografie-Websites besteht“, heißt es in den Content-Richtlinien.

Dabei weiß aber niemand, was ein „erheblicher Teil“ ist: Ein Banner, ein Text, der sich werbend oder überhaupt mit einem Porno-Angebot auseinandersetzt?

Un was ist „nicht-jugendfrei“. Dieser Begriff ist nicht exakt definiert und Auslegungssache.

Wie sich die Richtlinien lesen, erlaubt Google wohl nach wie vor, explizite Inhalte, wenn der Blog entsprechend gekennzeichnet ist. Nur Geld soll man damit nicht mehr verdienen dürfen. Die Grenzen allerdings dürften fließend sein. Schon Links zu kommerziellen Pornoangeboten können problematisch sein und zur Löschung führen.

Wer entsprechende Blogs betreibt, sollte wohl besser an einen Umzug denken. Als Alternative empfiehlt es sich, die WordPress-Software selbst auf einem Hosting-Account zu installieren und die Inhalte zu migrieren. Das WordPress-Netzwerk unter wordpress.com hat übrigens ähnliche Restriktionen, was die Vermarketung von Erotikinhalten angeht. Tumblr Blogs werden in der Google Suche nicht angezeigt.

Neben WordPress, das viel kann, aber für viele Anwender schon überdimensioniert erscheint, gibt es seit einiger Zeit einige Alternativen, die einen sehr viel minimalistischeren Ansatz bieten: Dazu gehören Koken, Craft, Anchor und Dropplets.

Was man dafür allerdings braucht, ist ein Webhosting-Account, den man bei einem professionellen Anbieter nicht umsonst bekommen wird. Die Kosten bewegen sich im Bereich 3 bis 6 Euro pro Monat. Wer vorhat, mit den Inhalten Geld zu verdienen, sollte diese Investition auf sich nehmen.

Allerdings schließen auch manche deutsche oder europäische Hoster in ihren Nutzungsbedingungen erotische oder Ü18-Inhalte aus oder verlangen Aufpreise. Grund dafür ist Mehraufwand für das Supportteam aufgrund Beschwerden oder Ermittlungsersuchen staatlicher Stellen, die bei Erotikwebsites mit höherer Wahrscheinlichkeit zu erwarten sind.

Zudem muss man beachten, dass eine anonyme Veröffentlichung dann nicht mehr möglich ist: Wer eine eigene Domain betreibt, wird in die öffentlich zugänglichen Whois-Datenbanken eingetragen, mit Klarnamen und ladungsfähiger Adresse. Bei Blogger.com oder anderen gratis Blog-Diensten ist das nicht der Fall, so lange man keine eigene Domain hat. Allerings gibt es auch für solche Blogs eine Impressumspflicht, gerade dann, wenn man gewerblich tätig ist, d.h. eine Website mit Gewinnerzielungsabsicht betreibt. Das allerdings kann bei dieser Thematik dann aber auch ein Sicherheitsrisiko sein.

Adblocker als die neuen Gatekeeper

Adblocker Plus feiert: http://kress.de/tweet/tagesdienst/detail/beitrag/121261-adblockplus-dankt-verlagen-via-twitter-installationen-auf-adblockplusorg-129.html

Die Zahl der Downloads und Installationen ist nach oben geschnellt, nachdem einige Verlage einen Aufruf gestartet habe, keine Adblocker einzusetzen. Lange Mienen bei Verlagen, die sich mit der Begründung richtig Mühe gegeben haben, überschwängliche Freude bei der Adblocker-Community. Gipfel des Hohns: Die Aufforderung, Adblocker auszuschalten, wenigstens für diese Site, wurde ebenfalls als „unerwünschte Werbung“ klassifiziert und auch gleich geblockt.

Man kann natürlich nachvollziehen, dass User keine Werbung sehen wollen, wenn sie News oder andere aktuelle Meldungen im Web lesen wollen (so wie die RTL-, Pro7-, Sat.-…Zuschauer auch keine Werbespots sehen wollen). Aber das ist der Deal: Ohne TV-Spots kein DSDS, kein Dschungelcamp, kein How I Met Your Mother.

Die Frage bleibt dann nur: Wie soll könnte man dann ein entsprechendes Webangebot finanzieren? Konsequent wäre: Wird ein Adblocker festgestellt, wird die News-Site nicht mehr ausgeliefert, weil die Geschäftsgrundlage fehlt. Doch ich glaube nicht, dass die Verleger sich das trauen. Zuviel Sichtbarkeit steht auf dem Spiel.

Der Einsatz von Blockern kann zu einem technischen Wettlauf führen. Große Advertiser wie Amazon, Zalando und Ebay werden technische Mittel und Wege finden, Adblocker zu stören, wenn die Verbreitung steigt. Die haben genug technische und finanzielle Ressourcen dafür. Mittelgroße und kleine Shopbetreiber können dagegen gleich aufhören, mit Display Ads (Banner und so) zu werben, wenn die Ads in den nicht mehr ausgeliefert werden. Adblocker spielen also den großen Retailern in die Hände.

Eine andere Strategie wäre, Werbung und Information einfach so stark miteinander zu vermischen, dass die Adblocker nicht mehr unterscheiden können, was ungeliebte Werbung ist und was nicht. Ein Advertorial ist heute zum Beispiel nur schwer von einem echten journalistischen Beitrag zu unterscheiden ehe man sich einige Sätze durchgelesen hat.

Noch eine andere Strategie sind Paywalls in Form von Abos. Dann allerdings ist es vorbei mit freien Zugriffen auf Artikel, denn man muss vorher ein langlaufendes Abo abschließen, obwohl man nur mal in den Artikel reinlesen wollte, den man per Suchmaschine gefunden hat. Mit wissenschaftlicher Literatur ist dies heute schon ein Riesenproblem.

Von wegen freier Wissenszugang durch das Web: Wir werden Contents lesen, die nur noch als Teaser formuliert werden. Wir werden Texte lesen, die nur zu Contentmarketingzwecken als Suchtrafficfänger entstehen, nicht geschrieben von Journalisten, sondern von Content Managern, die wissen, wie man mit dem IDF/WDF Ansatz korrekt umgeht, damit das Keyword nicht zu wenig und nicht zu oft darin vorkommt.

Je mehr sich die Adblocker Installationen verbreiten (und Browserhersteller wie Firefox und MS mit dem Internetexplorer wetteifern da gerne mit, gerade wenn es um 3rd Party Cookies geht), desto mehr werden die Adblocker Hersteller zum Gatekeeper und könnten ein Geschäftsmodell daraus machen: Wer durch will, muss zahlen.

Erste Ansätze, die Gatekeeper-Muskeln spielen zu lassen, gibt es ja in Adblocker Plus auch schon: Es gibt den Acceptable Ads Filter, der Ads von Doubleklick (Google) und Amazon durchlässt. Andere Werbenetzwerke wie Adscale oder Adjug fehlen da. Auch Zanox und Affilnet sucht man vergeblich, die Netzwerke also, mit denen Hunderte von kleinen Webseitenbetreibern wie Blogger versuchen, wenigstens einige Euro pro Monat mit Klicks auf Ads zu erlösen.

War und ist das so wünschenswert?

UPDATE 
Heute erschien eine Heise-Meldung, die sich mit Adblock plus befasst und Vorwürfe wiedergab, wonach Adblock plus sich für dennoch durchgeleitete Werbung (Whitelist) bezahlen lässt. Sie berichten über Recherchen von Blogger Sascha Pallenberg, der über die Hintergründe berichtet.

Wenn das stimmt, kommen bestimmte Werbetreibende auf eine Whitelist. Allerdings bekommt Adblock plus über ein Affiliatesystem dann 30 Prozent.

UPDATE 24.7.2013
Natürlich reagiert der Werbemarkt auf Versuche, Ads unsichtbar zu machen, denn wieso sollte man als Werbetreibender für Ads bezahlen, die keine sieht?

Sogenannte „Native Ads“ sind stark in die eigenen Webseiten integriert und liegen, anders als Werbeformate wie Banner oder Textads auf der eigenen Domain.
http://onlinemarketing.de/news/erfolgsrezept-native-advertising-aus-sicht-der-publisher

Stellt sich natürlich die Frage, wie Content und Werbung dann noch zu trennen sind. Auch für Suchmaschinen ist dies eine wichtige Frage. Entsprechend deutlich warnt Google schon vor dem Einsatz von Advertorials, eine Art Prototyp von Native Ads. 

Veröffentlicht am 29.05.2013
Matt Cutts, head of the webspam team at Google, talks about advertorials.

NSA-Schnüffelskandal: Ändert dies an der Nutzung von Facebook oder Twitter etwas?

Den meisten Internetusern dürften die Enthüllungen von Snowden zum ersten Mal bewusst gemacht haben, dass Internetkommunikation alles andere als vertraulich ist. Dass eine E-Mail zirka so vertraulich ist wie eine Postkarte damals im analogen Zeitalter, war einigermaßen bekannt.

Aber auch alles weitere, was über Social Networks ausgetauscht wird, SMS (Whatsapp etc. eingeschlossen) oder per Mobiltelefon versendet bzw. empfangen wird. durchläuft zumindest potentiell die Scanner spezialisierter Geheimdienste, wird möglicherweise dauerhaft gespeichert, bewertet und miteinander verbunden.

Spannend ist doch nun, wie die Internetöffentlichkeit darauf reagiert, von einer Empörung einmal abgesehen. Eigentlich, so würde man erwarten, sollten die Nutzerzahlen in Facebook weltweit zurückgehen, und zwar so deutlich, dass man das in Nutzerstatistiken deutlich sehen kann.

Schauen wir uns die aktuelle Statistik der Facebooknutzung an, so wie sie allfacebook.com veröffentlicht:

Noch wächst Facebook in Deutschland. Sollte eine breite Verunsicherung eintreten, wird man wohl in wenigen Wochen eine Delle in den Zuwachsraten sehen müssen. 
Umgekehrt: Viele Contents werden gerade wegen der Sichtbarkeit veröffentlicht. Die meisten User stellen und teilen Inhalte, damit andere User sie sehen. 
Noch spannender wäre es, festzustellen, ob persönlichere und vertrauliche Informationen nun verstärkt entfernt oder zurückgehalten werden. Dazu gibt es aber offensichtlich keine Metriken, zumindest keine öffentlichen.   

Beispiele für Internet-Schmäh-Artikel

Ich will hier mal eine kleine Sammlung von Artikeln aufmachen, die sich im weitesten Sinne mit dem Thema „Web“ oder „Internet“ beschäftigen und von denen ich meine, dass entqweder mit schneller Feder geschrieben worden sind (z.B. aus Hörensagen oder Halbwissen heraus), ohne saubere Quellennennung oder Tatsachen falsch abbilden(auch unter gezielter Weglassung wichtiger Aspekte.

Vergangene Woche Woche ist mit ein Webbbashing-Artikel unter der Überschrift So stoppen Sie Facebook-Werbung mit Ihrem Namen aufgefallen, der mittels Contentsyndication auf Welt online lief.

Darin warnt der Autor in dem von Computer Bild übernommenen Artikel davor, personalisierte Anzeigen in Facebook zuzulassen, denn „damit verdient Facebook viel Geld“ und außerdem sei das „perfide“, denn der Betreffende sieht die Anzeige gar nicht. Also beschreibt er, wie man in die Privacyeinstellungen geht und dort die „soziale Reklame“ verhindert.

Formulierungen wie „viel Geld verdient“ müssten schon konkretisiert werden: Wieviel denn? Und hat man Facebook nicht gerade erst vorgeworfen, kein tragfähiges Businessmodell zu haben?

Und: Was eigentlich ist der Punkt? „Soziale Reklame“ kommt nicht zufällig zustande. Man müsste in solchen Artikeln eben auch Facebook fragen, was es sich dabei denkt, wie die Anzeigen zustanden kommen usw. Das wäre deutlich sauberer.

Warum schreiben Journalisten eigentlich so wenig über deutsche Webfirmen?

Zur Zeit kommt es mir so vor als würden wieder einige Beiträge in Zeitungen und Zeitschriften erscheinen, die sich mit der Frage über das Verhältnis von Deutschland und Europa und dem Internet auseinandersetzen. Möglicherweise ist die durch die Prism-Debatte neu belebt worden.

Aktuell erschienen: Der Beitrag in der „Zeit“ über das Elend der deutschen Suchmaschinen. Der Autor berichtet in diesem Artikel die Google-Monokultur im deutschen Suchmarkt (was schnell mal mit dem Onlinewerbemarkt gleichgesetzt wird), das Scheitern des Subventionsprojekts „Quaero“.

Es scheint mir so, dass es in Deutschland auch nicht so viele Journalisten gibt, die etwas faktenreicher und tiefgründiger über Internetthemen berichten können. Ständig der warnende Tenor vor Big Brother, totaler Überwachung, Abzocke und Terroristen, die sich offensichtlich im Web tummeln. Gelegentlich auch zu lesen:  mit viel Häme überzogene Berichte über Fails deutscher Internetfirmen. Man denke nur an StudiVZ.

Es fehlt ein kompetenter Technologiejournalismus, der nicht nur von PR-Meldungen oder Warnungen von Daten- und Verbraucherschützern angetriggert wird. Wann haben wir in deutschen Leitmedien Berichte über neue Webtrends aus Europa oder Deutschland gelesen? Lieber berichtet man über die neunen Social Media Trends wie Vine oder warnt erneut vor Whatsapp etc.

Es gibt einige deutsche Medien, dazu zähle ich golem.de, t3n.de, heise.de, die gelegentlich über deutsche Webfirmen berichten. Daneben gibt es Nischenpublikationen wie deutschestartups.de oder die gruenderszene.de. Dort werden tatsächlich neue Entwicklungen erst einmal unaufgeregt dargestellt.

Der Rest der Journaille – so scheint es mir – reduziert das Webbusiness auf die Big4: Amazon, Google, Facebook und Apple. Selbst über unbestritten sehr erfolgreiche Web-orientierte Unternehmen wie 1&1 in Karlsruhe wird erstaunlich wenig berichtet.

Ein Umstand, über den sich 1 & 1 – Vorstand Dommermuth auch schon öffentlich in einem Spiegel-Interview beschwert hat: „Als Google vor rund einem Jahr mit fünf Millionen Euro eine Berliner Uni sponserte, wurde der Konzern gefeiert. Wir zahlen diese fünf Millionen als Steuern jede dritte Woche aufs Neue. Darüber spricht kein Mensch.“

Woran liegt das? Vermutlich weil die meisten Journalisten ebeso wie Politiker eben überhaupt nicht verstehen wie der Konzern das Geld verdient.Da wundert es auch nicht, dass sich die Bundeskanzlerin Sätze produziert wie „Das Internet ist Neuland für uns„, wobei man das wahrscheinlich auf einen schlechten Ghostwriter zurückführen kann – Merkel ist ja mit Videobotschaften und Webchats eigentlich vorne dabei.Dennoch erinnert das missglückte Statement an selige Helmut-Kohl-Zeiten, der in einem Interview angesprochen auf den Ausbau der „Datenautobahn“ antwortete: „Für den Bau von Autobahnen sind neben dem Bund hauptsächlich die Länder zuständig!“ (RTL+, „Gefragt…“ mit Hans Meiser, 03. März 1994). 

Google vs. Wolfram Alpha am Suchbeispiel „bitcoin“

Ich finde es ja eigentlich sehr bedauerlich, dass es bis heute noch keine für Deutschland lokalisierte Version der Suchmaschine Wolfram Alpha gibt. Für viele Suchen wäre die Daten-orientierte Herangehensweise einfach zielführender.

Ich habe das mit dem Suchterm „bitcoin“ versucht und mit Google verglichen (links Google Websuche, rechts W.A.):

Google zeigt – war zu erwarten – Wikipedia (eigentlich könnte man doch, wenn man eh erstmal grundsätzlich wissen will, das „bitcoin“ ist, gleich zu Wikipedia). Ich bin eingeloggt. Google sollte meine Suchhistorie kennen und ich habe „bitcoin“, „bitcoin miner“, „bitcoin Kurs“ usw schon sehr oft gesucht. Man hätte annehmen können: Der sucht nach dem Kurs.

Dennoch zeigt mir Google den für mich nicht mehr relevanten Wiki-Beitrag als ersten Treffer. Was mir auch noch sofort auffällt: Es wird kein Knowledge Graph angezeigt, obwohl sich das wie ich finde, sehr anbieten würde. Soweit her ist es offensichtlich also mit der Suchpersonalisierung gar nicht.

Zuerst dachte ich, bei gleicher Sucheingabe, zeigt mir Wolfram Alpha die für mich relevanteren Ergebnisse. Tatsächlich sehe ich gleich einen Umrechnungskurs und eine graphische Darstellung des Kurses über die Zeit. Aber: Wolfram Alpha interpretiert „bitcoin“ als „1 US Bit“ in Cent umzurechnen. Ich musste wieder Google bemühen, um überhaupt „US Bit“ richtig zu interpretieren. Das ist ein Achtel Dollar, also 12.5 US-Cent, was W.A. auch angibt. Dazu bekomme ich netterweise die Umrechnung in Euro, allerdings ist es nicht das, wonach ich suchen wollte und dunmmerweise lässt sich W.A. auch nicht zu einer alternativen Interpretation von „bitcoin“ bewegen. Schade!

Deutsches oder amerikanisches Schnüffeln

Update 17.07.2013 
CSU-Politiker Uhl gibt indirekt zu: Schon jahrelang Kenntnis von US-Spähprogrammen


Im Gleichklang mit Innenminister Friedich sprach Uhl in einem Interview mit dem Südwestfunk davon, dass sich der Nutzer selbst um die Sicherheit seiner Daten kümmern solle, da Nationalstaaten „in keiner Weise“ dies mehr leisten könnten. Das könnte man auch als Bankrotterklärung des Staates in Internetangelegenheiten werten.

Im gleichen Interview sprach er indirekt auch davon, dass „die Bundeswehr und andere deutsche Stellen“ schon mehrere Jahre von US-Spähprogrammen wissen, das sei „im Grunde nach“ nach 9/11 bekannt gewesen, zudem ja Geheimdienste zusammenarbeiten und Erkenntnisse austauschen.

http://www.swr.de/swr2/programm/sendungen/tagesgespraech/-/id=660264/nid=660264/did=11424170/mxr6h4/index.html


Update
Inzwischen kommt auch die Rolle des BND stärker zu Vorschein. Am 2.7.2013 berichtete Heise darüber, dass Whistleblower aus dem Umfeld des Betreibers des deutschen Internetautauschknotens De-CIX bestätigt haben, was viele vermuteten: Ein Teil des Traffic wird für „andere Bedarfsträger“ ausgeleitet.

Grundlage dafür ist das Artikel-10-Gesetz (PDF), das das grundgesetzlich verbriefte Recht aus Post- und Fernmeldegeheimnis nach Artikel 10 (daher heißt es auch so), einschränkt. Beschlossen im Juni 2001 – vor den Terroranschlägen am 11.September 2001 in den USA !

Wenn wir also über die Amerikaner schimpfen, wie sie die Welt und „befreundete Staaten“ belauschen, sollte man nicht darüber hinwegsehen, in wie weit der deutsche Internetverkehr durch Geheimdienste überwacht wird. Wahrscheinlich hat der BND aber nicht die notwendigen Ressourcen, um starke Verschlüsselung zu brechen oder große Teile des Rohtraffic für nachgelagerte Big Data zwischenzuspeichern.

Ursprünglicher Beitrag 
Der CSU-Politiker Hans-Peter Uhl nimmt den #PRISM – Abhörskandal zum Anlass, eine IT-Sicherheit „made in Germany“ zu fordern , wie Heise schreibt. Uhl ist dem einen oder anderen vielleicht noch bekannt von Sätzen wie „Deutschland wird von Sicherheitsleuten regiert„.

Man könnte das falsch verstehen, nämlich so als ob Uhl, den manche auch als reaktionär einstufen, sich um den Datenschutz seiner Wähler kümmern wolle. Wahrscheinlich ist das Gegenteil der Fall. Uhl gehört zu den Befürwortern der Quellen-TKÜ und schreibt auch auf seiner Website (der Beitrag nimmt Bezug auf Terrorismus und Anschläge der „NSU“):

Die Behörden müssen sich immer fragen, und das ist die Abwägung zwischen Freiheit und Sicherheit, haben wir das richtige Instrumentarium. Ist der Staat blind und taub und kann solche terroristischen Vorbereitungshandlungen erkennen oder nicht? Wenn er sagen muss, wir sind nicht in der Lage, die Vorbereitungshandlungen, die Kommunikation von Terroristen, die dauern ja Wochen und Monate in der Verabredung solcher Terroranschläge, wenn der Staat dies nicht erkennen kann, muss er sein Instrumentarium nachbessern, und das gilt auch für Deutschland.

Mein Eindruck: Amerikanisches Datensammeln soll wohl nach Uhl Willen – vielleicht auch nach Willen der CSU, denn jemanden wie Uhl sind vielleicht extremere Positionen, aber nicht für ungedeckte Alleingänge zuzutrauen – durch deutsches Schnüffeln ersetzt werden.

Tatsächlich: 500€ von Paypal nicht gewonnen

Paypal hat versehentlich Gewinnmails versendet. Da ich mir nicht bewusst war, an einem Gewinnspiel von Paypal überhaupt teilgenommen zu haben, habe ich diese Mail gar nicht wahrgenommen.

Erst jetzt – nach den Berichten – fiel mir auf, dass mir 500 Euro wohl entgangen sind.
Naja, vielleicht beim nächsten Mal, denn „Leider wurde diese Email aufgrund eines Fehlers und technischen Versehens versandt und ist daher ungültig“ und damit niemand auf die Idee kommt, sich das Geld einzuklagen, heißt es weiter: „Zur Klarstellung: Diese Mitteilung stellt eine Anfechtung der Email vom 7.6.2013 in Bezug auf das Gewinnspiel nach§§ 119, 120 BGB dar.“

Was hätte ich mit dem Gutschein wohl gemacht? Ein Nexus 4?