Kaum eine CSI-Folge in der nicht ein Ermittler aus einem pixeligen Bildauschnitt von einer Überwachungskamera ein hochaufgelöstes einwandfreies Portraitfoto mit dem Täter generiert. „Zoom mal ran, die rechte Ecke oben!“, sagt einer meistens. „Und: Bekommst du es noch besser?“. So etwas ähnliches funktioniert, aber das Ergebnis muss nicht die echte Person zeigen. Es zeigt eine unter Wahrscheinlichkeiten und Erfahrungen konstruierte Version.
Die Art der Berichterstattung in Deutschland greift häufig etwas kurz. Es gibt eben noch andere Unternehmen der Tech-Industrie neben Apple, Google und Facebook. Verizon ist ein solches Schwergewicht und in den vergangenen Wochen wegen des Teilkaufs von Yahoo aufgefallen.
Am Beispiel Intel sieht man, dass auch große etablierte Player sich Gedanken um die Zukunft machen müssen. Dort gab es schon nach den letzten Quartalszahlen Massenentlassungen. Sicher, weil der Markt durch Smartphones und andere mobile Geräte getrieben wird, der Desktop-PC und auch das klassische Notebook sind nicht mehr die großen Zugpferde, die sie in der Vergangenheit waren. Dafür konnte Intel in einem zweiten wichtigen Geschäftsbereich, als Hersteller für CPUs für Server zulegen.
Der Trend der zeit heißt nach wie vor „Cloud“. Microsoft und Amazon profitieren mit ihren Vierteljahresergebnissen genau davon.
Schön, wenn man ab und an einen Brückentag hat. Ich habe die Zeit dazu verwendet, die Zertifizierung für Adword Partner zu erneuern. Mit Google Partners kann man sich von Google ein Zertifikat ausstellen lassen, nachdem man zwei Mal etwa 100 Fragen zu mindestens 80 Prozent richtig beantworten konnte.
Unter https://developers.google.com/speed/pagespeed/service ist zur Zeit noch ein Google Service im Betastadium zu finden, der Webseitenbetreibern zu schnelleren Ladezeiten durch von Google gecachte Inhalte verhelfen soll. Dieser Service wird zum 3.August 2015 eingestellt.
Eine Annäherung zwischen Google und Twitter gab es bereits 2009. Vor kurzem war zu lesen, dass die Tweets wieder mit der Googlesuche gefunden werden können. Zeichen einer neuen Annäherung. Das soll mehr Traffic und mehr Sichtbarkeit für die Tweets bringen.
Klar ist, dass Twitter Partner braucht. Es wird sogar schon gefragt, ob Twitter jemals profitabel werden könnte:
Ein Problem ist wohl der hohe Anteil an Aktien, die für Mitarbeiter vorgesehen sind. Bei Twitter werden wohl recht viele Mitarbeiter zu einem vergleichsweise großen Teil in Aktien bezahlt.
Google hatte bisher kein Glück mit den sozialen Netzwerken: Orkut, Buzz, Wave und – inzwischen muss man dies auch hinzufügen – Google Plus waren und sind keine Renner. Twitter wäre das einzige soziale Netzwerk, das man hinsichtlich Nutzerzahlen und Bedeutung mit Facebok vergleichen könnte. Von daher würde es zu Google passen. Allerdings kann Twitter unter Google auch schnell kaputt gehen, wenn es in alle möglichen Produkte und Dienste von Google zwangsintegriert werden muss.
Klar ist, dass mit Twitter etwas passieren muss. Twitter kann nicht unendlich Verluste generieren. Im Vorfeld dürften die Gerüchte den Aktienpreis von Twitter weiter beflügeln. Wer jetzt noch keine Twitteraktien hat, ist wohl zu spät dran.
Die Cebit Seite hat eine t3n-Kolumne neu veröffentlicht. In diesem Artikel gab es eine Entgegnung auf die These von Jeff Jarvis (Artikel in der Zeit, Artikel auf medium.com, Interview in Profil, Österreich), wonach die Deutschen technophob wären: Sie verpixeln ihre Häuserfassaden in Google Maps, verbieten Uber und wehren sich gegen Facebook, nur als ein paar Beispiele genannnt.
Alltagstechnophobie oder Kommunikationskonservativismus?
Jeder kennt Leute, die tatsächlich technophob sind. Erst gestern mischte sich beim Mittagessen eine Frau am Nebentisch in unser Gespräch, in dem es um Facebook als Hoster für journalistische Inhalte ging. Sie behauptete steif und fest, auch nach 42 Lebensjahren kein Internet zu brauchen, auch keine E-Mail-Adresse. Man könne ja schließlich zum Amt gehen, wenn man etwas braucht oder in den Laden. Und interessante Menschen träfe man auch in seiner Umgebung.
Das ist vielleicht nicht lupenrein technophob, eher konservativ-bewahrend („alles soll so bleiben wie es ist oder früher war“) und natürlich ein Einzelfall, aber illustrierend ist das dennoch.
Deutsche PR-Abteilungen gelingt die generierung von Technobubbles – politisch aktive Schlagworte ohne viel Gehalt
Die Entgegnungen gegen die Jarvis-These lesen sich immer recht politisch und vielleicht ist eines der technischen Leistungen, die man in Deutschland gut hervorbringt, Technobubbles zu generieren, in dessen PR-Licht man sich dann sonnen kann: Beispielsweise Industrie 3.0 (oder auch 4.0), was immer das auch bedeuten soll.
Im zitierten Artikel, der belegen soll, dass es Internetphobie der Deutschen oder German Internetangst gar nicht gibt, verweist der Autor auf eine sehr starke Rolle der Rechte des Einzelnen in Europa und Deutschland, so wie das etwa beim Datenschutz und im Verbraucherschutz sichtbar werde.
„Sowas wie Google oder Facebook gibt es in Europa nicht, weil wie die Datenschutz und Verbraucherrechte beachten“
In den USA zählten Menschen nicht, nur der Profit und die Freiheit von Großunternehmen. Damit wäre zumindest ein wenig erklärt, warum heute führende neue Unternehmen wie Google, Facebook, Amazon, Apple allesamt in den USA beheimatet sind. Was nicht mal stimmt. Weitere Internetgiganten, die uns nur nicht so auffallen, weil uns die jeweilige Kultur ferner liegt, kommen aus China (Alibaba), Russland (Yandex) oder auch Südkorea (Daum).
Gerade wenn man über die Cebit gegangen ist und nach deutschen Anbietern sucht, fallen eigentlich nur drei auf: SAP, Software AG, Datev – alle drei richten sich mit ihren Produkten an Unternehmen aus, nicht an Konsumenten. Das ist symptomatisch.
In Deutschland: Individuelle Nutzer nicht im Blick der Konzerne
Das Vorzeigeunternehmen der „Deutschland AG“, Siemens, hat vor einigen Jahrzehnten noch versucht, auf einen fahrenden Zug aufzuspringen und Handies zu produzieren, in Kooperation mit Fuji sogar auch PCs und ist gescheitert. Gerade deutsche Unternehmen wären in den 80ern und 90ern des letzten Jahrhundert nie nie nie auf die Idee gekommen, so etwas wie einen Personal Computer auch nur anzudenken, die Amerikaner und dann die Japaner haben es gemacht. Die Europäer hinkten hinterher und waren bald aus dem Geschäft. Nie hätte ein deutsches Unternehmen angefangen, Bücher wie es Google tat und einen Riesenaufschrei produzierte, einzuscannen und damit zu digitalisieren. Auch Google Streetview kann man sich nicht als deutsches Projekt vorstellen. Wir hätten statt dessen 20 neue Gesetze und Vorschriften produziert und alles zerregelt, bis von der Idee nichts mehr übrig blieb. An solchen Dingen scheitert übrigens auch gerade die De-Mail.
Also sind die Deutschen technophob und wenn ja, wie stark?
Empirisch ist das wohl noch nicht besonders gut untersucht. Nach einschlägigen Studien suche ich noch.
Vielleicht hilft für die Zwischenzeit ein Blick darauf, welche soziale Schichten in welchen Ländern social media nutzen. Die FAZ hat dazu einen kleinen Beitrag veröffentlicht, mit Bezug auf eine Statista-Grafik: In Deutschland ist der Anteil an Nutzern mit wenig formaler Bildung im Vergleich zur Türkei, UK, Spanien und auch Frankreich hoch. Dafür ist der Anteil der „Bildungsbürger“ wie die FAZ die Schicht mit mittlerer und hoher Bildung betitelt, niedrig. Die Unterschiede sind deutlich. Dies spricht in meinen Augen eher für die Jarvis These von der deutschen Internetskepsis.
Das sollte nach dem Urteil des Bundesgerichtshofs nicht mehr passieren, zumindest nicht, wenn sich dagegen jemand beschwert: Bei Eingabe von „bettina wulff“ in die Google Suche wurde bisher der Suchterm „bettina wulff rotlicht“ vorgeschlagen (Autocomplete).
Screenshot von heute, 14.5.2013 – 10:41 Uhr
Im konkreten Fall vor dem Bundesgerichtshof ging es um eine Revision, die ein Vertrieb von Nahrungsergänzungsmitteln und Kosmetika angestrengt hat, nachdem ein Berufungsgericht vorher keine Verletzung eines Persönlichkeitsrechts durch die Autocompleteergänzung mit „Scientology“ und „Betrug“ erkennen konnte.
Der Bundesgerichtshof sieht nicht in der algorithmischen Erfassung von beliebten Suchanfragen das Problem, sondern in der nicht erfolgten Überprüfung, ob Persönlichkeitsrechte verletzt werden.
Google wird für Deutschland wohl ein Feature erstellen müssen, mit dem betroffene User Beschwerde einreichen können, um dann rechtlich problematische Suchanfragen zumindest als Autocomplete-Vorschlag unterdrücken zu können.
Suchmaschinenoptimierung ist wichtig. Die Aussage, dass man nur „exzellenten Content“ und „eine phantastische Nutzererfahrung“ präsentieren muss, um die eigene Seite im Web auffindbar zu machen, funktioniert vielleicht in einer idealen Welt. Realität ist, dass die meisten Internetuser ihre Websession mit Google starten und auf Suchergebnisse vertrauen, die Google auf den obersten Positionen zeigt. Die Seite, die dort steht, bekommt den Traffic.
Kein Wunder, dass also viele Webseitenbetreiber nach Wegen suchen, die eigene Site möglichst weit oben anzuzeigen. Es werden auch von vielen Dienstleistern Informationen angeboten, welche Faktoren wie relevant sind, um die Position in der Google-Suche bezogen auf ein Keyword vorherzusagen. Ein Beispiel dafür sind diese Rankingfaktoren, die Hanns Kronenberg zusammengestellt hat. Grafisch kann man dies wie in diesem Beispiel aufzeigen. Ein Ansatz ist, die wesentlichen Rankingfaktoren über Korrelationsanalysen herauszufinden. Eine Analyse dieser Art ist die von Searchmetrics. Hier werden die Zusammenhangsstärken aufgelistet, ich selbst hätte mir noch die Effektstärken dazu gewünscht. Erstaunlich an dieser Analyse ist, dass Korrelationen um .3 für Facebook Shares gefunden worden sind während die Anzahl der Backlinks (was gemeinhin als wichtigster Prädiktor aufgefasst wird) nur auf .23 kommt. Meiner Meinung nach sind diese Werte unbefriedigend, denn untersucht wird mit der Korrelation ja die gemeinsame Varianz, die bei einem r = .3 gerade mal 0,09 beträgt, das heißt dieser eine Prädiktor liefert gerade mal gerundet 10% Erklärung für die Suchmaschinenposition. Sicher funktioniert der Algorithmus komplexer und mir kam die Frage, warum man, wenn man schon das ganze Datenmaterial zur Verfügung hat, nicht ein paar andere Methoden anwendet, um die Vorhersage der Suchmaschinenposition zu verbessern. Vielleicht wäre es sinnvoll ein Verfahren wie die Pfadanalyse (es gibt ja viele hypothetische Modelle, die zeigen sollen wie Google funktioniert) oder auch eine konfirmatorische Faktorenanalyse. So könnte man feststellen, wie die inkrementelle Validität aussieht, das heißt welche zusätzliche Erklärung liefern die weiteren hypothetisch angenommenen Rankingfaktoren wirklich. Für eine Pfadanalyse muss man etwas mehr Aufwand treiben, denn die Software (wie AMOS von IBM) kostet recht viel an Lizenzgebühren (14 Tage gratis Test), aber eine Faktorenanalyse wird man noch bequem mit SPSS (oder eben PSPP) hinbekommen.
Zustimmung
Diese Website verwendet Cookies verschiedener Art. Du kannst Cookies alle akzeptieren, alle ablehnen oder eine Auswahl treffen.
This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. These cookies ensure basic functionalities and security features of the website, anonymously.
Cookie
Dauer
Beschreibung
cookielawinfo-checkbox-advertisement
1 year
Set by the GDPR Cookie Consent plugin, this cookie is used to record the user consent for the cookies in the "Advertisement" category .
cookielawinfo-checkbox-analytics
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Analytics".
cookielawinfo-checkbox-functional
11 months
The cookie is set by GDPR cookie consent to record the user consent for the cookies in the category "Functional".
cookielawinfo-checkbox-necessary
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookies is used to store the user consent for the cookies in the category "Necessary".
cookielawinfo-checkbox-others
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Other.
cookielawinfo-checkbox-performance
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Performance".
CookieLawInfoConsent
1 year
Records the default button state of the corresponding category & the status of CCPA. It works only in coordination with the primary cookie.
JSESSIONID
session
The JSESSIONID cookie is used by New Relic to store a session identifier so that New Relic can monitor session counts for an application.
viewed_cookie_policy
11 months
The cookie is set by the GDPR Cookie Consent plugin and is used to store whether or not user has consented to the use of cookies. It does not store any personal data.
Functional cookies help to perform certain functionalities like sharing the content of the website on social media platforms, collect feedbacks, and other third-party features.
Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.
Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics the number of visitors, bounce rate, traffic source, etc.
Cookie
Dauer
Beschreibung
__gads
1 year 24 days
The __gads cookie, set by Google, is stored under DoubleClick domain and tracks the number of times users see an advert, measures the success of the campaign and calculates its revenue. This cookie can only be read from the domain they are set on and will not track any data while browsing through other sites.
CONSENT
2 years
YouTube sets this cookie via embedded youtube-videos and registers anonymous statistical data.
Advertisement cookies are used to provide visitors with relevant ads and marketing campaigns. These cookies track visitors across websites and collect information to provide customized ads.
Cookie
Dauer
Beschreibung
IDE
1 year 24 days
Google DoubleClick IDE cookies are used to store information about how the user uses the website to present them with relevant ads and according to the user profile.
test_cookie
15 minutes
The test_cookie is set by doubleclick.net and is used to determine if the user's browser supports cookies.
VISITOR_INFO1_LIVE
5 months 27 days
A cookie set by YouTube to measure bandwidth that determines whether the user gets the new or old player interface.
YSC
session
YSC cookie is set by Youtube and is used to track the views of embedded videos on Youtube pages.
yt-remote-connected-devices
never
YouTube sets this cookie to store the video preferences of the user using embedded YouTube video.
yt-remote-device-id
never
YouTube sets this cookie to store the video preferences of the user using embedded YouTube video.