Autor: Markus Käkenmeister

  • Instagram kündigt neue Layout App an

    Instagram kündigt neue Layout App an

    Instagram Posting von Michelle Obama, offensichtlich schon mit der neuen Layout App von Instagram für IOS. 

    Der Fotoshare-Service Instagram kündigt eine neue App namens Layout an. Die Mitteilung besagt, dass die App zunächst für IOS zur Verfügung stehen soll, einige Zeit später – Instagram spricht von Monaten – auch für Android. Als Datum wurde heute, also der 23.3.2015 genannt. Aktuell ist die App aber noch nicht im Apple Store verfügbar.

    Mit der App kann der User mehrere Bilder zu einem postbaren Bild komponieren. Dafür werden einige Vorlagen angeboten. Zudem läuft im Hintergrund eine Gesichtserkennung, so dass einige Bildergruppen schon vorgeschlagen werden können. Die Bilder sollen dann per Drag and Drop vom User angeordnet werden können.

    Michelle Obama scheint die App Layout schon nutzen zu können.

  • Besser keine informelle Mail-Adresse für Bewerbungen verwenden

    Besser keine informelle Mail-Adresse für Bewerbungen verwenden

    Es macht durchaus einen Unterschied, ob man eine formelle oder eine eher informelle E-Mail-Adresse benutzt.

    Forscher am Institut für soziale Psychologie und Organisationpsychologie an der Universität Amsterdam haben den vermuteten Zusammenhang im Bereich Job-Bewerbungen systematisch untersucht.

    Als Ergebnis ist festzustellen, dass, wenn formelle Adressen verwendet werden, die Wahrscheinlichkeit einer Einstellung steigt. Als formell gilt eine Mailadresse dann, wenn der echte Name des Absenders in der Adresse abgebildet ist und kein Phantasiename oder Spitzname.

    Die Stärke des Effekts ist in der Größenordnung in etwa mit dem (negativen) Effekt von Rechtschreibfehlern vergleichbar.

    Informelle E-Mailadressen wirken so wie Rechtschreibfehler 

    Für eine theoretische Begründung zogen die Forscher das Modell der Brunswik’schen Linse heran (hier mehr zu diesem Modell). Im empirischen Teil der Untersuchung wurden die E-Mailadresse, die Rechtscheibung sowie die Schriftart variiert und (fingierte, aber passende) elektronische Bewerbungen Testpersonen vorgelegt, die über eine mögliche Einstellung des Kandidaten entscheiden können. Es handelte sich dabei um echte Rekrutierer, zu deren Aufgaben und Arbeitsalltag es gehört, über die Einstellung geeigneter Kandidaten für eine Stelle zu entscheiden.

    Die Testpersonen sollten eine Einschätzung hinsichtlich der Intelligenz und diverser Persönlichkeitseigenschaften des Bewerbers bzw. der Bewerberin vornehmen.

    Brunswick’schen Linsenmodell als theoretische Basis

    Offensichtlich leiten Angestellte in den Personalabteilungen, die die Bewerbungen prüfen, unter anderem auch aus dem Grad der Formalität der E-Mail-Adresse Eigenschaften des Bewerbers ab, insbesondere die Ausprägung von Gewissenhaftigkeit und von kognitiven Fähigkeiten. Diese beiden Eigenschaften hängen besonders mit der angegebenen Wahrscheinlichkeit zusammen, ob jemand eingestellt werden kann oder nicht.

    Quelle:
    van Toorenburg Marlies, Oostrom Janneke K., and Pollet Thomas V. What a Difference Your E-Mail Makes: Effects of Informal E-Mail Addresses in Online Résumé Screening. Cyberpsychology, Behavior, and Social Networking. March 2015, 18(3): 135-140. doi:10.1089/cyber.2014.0542.

    Hier ist der Link zum kompletten Artikel:
    http://online.liebertpub.com/doi/full/10.1089/cyber.2014.0542#utm_campaign=cyber&utm_medium=email&utm_source=pr

  • Sind soziale Netzwerke ein Unfall der Hosting-Branche?

    Sind soziale Netzwerke ein Unfall der Hosting-Branche?

    datacenter server racks Image

    Warum haben sich geschlossene Plattformen wie Facebook, Linkedin, Twitter so verselbständigen können? Was wurde aus dem freien, offenen Web und sind propretäre, soziale Inhalte- und Sharingplattformen vielleicht ein Unfall der Hosting-Industrie? Zumindest sind sie deren ernsteste Bedrohung.
    Ende der 1990er Jahre waren Computeranwender endlich in der Lage, digitale Inhalte im offenen Internet selbst zu veröffentlichen. Private Publishing im neuen, offenen World Wide Web war möglich. Nicht nur Studenten an Universitäten kamen in den Genuss dieser neuen Möglichkeit. Dank technischer Dienstleister, die das Massengeschäft übernahmen, war – zumindest in freien Gesellschaften – die eigene Webpräsenz für jedermann erschwinglich und möglich. Eine neue Branche entstand, die Hosting-Branche. Für kleines Geld konnte man sich ein Bündel aus Domainregistrierung, Serverspeicherplatz und E-Mail-Dienst abonnieren.

    Private Publishing im WWW anno 1997

    Zu dieser Zeit gab es viele technische Beschränkungen. Feedback von Usern einzuholen und zu verarbeiten, war schwer zu realisieren. Die eingesetzten Server waren noch nicht so leistungsfähig und Speicherplatz war noch teuer. Möglichkeiten für Interaktionen und dynamische Inhalte waren gegeben, längst aber nicht selbstverständlich und eher aufwändig. Die ersten Ansätze waren Gästebücher und Feedbackformulare, vielleicht auch Umfragen und ähnliche einfache Interaktionsmöglichkeiten.

    Php & MySql brachten Anwendungen wie WordPress oder SugarCRM hervor

    Erst mit der Verbreitung von PHP als quelloffene und somit kostenfreie Scriptsprache für serverseitig auszuführende Anweisungen und einer Datenbanklösung, in diesem Fall MySQL, war mehr machbar. So entstand das, was einige Zeit lang als Web 2.0 bezeichnet wurde, das „Mitmach-Web“. Speicher und Prozessorkapazität war billiger zu bekommen, die Rechenzentren wuchsen.

    Viele Hosting-Unternehmen haben Technologien wie PHP und MySQL unterstützt, aber es versäumt, dem Kommunikations- und Vernetzungsbedarf der Webseitenbetreiber Rechnung zu tragen. Als User konnte sich einzelne Webdokumente im Browser bookmarken, aber die Konnektierung mit Usern war schwierig. RSS/Atom/XML-Feeds sollten Contents syndidizierbar machen, setzten aber wieder eine eigene Technologie voraus.

    Dank der hohen Verbreitung von PHP und MySQL entwickelte sich eine florierende Open Source Landschaft, aus der so phantastische Anwendungen wie WordPress, Joomla! und Co hervorgingen. Content im Web bereit zu stellen, war nie einfacher.

    Das Modell des zufällig surfenden Users 

    Webseiten bezogen sich mehr und mehr auf einen Gegenstand, eine Organisation, ein Unternehmen. Verlinkungen auf andere Domains wurden seltener. Das Hypertextprinzip wurde nicht mehr voll ausgeschöpft.

    Die Folge: Inhalte im Web konnten zunächst nur per manuell editiertem Webkatalog, per Linkliste oder per Suchmaschine zugänglich gemacht werden. Suchmaschinen wurden zur meistgenutzten Anwendung. Dabei basiert Googles elementarer PageRank-Algorithmus vor allem auf der Idee des Hyperlinks und dem Modell des zufällig surfenden Users, der sich von Link zu Link hangelt. Ein Modell, das der Praxis zunehmend weniger entsprach. Es gab das Bild des Surfers bald nicht mehr.

    Während der großen Zeit der Google Suche war die Position auf der jeweiligen Suchergebnisseite für wichtige Keywords entscheidend. Der Traffic kommt heute mehr und mehr von Verlinkungen aus Beiträgen in Social Media Plattformen. Man liest einen Teaser online und klickt auf den Link, um den Rest der Story konsumieren zu können. Dabei ist die Story meist in Wort und Bild gekleidete Werbung, Native Advertising.

    Native Advertising: Was ist Content, was ist Werbung?

    Einige Inhalteanbieter, Contentaggregatoren oder -distributoren gehen sogar dazu über, Inhalte nur über Facebook oder Linkedin zu platzieren und die Story gar nicht mehr auf die eigene Website zu schreiben. Leute, die Modeblogs anbieten, präferieren heute Instagram. Das ginge schneller, ist optischer und das Teilen der Inhalte ginge einfacher von statten. Vorteile, die nicht von der Hand zu weisen sind. Entscheidend ist, wieviele Augenpaare man erreicht, nicht wie viele Page Impressions auf der werbefinanzierten Webseite generiert werden. Dieses alte Web-Geschäftsmodell ist auch aufgrund der Verbreitung von Adblockern ohnehin in Gefahr. Fest steht, dass immer mehr Contents in geschlossene Plattformen verlagert wird. Das offene Web stirbt.

    Steht man auf dem Standpunkt, dass das offene Web grundsätzlich ein Wert an sich ist, kann man fragen, wo ist was schief gelaufen?

    Was ist aus dem offenen Web geworden – alles nur noch Timeline?

    Natürlich haben auch die Apps für ohnehin schon proprietäre mobile Betriebssysteme dafür gesorgt, dass das offene Web zurückgedrängt wird. Den Hauptteil an Traffic auf Mobilgeräten erzeugen Apps, nicht der mobile Webbrowser.

    Dank der Veröffentlichung von PHP und MySQL unter Open Source Lizenzen fanden Content Management System wie WordPress, Joomla!, Drupal und in Deutschland insbesondere auch Typo3 eine große Verbreitung. Dank der großen Verbreitung gab es auch große und agile Entwicklercommunities, die von Version zu Version überzeugende Features geliefert haben.

    Die Open Source CMS – Lösungen wurden von Hostingunternehmen gerne aktiv angeboten. Für Kunden entstand durch die einfache Installation Mehrwert. Allerdings ist kein Benefit an die Entwicklercommunities zurückgeflossen. Sie waren von Spenden abhängig oder fanden einen Großsponsor, so dass neben der Community-Version bald eine lizenzpflichtige Version mit mehr Support und Funktionen erstellt wurde.

    Wie hätte sich Open Source social software besser entwickeln können? 

    Einige CMS haben sich gut entwickelt, ebenso Tools wie Piwik oder CRM-Anwendungen. Leider haben es Social Media Plattformen nicht über Achtungserfolge hinaus geschafft. Leider war einem Friendica, einem Diaspora oder Elgg der große Durchbruch nicht vergönnt. Daneben gibt es noch eine Handvoll Social Media Frameworks mit einer dezentralen Struktur, die aber über das Betastadium nicht hinauskommen.

    Vielleicht hätten sich die vielen Rechenzentrumsbetreiber und Hoster früher um soziale Netzwerke bemühen sollen. Es gibt offene Standards, die einen Austausch von Profildaten und Graphen ermöglichen. Damit könnte eine quelloffene, dezentrale Struktur ermöglicht werden, so wie es in Friendica auch angelegt ist.

    Zu lange haben Hoster zugesehen und zumindest insgeheim darauf gehofft, dass social media ein schnell vorübergehendes Phänomen ist, dem die User bald überdrüssig werden würden. Ein Fehlschluss. Facebook und Co haben mit Hochdruck daran gearbeitet, für immer neue Zielgruppen interessant zu werden und zu bleiben. Ein Selbstläufer war das nicht, wie man am Schicksal von MySpace und StudiVZ unschwer erkennt.

    Gibt es noch Leben in der Social Media Welt mit Open Source?

    Die aktuelle Friendica Version trägt die Nummer 3.3.3, kann aber mit dem enormen Entwicklungstempo kommerzieller Plattformen nicht mithalten. Die User Experience ist mit Facebook oder Twitter einfach nicht zu vergleichen, von der Anzahl der Teilnehmer ganz abgesehen.

    Das Problem des Sterbens des offenen Webs haben viele Unternnehmen erkannt. Einige haben sich in der Internet Defense Leage (https://www.internetdefenseleague.org) zusammengeschlossen. PHP, WordPress und Mozilla sind prominente Teilnehmer.

    Eigentlich müsste auch Google daran interessiert sein, das offene, sich agil entwickelnde Web zu erhalten. Durch die Notwendigkeit, Milliarden Webseiten indizieren zu müssen, um Inhalte und Informationen zugänglich zu machen, hat Google viel Geld verdient. Die Anzeige von Werbebotschaften, die zu einer Sucheingabe passen, ist heute noch der mit Abstand größte Umsatzstrom für Google, der geringer wird, wenn immer mehr User über Social Media News und Informationen konsumieren und teilen.

    Im Prinzip kann man Webseitenbetreiber nur ermutigen, die bisher betriebene Onlinepräsenz fortzuführen. Ein Verlass auf Social Media Plattformen zur Veröffentlichung eigener Contents ist gefährlich: Was passiert, wenn die Plattform eingestellt wird, die Richtlinien ändert oder das Geschäftsmodell? Dann sind im extremen Fall alle Inhalte und Kontakte verloren. 
  • German Angst ist heute Internetangst

    German Angst ist heute Internetangst

    Und: Jeff Jarvis bringt manche Dinge gut auf den Punkt. Die heutige German Angst ist Internetangst. So fühlt sich für uns nun der alles übergreifende Technik- und Kulturwandel an, den wir bestenfalls begleiten und überleben können. Wir Europäer haben die – schöner politischer Ausdruck – „Systemfähigkeit“ verloren. Wir können kein Internet.
     
    Unsere Versuche (BTX) sind gescheitert und durch die – häßlicher technokratischer Ausdruck – „disruptive Intenettechnologie“ hinweggefegt worden.
     

    Unsere eigenen Ansätze wurden zerstört, wegreguliert, aufgegeben. Nun beschweren wir uns, dass es keine deutsche Suchmaschine mehr gibt, wir der Überwachungstechnologie der anderen auf Gedeih und Verderb ausgesetzt worden sind.

    Unser Bildungssystem war zu wenig adaptiv, die vorherrschende Geisteshaltung zu restriktiv („Geh doch lieber raus, Ball spielen„)

  • Facebook Aktivität und Effekte analysieren ist ohne externe Tools schwierig

    Facebook Aktivität und Effekte analysieren ist ohne externe Tools schwierig

    Es wäre wirklich gut, für Facebook gäbe es sowas wie Ripples bei Google Plus. Dann könnte man nämlich nachverfolgen, wo die eigenen Posts eigentlich hingehen und wer wie interagiert. Hier ein Beispielscreenshot eines Posts auf Google +

    (mehr …)

  • Facebook Ads: Wo ist denn das Targetting in der Praxis?

    Facebook Ads: Wo ist denn das Targetting in der Praxis?

    Seit einiger Zeit habe ich ständig Werbung eines Herstellers für Gastro-Registrierkassen in meiner Timeline. Ich habe keine Ahnung, warum. Was habe ich mit Gastro zu tun? Kein Klick, kein Profile View deutet darauf hin, dass ich ein Café oder ein Restaurant betreibe und solches Gerät brauchen könnte. Okay, ich checkte mal in dem einen oder anderen Restaurant ein, aber ein Restaurantbesucher braucht keine Gastrokasse.

    Bei Facebook kann man sich anzeigen lassen, warum die Anzeige in der Timeline steht:

    In meinem Fall wird als Begründung angegeben, dass der Anbieter einfach männliche User im Alter von 25 bis 64 Jahre targetten will. Aber sorry: So war das nicht gemeint mit „Targetted Advertising“. 
    Ich finde, man könnte mir für mich relevantere Ads zeigen. Möglicherweise ist die Einblendung zur Zeit einfach zu billig, so dass man recht weit streuen kann. Aber mit der Frequenz steigt eben auch die Gefahr, dass ich die Anzeige irgendwann mit einem Klick auf „I don’t want to see this“ blockieren möchte. 

  • Februar 2015: Das war es dann wohl endgültig mit RapidShare

    Februar 2015: Das war es dann wohl endgültig mit RapidShare

    RapidShare ist ein File-Hoster. Mit wenig Registrieraufwand und schlanken Websites konnte man Dateien auf die Server von RapidShare hochladen und diese mit anderen Usern teilen. Naheliegend, dass dieser Service auch gerne für urheberrechtsgeschütztes Material verwendet wurde. Dies hat die Rechteinhaber auf den Plan gerufen, die die Betreiber von RapidShare in Prozesse verwickelt hatten.

    Seit kurzem kündigt RapidShare das Ende des Dienstes auf der Homepage an:

    Dies berichten auch viele online Quellen wie giga.de

    Als Abschalttermin wird der 31.März 2015 genannt. Bis Ende Februar kann man Standard und Premium Accounts noch verlängern, danach nicht mehr. Die Website kündigt an, dass nach dem März-Termin allle Daten und Passwörter gelöscht werden würden.

    Dass das Aus für RapidShare ansteht, ist schon lange bekannt. Nun wurde ein konkreter Termin genannt.

    Nun ist definitiv Schluss mit RapidShare. Ein Abschalttermin wurde genannt: 31.3.2015

    Wenn die Angabe auf der Homepage stimmen, sind immer noch 150.000 bis 200.000 User jeden Tag auf RapidShare aktiv.

    Gibt es denn Alternativen?
    Klar. Zum einen natürlich die üblichen Verdächtigen: Dropbox, Onedrive, Google Drive. Daneben kann man auch auf die Bildspeicher zurückgreifen, zum Beispiel bei Flickr, Picasa oder dem neuen Amazon Dienst für Fotos, Cloud Drive nennen die das. 5 GB sind kostenlos für jeden verfügbar. Flickr gehört übrigens zu Yahoo, Picasa zu Google.

    Will man seine Daten nicht einer amerikanischen Cloud anvertrauen (Dropbox zum Beispiel nutzt Amazon AWS), blieben noch der Cloudspeicher von Kim Dotcom namens Mega (https://mega.co.nz/).  50 GB sind kostenlos nutzbar. Ich habe Mega ein bisschen getestet (mit Safari und mit Chrome).

    Immer noch wird Safari nicht komplett unterstützt. Einige HTML5-typische Funktionen werden in Safari ersatzweise mit Flash realisiert. Dennoch läuft Mega zufriedenstellend schnell.

  • Adblocker killen Vielfalt im Web

    Durch meedia (Medienbrancheninfodienst) poppte das Thema Adblocker wieder auf, insbesondere Adblock Plug. Es wurde bekannt, dass Microsoft Geld an Adblock Plus bezahlt, um auf die Whitelist zu kommen.

    Adblock Plus filtert Webseitencode nach bekannten Signaturen für Werbeintegrationen und filtert diese aus, so dass der User keine Werbung sieht.

    Natürlich zahlen die alle, und zwar im Millionenbereich. Wer nicht zahlt, sind die Affliatenetzwerke, mit denen Betreiber kleiner Webseiten versuchen, ein paar Euro zu verdienen. Folge: Dies geht nicht mehr und die Seitenbetreiber geben auf, das Web stirbt bzw. konzentriert sich auf die Großen. Eine andere Folge ist, dass viele versuchen, Inhalt und Werbung zu vermischen, damit die Filter bezahlte Platzierungen nicht erkennen. Beides ungut für den User. Also: Adblocker sind des Teufels.

    Das funktioniert gut und Otto Normaluser freut sich. Die Freude dürfte kurzfristig sein, weil gerade kleine Websites mit Affiliate-Werbeprogrammen sich nicht leisten können, sich durch den Adblocker durchzukaufen. Man bewegt sich hier im Bereich von Millionensummen.

    Die Vielfalt im Netz wird ärmer, das Web stört. Bald gibt es eine hochgradige Mischung aus Inhalt und Werbung und bzw. auch oder die Konzentration auf einige wenige Inhalteanbieter.

    Wieviel Traffic wirklich nicht mehr monetisiert werden kann, ist fraglich. Entsprechende Quellen berichten Werte mit großen Schwankungen von 5 bis 20 Prozent.

    Webseitenbesitzer wären gut beraten, wenn Adblocker festgestellt werden, die Inhalte nicht anzuzeigen oder nur anzuteasen. Der eigentlich wertvolle Content muss dann hinter eine Wall. Das kann ein Login sein oder eine andere Aktion wie Pay-with-a-tweet.

    Wir sollten man nachsehen, ob wir nicht Open Source Tools aus PHP-Basis finden, die solche Mechanismen unterstützen.

    Für WordPress gibt es Plugin, das sich AdBlock Blocker nennt. Es verhindert den Zugriff auf die Inhalte, wenn ein entsprechendes Browserplugin erkannt wird.

    Eben etwas anderen Ansatz fährt stopadblock.org.

    Daneben sind noch andere Tools zu finden, die punktuell wirken, zum Beispiel indem die Werbeintegrationen mit Affiliatelinks ersetzen.

    Natürlich nervt Werbung. Andererseits sind viele Webangebote werbefinanziert. Ohne Ads, keine Site.

    Im Fernsehbereich gab es ähnlich Bestrebungen. Vor einigen Jahren (inzwischen wohl Jahrzehnte), wurden Boxen vermarktet, die Werbeunterbrechungen mit geschickter Videorecordersteuerung überspringen konnten. Privatsender klagten dagegen und bekamen Recht.

    Vermutlich wären Klagen in Deutschland gegen Adblocker nicht völlig ohne Aussicht. Immerhin ändern diese Tools ja den originären Code wie er vom Server geliefert wird.

  • SSL ist Google Rankingfaktor – wie soll ich als Webseitenbetreiber reagieren?

    SSL ist Google Rankingfaktor – wie soll ich als Webseitenbetreiber reagieren?

    Die Tatsache, dass SSL-Verschlüsselung ein Faktor beim Ranking wird, hat Google Anfang August bekannt gegeben.

    Aber was heißt das für den ganz normalen Webseitenbetreiber? Die Nachfrage nach SSL Zertifikaten hat deutlich zugenommen.

    Man darf vermuten, dass Google dieses Kriterium schon lange mitverwendet hat. Nun gab es offensichtlich ein Update des Rankingalgorithmus, das den Faktor der SSL-Verschlüsselung nun möglicherweise stärker gewichtet. 
    Wie stark der Effekt ausfallen wird, muss sich erst zeigen. Verschlüsselung trägt zunächst einmal nichts zum Inhalt bei. Schließlich geht es bei der Websuche ja primär darum, die besten Antworten auf die Suchanfragen der User zu präsentieren. 

    Ist SSL Verschlüsselung inhaltsrelevant? 

    Was also wird besser ranken? Das verschlüsselte Dokument mit weniger gutem Content oder das nichtverschlüsselte Dokument mit schlechterem Content? Man muss sehen. Tipp: Der bessere Content. 
    Ich vermute, dass sich der Rankingeffekt besonders bei Webseiten niederschlagen wird, die Produkte verkaufen oder sensible Kundendaten abfragen, zum Beispiel Login-Prozeduren haben. Aber eigentlich ist ein Shop ohne SSL-Zertifikat im Checkout sowieso kaum vorstellbar. 

    Domainvalidiertes oder erweitertes Zertifikat 

    Ob man ein domainvalidiertes Zertifikat oder ein EV-Zertifikat, also ein Zertifikat mit erweiterter Validierung verwendet, dürfte für das Ranking keine Rolle spielen. Google selbst nutzt meistens keine EV-Zertifikate, die meisten Banken schon. Dies erkennt man daran, dass vor der Adresszeile des Browsers nicht nur das grüne Vorhängeschlosssymbol zu finden ist, sondern auch der ausgeschriebene Name des Zertifikatinhabers.  
    Bei den EV-Zertifikaten prüft die ausgebende Stelle also genauer, ob die Identität des Servers und Inhabers garantiert werden kann. Solche Zertifikate sind aufgrund der Prüfungsaufwände teuerer. Bei domainvalidierten Zertifikaten wird manchmal nur überprüft, ob die Domain stimmt, indem eine Bestätigungsmail an ein Mailkonto unter diesem Domainnamen beantwortet wird. 

    Mögliche Auswirkungen je nach Webseitentyp 

    Für Webseiten, die vom editorischen Inhalt leben – Blogs zum Beispiel – dürfte sich der SSL-Rankingfaktor-Effekt nur wenig auswirken. Kein Grund also, jetzt schnell ein SSL-Zertifikat zu buchen, das immerhin mit 20 bis 50 Euro pro Jahr zu Buche schlägt, mehr noch, wenn es sich um ein Zertifikat handelt, das nicht nur domain- sondern auch adressvalidiert ist. 
    Bis vor noch nicht allzu langer Zeit waren SSL Zertifikate oft an die IP-Adresse gebunden. Wer ein eigenes SSL Zertifikat nutzen wollte, brauchte ein feste IP für seinen Server. Bei Shared Hosting Angeboten ist dies kaum gegeben. Die IP-Adressen ändern sich. Inzwischen gibt es auch Technologien, die unter der Bedingung von vielen Domainnamen auf einer IP – Adresse gut und schnell mit allen möglichen Browsern funktionieren. 
    Wer einen Onlineshop betreibt oder Kundendaten abfragt und zum Server schickt, sollte also spätestens jetzt über ein eigenes SSL-Zertifikat nachdenken. 
  • Warum tut sich eigentlich nichts im Radio?

    Im Blog des Deutschlandfunks machte sich Peter Glaser Gedanken und die Zukunft des Radios. Musikabodienste könnten das Radio bedrohen und die Radiomacher sollten sich schnell mal etwas überlegen:

    http://blogs.deutschlandradio.de/lab/2014/07/22/die-zukunft-des-radios/

    Radio so wie wir es heute kennen, ist ja mehr als die (manchmal geschickte) Aneinanderreihung von Musiktiteln.

    Populäre Programme definieren sich durch eine möglichst unverwechselbare, aber hinreichend homogene Mischung aus idealerweise interagierenden Musiktiteln, Moderation, Jingles, Sounder, Stinger und wie die Elemente alle heißen.

    Die reine Playlist genügt sicher nicht, um massenattraktive Programmierung vorzunehmen. Wer sich mal die Mühe machen musste, eine Abfolge von ca. 200 Liedern zusammenzustellen, weiß, dass dies sehr viel Arbeit ist. Daher ist Radio ein netter Lieferant, Musik manipuliert recht unmittelbar die Emotionen des Rezipienten, sie aktiviert, verstärkt – das ist eine ideale Kombination.

    Ich verstehe nicht, warum man in Deutschland immer noch auf UKW beharrt. Die im deutschen Radio dominierenden Verleger wiederholen die Fehler, die sie im Print gemacht haben. Gut laufende Sender sind nach wie vor Gelddruckmaschinen. Das Establishment wehrt sich gegen jede Neuerung bis es zu spät ist. So klingt Radio heute wie vor 10 oder 15 Jahren! Wenn man sich überlegt, wie oft man seither sein Handy / Smartphone gewechselt hat…

    Ein im deutschen Raum völlig unterbelichtetes Genre ist Talk Radio. Damit ist nun nicht das einstündige Vorlesen von Nachrichten und Tickermeldungen gemeint, sondern die von einer Person mit subjektiven Blickwinkekn getragene Reflektion aktueller Ereignisse. Das könnte ein angenehmer, authentischerer Gegenpol zur den durchgescripteten Talkshows im Fernsehen werden.

    Das muss sich nicht auf Politik beschränken. Wissenschafts- und Technologiejournalismus ist komplett unterbelichtet. Vielleicht liegt rührt die Technikangst, der fehlende Diskurs auch daher, dass dieses Genre nur auf Galieo-Niveau existiert.