Kommt die Nischengesellschaft wieder?

Die Ausfrage diese Post war, wie es sich auf die Gesellschaft im Sinne von Verhaltensänderung ihrer Mitglieder auswirkt, wenn alle sich bewusst sind, permanent mit allen Internet- und Mobile-Aktivitäten überwacht werden zu können.

Gar nicht ist die eine Hypothese, die man öft hört und die sich vielleicht mit der Phrase „ich habe nichts zu verbergen“ pointieren lässt.

Meine These war, das Kommunikationsverhalten ändert sich langsam, aber nachhaltig, was gesellschaftliche Auswirkungen haben kann. Es bilden sich womöglich Nischen, so wie man Nischen in autoritären, hoch-kollektivistischen Gesellschaften kennt.

Eine solche Nische könnte das sein, was Telepolis mit „Darknet“ bezeichnet.

UPDATE 29.7.2013 – Telepolis Beitrag zum „Darknet“
Es gibt keine eindeutige Definition davon, was man mit „Darknet“ meint. Letztendlich scheinen solche Zuschreibungen wie „verschlüsselt“, „nicht durchsuchbar“, „abgetrennt vom ’normalen‘ Internet“.

Zitat:

Einem notwendigen, verlässlichen, rechtsicheren, vertrauenswürdigen
kommerzialisierten und überwachten Teil (dem „Internet“) und einem
unzuverlässigen, rechtlosen, anonymen, dafür freien und nicht
zensierbaren Teil (dem „Darknet“, optimalerweise so konstruiert, das
seine Nutzung abstreitbar ist).

UPDATE 22.07.2013 – der Freitag hat eine ähnliche Geschichte veröffentlicht.
http://www.freitag.de/autoren/der-freitag/uns-steht-eine-neue-netzguerilla-bevor 

Der Autor sieht aber eher eine Art Radikalisierung, weniger einen Rückzug und nimmt Bezug auf Cypherpunks von Julian Assange, Jacob Appelbaum, Jérémie Zimmermann und Andy Müller-Maguhn:

Nur „eine Elite von High-Tech-Rebellen“, heißt es in Cypherpunks, sei in der Lage, sich dem „Moloch Überwachungsstaat“ zu entziehen. 

und weiter:

Vielleicht müssen wir das Internetzeitalter künftig in eine Zeit vor und
in eine Zeit nach Snowden einteilen. Die Zeit der Happenings und des
spielerischen Umgangs mit dem Netz ist jedenfalls vorbei. Den
Netzpolitikern, die seit Jahren mit zäher Kleinarbeit und demokratischen
Mitteln für ein freies Internet kämpfen, erwächst daraus eine neue
Verantwortung: Sie müssen den radikalisierten Gruppen – die sich mit
Kleinkram nicht mehr abspeisen lassen werden – eine überzeugende
Alternative anbieten.

Warum eigentlich passiert gerade keine Revolution? Warum lassen sich die Untertanen die Überwachung offensichtlich gefallen und der Regierung jede Nicht-Aktivität in dieser Angelegenheit durchgehen? Das fragt sich unter anderem Jakob Augstein in seiner Rubrik auf Spiegel online.

Faulheit, Bequemlichkeit, sagen die einen. Fehleinschätzung, sagen andere, zum Beispiel Sascha Lobo. Es ginge um nichts geringeres als den freien Willen, so Viktor Mayer-Schönberger in der Zeit.


Wir fühlen uns nicht durch Algorithmen bedroht, weil wir zur Zeit kein Unterdrückungsregime sehen, das dieses potentielle Machtinstrument gegen die Bevölkerung einsetzen will. Dennoch ist es sehr erstaunlich, dass die Haltung „Ich habe nichts zu verbergen“ oder „ist doch nicht schlimm“ im gleichen Kulturkreis der Häuserverpixeler artikuliert wird. Die Deutschen sind doch eigentlich alles andere als transparent, wenn es um Gehalt oder Reichtum geht. Das darf doch keiner wissen, höchstens erahnen, um den gesellschaftlichen Status zu proklamieren (man trägt Rolex, fährt einen SUV). Biedermann und die Brandstifter.

Überwachung riecht man nicht und sieht man nicht

Außerdem haben wir Menschen keine Sinne dafür, wir können Ursache und Folge der Entwicklung nicht abschätzen, weil diese zeitlich weit auseinanderliegen und wenig linear zusammenhängen.
Manche reagieren darauf mit Angst, andere – offensichlich die meisten – mit Ignoranz. Hätten wir Sinne für die Gefahr der Überwachung, zum Beispiel, dass schwarzer, übelriechender Qualm aus der Tastatur austritt, wir würden sofort reagieren.

Reaktion wird erfolgen

Ich denke, die internetnutzende Bevölkerung wird reagieren, so wie einige (wenige) anfangen, ihre Daten zu verschlüsseln, US-Anbieter zu meiden oder sich sogar Gedanken machen, inwiesweit sie ihren Internettraffic beeinflussen können. Ein Tool zum Tracen und Visualisieren der Route gibt es bei Opendatacity.de

Wir wissen jetzt, dass viele Stellen mithören können, algorithmisch, auch nachträglich. Lässt uns das kalt? Schleichend aber sicher werden wir die naive Begeisterung an Social Media und Smartphone Apps verlieren, weil wir wissen, die Beschäftigung damit kann gegen uns verwendet werden, eines Tages vielleicht.

Privates wird wieder privater. Wir bloggen nicht mehr über kritische Einsichten, wir teilen keine schwer verständlichen Stimmungen oder Bilder mehr, weil wir den Adressatenkreis nicht mehr kennen und abschätzen können.

Nischengesellschaften

Wir unterscheiden wieder: Hier das Öffentliche oder Halböffentliche, hier das Private. Die Frage ist nur – wie findet das Austauschen des Privaten statt? Das Öffentliche wird Kommunikation zweiter Klasse. Nischengesellschaften entstehen, vielleicht wie damals in der DDR mit der allgegenwärtigen Überwachung durch die Stasi und ihre IMs, vermeintliche Freunde und Kollegen. Jeder Brief, jedes Telefonat, jedes Treffen überwacht.

Ende von Social Media?

Wahrscheinlich bilden sich Zufluchten und Zirkel, in der es keine elektronische Kommunikation gibt. Für die Social Community Idee wird dies ein heftiger Rückschlag werden. Die Idee, Einsichten, Ideen, Erfahrungen mit einem ausgesuchten Kreis zu teilen, wird leiden. Social Media Plattformen werden komplett zur Promotionmaschine, nicht weiter. Schade eigentlich.

Meetings statt Videokonferenzen

Firmen werden wieder auf das direkte Gespräch setzen, auf Besprechungen, bei denen Datenbrillen verboten sind. Videokonferenzen, teilweise als das Heil gegen teuere Geschäftsreisen gefeiert, werden eine Renaissance erleben und dem Staat traut man wieder ein Stück weniger.

Privatleute treffen sich in sehr privaten Räumen. Das muss geplant und anvisiert werden. Big Brother sieht die Aktivitätszunahme, kennt aber nicht mehr den Inhalt. Ein menschlicher Spion müsste los.

Subnets und private Netze

Daneben, neben dem großen Kommerzweb entstehen neue Netze dadurch, dass sich Enthusiasten oder Untergrundaktivisten zusammenschalten. Direct Connect könnte ein Beispiel dafür sein.

Es wird eine Revolution stattfinden, aber keine schnelle. Keine, die von heute auf morgen Spuren hinterlässt und Auswirkungen augenfällig macht. Die Begeisterung für Cloudcomputing wird schwinden, wir setzen wieder auf installierte Software und physikalisch verfügbare Datenträger und geteilt wird nicht mehr. Das könnte der gerade aufkommenden Share-Economy einen gehörigen Dämpfer versetzen.

Die Umstellung dauert

Das dauert deswegen so lange, weil man sich erst wieder umstellen muss, doch der Anfang ist gemacht. 

So wird man die Pest von „delta-search.com“ wieder los

Es gibt immer mehr Freeware-Angebote, die nach dem Herunterladen und Installieren ungefragt einige zusätzliche Komponenten mitinstallieren. 

Das passiert bei Downloads von CNET, Softonic und anderen Sites, denen man bisher eigentlich vertrauen konnte. Das scheint Vergangenheit zu sein. Heute heißt es: Augen auf bei der Freeware-Suche. 
Wichtig, wenn Sie Freeware herunterladen und installieren: Im Laufe der Installation sollte man es vermeiden, auf Schnellinstallationslinks wie „Quick Install“ zu klicken. Das kann bequem sein, aber installiert viel Unnützes und eventuell auch Gefährtliches mit. 
Beim Installieren von Freeware unbedingt die „Advanced“ – Option nutzen, sonst gelangt allerlei Softwaremüll ins System. 
Es handelt sich oft um beliebte consumernahe Software, wie etwa Bildverabreitungstools, Formatwandler und so weiter, Dinge, die man alltäglich einfach ab und an braucht.

Sogar im Advanced Installationsdialog muss man die Anweisung sehr genau lesen, sonst wird die Malware der Installation doch noch hinzugefügt. So muss man in einem Beispiel auf „no“ klicken, statt auf das gewohnte „OK“.

Augen auf auch im Installationsdialog. Sonst bekommen Sie allerhand Adware und Malware untergeschoben. 

Einer der aggressivsten Malwareinstaller ist zur Zeit delta-search:

– delta-search klinkt sich als Toolbar in jeden Browser, den Sie installiert haben

– außerdem wird delta-search die Standardsuche

– und weil das noch nicht reicht, macht sich delta-search zur Startseite in jedem Browser

– zusätzlich wird ein als Sicherheitstool getarntes Progrämmchen installiert, das Adware- und Malwareentfernern die Arbeit erschweren soll

Die Verbreitung aufgrund aggressiver Installationsmethoden von delta-search.com steigt rasant. 

Wer Delta Search betreibt, ist gar nicht so einfach herauszufinden. Weder in den T&C oder im Privacy-Statement noch über eine Whois-Abfrage ist der Inhaber der Domain zu ermitteln. Die Domain wurde über Godaddy registriert und wird von einer amerikanschen Firma verwaltet, deren Spezialität es ist, den eigentlichen Inhaber nicht preiszugeben. Das erinnert an Babylon Search, vielleicht handelt es sich ja auch um den gleichen Anbieter, der nur das Webfrontend verändert hat, nachdem diese Domain verbrannt war.

Die Identität des Domaininhabers von delta-search.com wird verschleiert. 

Delta Search versucht, einmal im System eingenistet, nicht weiter aufzufallen und akzeptable Suchergebnisse zu liefern.

Die Ähnlichkeit zur Google-Suchseite ist frappierend: Die Schrift, der schwarze horizontale Navigationsbalken, die Aufteilung der Seite… flüchtige User sehen noch nicht einmal den Unterschied. Und eine weitere Anzahl User wird Delta Search mehr oder weniger zähneknirschend akzeptieren, da das Deinstallieren recht aufwändig ist. 

Damit der Eindruck gewahrt bleibt, zeigt delta-search.com oben rechts direkte Links zu einer Videosuche, zum Maillogin und anderen Diensten, allerdings zu denen von Yahoo!

Auch die Suchergebnisse sehen bekannten SERPs (search engine result pages) zum Verwechseln ähnlich. Dennoch gibt es deutliche inhaltliche Qualitätsunterschiede im Vergleich zu Google.

Delta Search will vermutlich über die Klicks auf Suchergebnisse Umsatz generieren. International aufgesetzt und dank Malwareinstallation weit verbreitet, ist das offensichtlich ein einträgliches Geschäft.

Wie aber kann man „delta-search.com“ wieder loswerden?
Es gibt einige Removal-Tools, aber auch „zu Fuß“ kann man die entsprechenden Einstellungen wieder rückgängig machen.

Software deinstallieren

Zunächst sollte man die Software, die mit dem eigentlichen Hauptprogramm installiert worden ist, in der Systemsteuerung unter „Software“ de-installieren. Auch die Toolbars für die Browser kann man dort deinstallieren.

Danach nimmt man sich die Browser vor und entfernt die Einträge für die Startseite und die Suchbox.

delta-search-Entfernung aus Firefox

Bei Firefox muss man zudem noch neu einstellen, welche URL geöffnet wird, wenn man einen neuen Tab öffnet. Dies ist nach der „delta-search.com“ Installation auch verändert worden. Man tippt about:config in die Adresszeile des Firefoxbrowsers und sucht nach dem Eintrag „browser.newtab.url“. Als Status steht dort „Vom Benutzer…“. Klicken Sie rechts auf diese Worte und bwegen Sie die Maus auf den Menüeintrag „Zurücksetzen“. Dann wird der Standard wieder hergestellt.

delta-search-Entfernung aus Chrome 

Bei Chrome muss man unter „Einstellungen“ die Angabe „Bestimmte Seite oder Seiten öffnen“ im Abschnitt „Beim Start“ öffnen. Hier ist auch delta-search eingetragen. Man muss dies nur im Dialog „Startseiten“ löschen.

Im Abschnitt „Suche“ in den Chrome-Einstellungen muss man festlegen, welche Suchmaschine mit der Omnibox verwendet werden soll. Die Omnibox ist das Eingabefeld in Google Chrome. Dort kann man eine URL eingeben oder auch einen Suchbegriff.

Überprüfen Sie sicherheitshalb noch einmal die Einträge im Menüpunkt „Erweiterungen“ in Chrome. 

Möglicherweise ist noch anderer Adware-Mist mitinstalliert worden. Ein Virenscanner kann helfen, noch weitere Elemente zu identifizieren.

delta-search-Entfernung aus dem IE 

Im Internetexplorer funktioniert dies ganz ähnlich:

Öffnen Sie unter dem Menüpunkt „Einstellungen“ den Punkt „Add-Ons verwalten“. Unter „Suchanbieter“ können Sie „Delta Search“ entfernen.

Schließen Sie die „Einstellungen“-Dialogseiten und klicken Sie unter „Extras“ noch auf den Menüpunkt „Internetoptionen“. Auf der Registrierkarte „Startseite“ sehen Sie den Delta-Search-Eintrag, den Sie hier entfernen können, indem Sie einfach auf „Leere Seite“ klicken. Schließen Sie den Dialog mit „OK“ ab.

Grundsätzlich sollten keine Schäden am System oder Datenverluste auftreten. Delta-Search ist vor allen Dingen lästig. Dennoch sollte man sich die Arbeit machen, eventuell vorhandene Adware- oder Malware-Elemente wieder zu entfernen. 
Delta-Search ist keine vernünftige, zu empfehlende Suchmaschine und man darf den Verdacht haben, dass es dem Betreiber auch darum geht, das Suchverhalten auszuspähen. 
Bleibt natürlich die Frage, wie kommt man an qualitative Freeware. Wer es sich leisten kann, lässt von Freeware die Finger, denn wenn Sie einen halben Tag damit beschäftigt sind, Malware zu entfernen, können Sie anhand der Zeit, die Sie vergeuden, entscheiden, ob Ihnen Bezahlsoftware nicht doch vielleicht den Preis Wert ist. 
Es ist verständlich, dass Freeware-Produzenten die vielen Downloads etwas monetarisieren wollen. Die Frage ist allerdings, ob Erlöse wirklich bei den Produzenten ankommen. 

Eigene Summer-Challenge: ein dahindümpelndes Webprojekt mit Content pushen

Seit einigen Jahren betreibe ich eine kleine Seite, die eigentlich ursprünglich als Testsite für Typo3 gedacht war.

Viel Zeit und Geld kann ich in dieses Projekt nicht investieren, aber ich will im Sommer 2013 nun einmal versuchen, der Domain ein bisschen Speed zu geben, allerdings nur mit Content. Ich werde keine Links organisieren oder kaufen.

Gestern mal ein paar Onsite-Dinge gemacht, schon sieht man einen Ausschlag. Mal sehen, wohin das führt.

Was bringt den Geheimdiensten diese Really Big Data – Analyse eigentlich? – Antwort: Einen Blick in die Zukunft (UPDATE)

Visualization of all editing activity by user "Pearle" on Wikipedia (Pearle is a robot). To find out more about this project, go to: www.research.ibm.com/visual/projects/chromogram.html

UPDATE des Artikels vom 23.6.2013

Am Wochenende hat sich der Skandal um die Überwachungsabitionen weiter ausgeweitet. Dies ist die dritte Woche in Folge, in der sich durch weitere Enthüllungen neue Ausmaße abzeichnen.

Langsam, finde ich, wird es Zeit für etwas genauere Analysen. Soweit ich das überblicke, ist noch nirgendwo eine verlässliche oder glaubwürdige Einschätzung erschienen, welchen Nutzen diese immens teuren Schnüffelaktionen überhaupt haben.

Okay, wir wissen, dass sich Geheimdienste In USA und UK Zugang zu den Glasfaserknoten und den wichtigen Netzknoten verschafft haben. Damit lässt sich der darüber fließende Internetverkehr grundsätzlich abhören und mitschneiden, also speichern. Da es sich um Daten auf recht rohem Niveau handelt, dürften recht aufwändige Analysen nötig sein, um den Fragmenten dieses Datenstroms einen Sinn zu geben.

Die Frage ist doch auch: Was lässt sich mit dieser Datensuppe eigentlich anfangen? Welche Möglichkeiten sind den Diensten überhaupt gegeben? Ich vermute, nach dem ich ein paar sowieso selten zu findende, weiterführende Artikel gelesen habe, dass man in der Lage sein wird, einzelne E-Mailkonten zu überwachen. Und in einigen Fällen wird es möglich sein, neben der reinen Aktivitätsmessung auch die Inhalte zu entschlüsseln bzw. zuzuordnen. Vielleicht erleben wir deswegen die häufigen unspezifischen Warnungen wie zuletzt vor Anschlägen auf Fanmeilen. Möglicherweise stellt man fest, dass über bekannte Mobilfunkverbindungen bzw. E-Mailadressen verstärkter Traffic läuft und darauf kann man schließen, dass die eine oder andere Gruppe etwas vor hat.

Vermutlich kann man auch im gespeichertem Datenbestand nachträglich Spuren finden, wenn man weiß, wonach man suchen soll. Dass Anschläge verhindert werden, wird behauptet. Bewiesen ist das glaube ich noch nicht. Offensichtlich ist der Versuch, Verbrechen mit Big Data Analysen zu verhindern viel viel schwieriger als gezielte Fahndung.

Für Deutschland auch kein Neuland. Bereits in den 1970ern versuchte das BKA per damals auch umstrittener Rasterfahndung der RAF auf die Spur zu kommen. Geholfen hat das wohl nicht viel.

Es wäre also sehr schön, es erschiene bald irgendwo im Spiegel oder in der Süddeutschen oder wo auch immer ein Beitrag, der einige Hintergründe etwas genauer ausleuchtet und nicht nur auf Empörung setzt.

UPDATE 6.7.2013

Inzwischen hat sich die PRISM-Geschichte weiterentwickelt. Wir wissen, dass der englische Geheimdienst und auch die NSA Glasfaserkabel anzapft. Wir wissen, dass auch die Franzosen und auch die Deutschen (BND am DECIX) abhören.

Was also macht man mit dieser Riesenmenge an Daten?

Es ist der Versuch, durch korrelative Zusammenhänge Erkenntnisse über die Zukunft ermitteln zu können. Eine Anwendung davon ist Predictive Policing, also der Versuch, aus vergangenen Mustern von Kriminalität Vorhersagen aus damit gewonnenen Zusammenhangsmodellen zu gewinnen. Dies ist in diesem Dokument genau beschrieben. 

Der englische Guardian hat eine entsprechende Geschichte über prädiktive Analysen veröffentlicht: http://www.guardian.co.uk/science/2013/jul/01/how-algorithms-rule-world-nsa

Das Prinzip: Man sieht sich vorhandene Daten an, sucht nach inneren Zusammenhängen, die auch versteckt sein können, indem man geeignete statistische Verfahren anwendet (Stichwort: Strukturgleichungsmodelle) und kann dieses Modell darauf prüfen, wie gut es der Realität entspricht (Model Fit). Wenn dieser Model Fit hoch genug ist, taugt das Modell auch als Vorhersagemodell für zukünftige Zusammenhänge. Die Vorhersagekraft kann enorm sein, beängstigend und faszinierend zugleich, denn die Zusammenhänge sind ja tatsächlich, abgesehen von einer statistischen Fehlerwahrscheinlichkeit, tatsächlich vorhanden.

In vielen Lebensbereichen funktioniert predictive analysis sehr gut, gerade auch in kreativen Bereichen, von denen man naiv annehmen würde, hier kommt der menschliche freie, d.h. unvorhersehbare Wille zu tragen. Das ist offensichtlich nicht so.

So lässt sich mit guter Treffsicherheit vorausberechnen, ob ein Popsong eine Hit wird oder nicht. Ein Wedesigner names McCready entwickelte so ein Verfahren, das auf erweiterter Spektralkonvolution basiert.

Beschrieben sind solche Methoden, wie man oft liest, in „Automate This: How Algorithms Came to Rule Our World“ von Christopher Steiner.

Automate This: How Algorithms Came to Rule Our World

Der neue Webpresence Builder von Parallels

Wenn man eine neue Website erstellt, steht man immer vor der Frage, wie die technische Umsetzung aussehen soll.

Für eine recht große Zielgruppe gibt es Homepage-Baukästen. Sie versprechen einen schnellen Start ohne Programmierkenntnisse zu benötigen. Parallels, der Hersteller der Serveradministrationssoftware Plesk, hat nun eine neue Version des Webpresence Builders vorgestellt.

[su_note note_color=“#ffae66″]UPDATE vom April 2017: Dieser Beitrag stammt aus dem Jahre 2013. Mittlerweile ist die Version „Onyx“ von Plesk die aktuelle Version. Der Websitebuilder wird seit längerer Zeit nicht mehr weiterentwickelt. Auch Parallels setzt mit dem Plesk-Ökosystem nun auf WordPress und liefert mit dem WordPress ToolKit (» Dokumentation bei Plesk) einige Features, die den User beim Generieren einer Website mit dem meistverbreiteten CMS unterstützen sollen. Insbesondere das Verwalten von Themes und Plugins soll via Plesk besser kontrolliert werden können. Zudem sorgen die Tools für mehr Sicherheit, indem die WordPress-Installation vor Angriffen geschützt wird. Für WordPress findet man alle möglichen Add-Ons (Plugins) und Templates (Themes; diese zum Beispiel bei templatemonster.com/de). Man kann sagen, WordPress hat das Rennen um die Vorherrschaft gewonnen, auch wenn es User gibt, denen WordPress zu kompliziert oder überladen ist. Für diese Gruppe sind Online-Seitengeneratoren eine gute Alternative. [/su_note]

Natürlich kann man theoretisch einfach HTML-Anweisungen in ein Textfile schreiben, dies als HTML-Datei abspeichern und hochladen. Fertig ist das Webdokument.

Doch wer einige Mindeststandards einhalten oder einige bestimmte Funktionen abbilden muss, kann nicht jede HTMl-Code-Zeile mit der Hand schreiben.

Man kann dazu ein Contentmanagement System (CMS) installieren. Beliebt in diesem Bereich sind Joomla!, WordPress sowie Typo3 oder auch Drupal. Dann steht aber immer noch die Frage im Raum, wie die Website aussehen soll: Anzahl Spalten, Schriftart, Farbschema, Headerbild. Alles das wird mit dem Template festgelegt, wobei die CMS-Anwendungen meist schon einige benutzbare Templates integriert haben. Wer selbst ein Template erstellen will oder ein vorhandenes variieren möchte, muss sich dennoch mit HTML, CSS und Co. auseinandersetzen.

Zudem stellen sich noch weitere technische Fragen: CMS brauchen bestimmte Voraussetzungen auf dem Webspace, oft PHP als Skriptsprache und MySQL als Datenbanklösung.

Für eine Kundenkreis, der vor der Aufgabe steht, eine Website zu erstellen, aber überhaupt keine technischen Kenntnisse mitbringt, sind Homepage-Baukastenlösungen gedacht.

Bekannt in diesem Sektor sind:

  • Jimdo und das damit immer noch verwandte 1&1 Do-it-Yourself-Homepageprodukt
  • wix.com
  • das etwas in die Jahre gekommene Tool auf homepagebaukasten.de
  • easyPage, eine von goneo betriebene Adaption des (eingestellten) Produkts egoditor
Was viele nicht wissen ist, dass auch Parallels einen Baukasten anbietet. Parallels nennt ihn „Web Presence Builder“. Wie die vergleichbaren Produkte braucht man dafür nur den Browser, um eine neue Homepage zu erstellen. Ich habe den Webpresence Builder mit Googles Chrome getestet und keine Probleme oder Abstürze festgestellt.
Verfügbar ist der Web Presence Builder, wenn zum Beispiel die Serveradministrationsoberfläche Plesk eingesetzt wird und der Lizenznehmer das entsprechende Modul mitlizenziert hat. Für Endkunden ist der Parallels Web Presence Builder nicht direkt zugänglich. Der Weg führt über einen Hoster oder eine Agentur.
Jetzt gibt es die Version 11.5, die den Ansatz verfolgt, der an das 1&1 Produkt erinnert: Der neugebackene Webdesigner wählt aus einer recht langen Liste von Inhaltsvorlagen aus, für welches Thema oder für welchen Einsatzbereich er oder sie die Site braucht. Danach erstellt das System die Rohversion, doch einige Bild- und Textelemente, die man typischerweise in diesem gewählten Bereich gebrauchen kann, sind bereits inkludiert, zum Beispiel ein passendes Headerbild und einige Einzelseiten mit typischem Text.
Am Anfang also steht die Festlegung auf ein Thema, das dann das Aussehen (Design) der Site vorentscheidet:
Der Start: Man wählt ein entsprechendes Thema aus und füllt grundsätzliche Angaben in ein Formular ein.
Die Produktidee, der USP sozusagen, ist, dem User schnell zum Erfolg zu verhelfen und eine erste Website live zu bringen.
Der Webpresence Builder arbeitet mit einem Toolfenster, das sich im Browser dankenswerterweise auch verschieben lässt und auch minimiert werden kann. Es verschafft Zugriff auf die Hauptfunktionen: Seitenstruktur, Farbschema, Hinzufügen von Inhaltselementen und dergleichen.
In einer Art What-You-See-Is-What-You-Get werden die Änderungen angezeigt. Text kann man direkt an entsprechender Stelle eintippen und ein wenig formatieren.
Die Aufteilung der Seite lässt sich jederzeit wieder ändern. So kann man von einem zweispaltigen Layout auf eine zweispaltige Darstellung zurückschalten.
Die Vorder- und Hintergrundfarben lassen sich gezielt auswählen oder man wählt ein passendes Farbset aus.
Als nett empfand ich, dass sich die Ecken abrunden lassen. Dafür ist extra eine Option für nahezu jedes Gestaltungselement vorgesehen.
Wenn man seine Texte eingegeben hat, lässt sich das Ergebnis mit „Publish“ veröffentlichen und steht fortan im Web.
Solche Baukastensysteme sind natürlich immer ein Kompromiss aus Einfachheit in der Bedienung, Flexibilität und qualitativem Ergebnis hinsichtlich technischer und ästhetischer Kriterien. Entscheidend ist allerdings immer noch die Qualität des Ausgangstemplates.
Auf mich hat es den Eindruck gemacht, die Templates im Webpresence Builder wirken ein wenig antiquiert. Der optische Eindruck wird aber meiner Meinung nach stark durch die Qualität der Headerbilder beeinflusst. Mit tollen Bildern sieht die fertige Seite toll aus.
Dennoch wirken die Ausgangstemplates zum Beispiel bei wix für mich ausgearbeiteter, elaborierter. Hier zum Vergleich ein Template aus einer vergleichbaren Templatekategorie bei wix, und das sogar ohne optisch unterstützendes Bild:
Ich finde, Parallels hätte die Templates modernisieren und neu durchstylen können. Für einen ersten Auftritt ist das Tool allerdings auf jeden Fall brauchbar.
Ein interessantes Experiment wäre einmal, die verschiedenen Homepagebaukästen gegeneinander zu testen und zwar hinsichtlich ihrer Fähigkeit, in wichtigen Suchmaschinen zu ranken. Dieses Experiment kann ich nicht sofort durchführen, aber vielleicht mache ich dies demnächst mal.
Ich bin sicher, dass zum Beispiel Google einen Rankingfaktor aus dem Website-Generator gewinnt: Wer ein teueres Webdesigntool einsetzt, hat die Chance auf besseres Ranking im Vergleich zu Sites aus kostenlosen oder einfachen Generatoren.

 

Altavista: eine weitere Suchmaschine geht den Bach runter

Es hat sich wohl schon länger abgezeichnet, nun ist es amtlich: Die Suchmaschine Altavista wird es nicht mehr lange geben.

http://www.heise.de/newsticker/meldung/Yahoo-macht-Altavista-dicht-1908789.html

Damit ist die Suchmaschinenwelt um eine Alternative zu Google ärmer.

Altavista hat eine lange und wechselvolle Geschichte hinter sich. In den 90er Jahren des vergangenen Jahrtausends gehört Altavista zu den bekanntesten und leistungsfähigsten Volltext-Suchmaschinen.Gestartet aus einem Forschungsprojekt heraus und genutzt als Demonstration für Servertechnologie, hat Altavista im Laufe der Zeit versucht, sich von der Suchmaschine zum Portal zu wandeln, um sich dann wieder auf Suche zu fokussieren.

Hier ist ein Screenshot von 1996 (Screenshots von http://archive.org/)

Das Web und das Usenet konnte man mit Altavista durchsuchen. Altavista sprach von 275.600 Servern und 30 Millionen Webseiten, die damit durchsuchbar waren plus 4 Millionen Artikel in 14.000 Usenet Groups.

1997 sah Altavista nahezu genauso aus. Es kamen mehr Links und Contentelemente dazu.

Ein Jahr später hat Altavista Tabs eingeführt, um damit Spezialsuchen zu ermöglichen. Es gab eine „Business Search“ und eine „People Search“:

Screenshot 1999

Was ist passiert? Die Internetnutzung ist populär geworden und diese Zeit war die große Zeit der Portale und der Walled Gardens (AOL, Compuserve etc.). So wurde auch Altavista portaliger. Dahinter steckte sicher der Versuch, die Nutzer an die Marke zu binden, um den vielen Traffic, den Suchmaschinen damals hatten, zu monetarisieren. Der Versuch war, die User zum Klicken auf den Content zu bewegen, wo man mehr Werbung als auf der Startseite zeigen konnte.

Screenshot 2000
Der Portalansatz hat sich noch mehr durchgesetzt. Die Seiten wurden breiter und breiter. In der Version von 2000 konnte sich die Altavista-Website an die Breite des Bildschirmfensters anpassen. Es gab Spezialsuchen u.a. für MP3, Bilder und Video. 
Die Jagd nach Klicks wurde immer wichtiger: Wichtige Begriffe wurden oben unter der Suchbar platziert. Man hat Suchreiter eingeführt, Shoppinglinks wurden integriert und im zentralen Teil der Seite wurde der Katalog angezeigt. Links sieht man Newsheadlines und den Versuch, die Monetarisierung zu verbessern, indem man Aktionen und externen Content eingebunden hat. Die Suchfunktion als eigentliches Kernfeature geriet fast schon in den Hintergrund.  
Screenshot von 2001
Die Suchtabs wurden offensichtlich wieder aufgegeben, steigenden Bildschirmauflösungen und größeren Monitoren hat man Rechnung getragen. Das Design State of the Art zielte damals auf eine verschlankte Optik (weiße Ränder links und rechts) ab. Die Contentspalte wurde in der Mitte zentriert. 
Meiner Meinung steckte bei diesem redesign hier auch der Versuch dahinter, der Websuche wieder mehr Gewicht zu geben. Google ist im Jahre 2001 ungefähr 4 Jahre auf dem Markt und verzeichnet wachsende Erfolge. Die Portalstrategie von Altavista scheint nicht aufzugehen. 
In Erinnerung dürfte vielen noch der Altavistas Babelfish sein, ein Onlineübersetzungstool. 
2003 war ein entscheidendes Jahr für Altavista. Overture hat die Firma übernommen. Overture gehört zu Yahoo. 
Das Altavista Redesign von 2003 kehrt zu einer sehr schlichten Website mit der Suche im Mittelpunkt zurück – ein Paradigmenwechsel, sicher als Reaktion auf Googles Erfolg. Einige Kategorien werden mit Links darunter gezeigt. Die Suchtabs für die Spezialsuchen sind wieder da. 
Wie man in diesem Screenhsot von 2008 sieht, ist man diesem Weg treu geblieben. Das Directory (der von Redakteuren betreute Webkatalog) ist verschwunden. 
Ab 2010 wird einfach der Yahoo-Suchindex verwendet. Altavista ist nur noch ein Frontend. 
Noch ein bisschen reduzierter präsentierte sich Altavista zuletzt 2013. 
Nun zieht Yahoo den Stecker: Am 8.7.2013 geht Altavista offline. 

Google löscht Blogger.com-Sites, die sich mit Sex und Sexualität beschäftigen und Werbung zeigen

Wie Spiegel Online heute schreibt, beginnt Google damit, neue Content-Richtlinien bei blogger.com umzusetzen. Das bedeutet, Blogs mit „nicht jugendfreien Inhalten“ können gelöscht werden, und zwar dann, wenn Blogger mit nicht-jugendfreien Inhalten Geld verdienen wollen: „Erstellen Sie beispielsweise keine Blogs, bei denen ein erheblicher Teil des Inhalts aus Werbung oder Links zu kommerziellen Pornografie-Websites besteht“, heißt es in den Content-Richtlinien.

Dabei weiß aber niemand, was ein „erheblicher Teil“ ist: Ein Banner, ein Text, der sich werbend oder überhaupt mit einem Porno-Angebot auseinandersetzt?

Un was ist „nicht-jugendfrei“. Dieser Begriff ist nicht exakt definiert und Auslegungssache.

Wie sich die Richtlinien lesen, erlaubt Google wohl nach wie vor, explizite Inhalte, wenn der Blog entsprechend gekennzeichnet ist. Nur Geld soll man damit nicht mehr verdienen dürfen. Die Grenzen allerdings dürften fließend sein. Schon Links zu kommerziellen Pornoangeboten können problematisch sein und zur Löschung führen.

Wer entsprechende Blogs betreibt, sollte wohl besser an einen Umzug denken. Als Alternative empfiehlt es sich, die WordPress-Software selbst auf einem Hosting-Account zu installieren und die Inhalte zu migrieren. Das WordPress-Netzwerk unter wordpress.com hat übrigens ähnliche Restriktionen, was die Vermarketung von Erotikinhalten angeht. Tumblr Blogs werden in der Google Suche nicht angezeigt.

Neben WordPress, das viel kann, aber für viele Anwender schon überdimensioniert erscheint, gibt es seit einiger Zeit einige Alternativen, die einen sehr viel minimalistischeren Ansatz bieten: Dazu gehören Koken, Craft, Anchor und Dropplets.

Was man dafür allerdings braucht, ist ein Webhosting-Account, den man bei einem professionellen Anbieter nicht umsonst bekommen wird. Die Kosten bewegen sich im Bereich 3 bis 6 Euro pro Monat. Wer vorhat, mit den Inhalten Geld zu verdienen, sollte diese Investition auf sich nehmen.

Allerdings schließen auch manche deutsche oder europäische Hoster in ihren Nutzungsbedingungen erotische oder Ü18-Inhalte aus oder verlangen Aufpreise. Grund dafür ist Mehraufwand für das Supportteam aufgrund Beschwerden oder Ermittlungsersuchen staatlicher Stellen, die bei Erotikwebsites mit höherer Wahrscheinlichkeit zu erwarten sind.

Zudem muss man beachten, dass eine anonyme Veröffentlichung dann nicht mehr möglich ist: Wer eine eigene Domain betreibt, wird in die öffentlich zugänglichen Whois-Datenbanken eingetragen, mit Klarnamen und ladungsfähiger Adresse. Bei Blogger.com oder anderen gratis Blog-Diensten ist das nicht der Fall, so lange man keine eigene Domain hat. Allerings gibt es auch für solche Blogs eine Impressumspflicht, gerade dann, wenn man gewerblich tätig ist, d.h. eine Website mit Gewinnerzielungsabsicht betreibt. Das allerdings kann bei dieser Thematik dann aber auch ein Sicherheitsrisiko sein.

Adblocker als die neuen Gatekeeper

Adblocker Plus feiert: http://kress.de/tweet/tagesdienst/detail/beitrag/121261-adblockplus-dankt-verlagen-via-twitter-installationen-auf-adblockplusorg-129.html

Die Zahl der Downloads und Installationen ist nach oben geschnellt, nachdem einige Verlage einen Aufruf gestartet habe, keine Adblocker einzusetzen. Lange Mienen bei Verlagen, die sich mit der Begründung richtig Mühe gegeben haben, überschwängliche Freude bei der Adblocker-Community. Gipfel des Hohns: Die Aufforderung, Adblocker auszuschalten, wenigstens für diese Site, wurde ebenfalls als „unerwünschte Werbung“ klassifiziert und auch gleich geblockt.

Man kann natürlich nachvollziehen, dass User keine Werbung sehen wollen, wenn sie News oder andere aktuelle Meldungen im Web lesen wollen (so wie die RTL-, Pro7-, Sat.-…Zuschauer auch keine Werbespots sehen wollen). Aber das ist der Deal: Ohne TV-Spots kein DSDS, kein Dschungelcamp, kein How I Met Your Mother.

Die Frage bleibt dann nur: Wie soll könnte man dann ein entsprechendes Webangebot finanzieren? Konsequent wäre: Wird ein Adblocker festgestellt, wird die News-Site nicht mehr ausgeliefert, weil die Geschäftsgrundlage fehlt. Doch ich glaube nicht, dass die Verleger sich das trauen. Zuviel Sichtbarkeit steht auf dem Spiel.

Der Einsatz von Blockern kann zu einem technischen Wettlauf führen. Große Advertiser wie Amazon, Zalando und Ebay werden technische Mittel und Wege finden, Adblocker zu stören, wenn die Verbreitung steigt. Die haben genug technische und finanzielle Ressourcen dafür. Mittelgroße und kleine Shopbetreiber können dagegen gleich aufhören, mit Display Ads (Banner und so) zu werben, wenn die Ads in den nicht mehr ausgeliefert werden. Adblocker spielen also den großen Retailern in die Hände.

Eine andere Strategie wäre, Werbung und Information einfach so stark miteinander zu vermischen, dass die Adblocker nicht mehr unterscheiden können, was ungeliebte Werbung ist und was nicht. Ein Advertorial ist heute zum Beispiel nur schwer von einem echten journalistischen Beitrag zu unterscheiden ehe man sich einige Sätze durchgelesen hat.

Noch eine andere Strategie sind Paywalls in Form von Abos. Dann allerdings ist es vorbei mit freien Zugriffen auf Artikel, denn man muss vorher ein langlaufendes Abo abschließen, obwohl man nur mal in den Artikel reinlesen wollte, den man per Suchmaschine gefunden hat. Mit wissenschaftlicher Literatur ist dies heute schon ein Riesenproblem.

Von wegen freier Wissenszugang durch das Web: Wir werden Contents lesen, die nur noch als Teaser formuliert werden. Wir werden Texte lesen, die nur zu Contentmarketingzwecken als Suchtrafficfänger entstehen, nicht geschrieben von Journalisten, sondern von Content Managern, die wissen, wie man mit dem IDF/WDF Ansatz korrekt umgeht, damit das Keyword nicht zu wenig und nicht zu oft darin vorkommt.

Je mehr sich die Adblocker Installationen verbreiten (und Browserhersteller wie Firefox und MS mit dem Internetexplorer wetteifern da gerne mit, gerade wenn es um 3rd Party Cookies geht), desto mehr werden die Adblocker Hersteller zum Gatekeeper und könnten ein Geschäftsmodell daraus machen: Wer durch will, muss zahlen.

Erste Ansätze, die Gatekeeper-Muskeln spielen zu lassen, gibt es ja in Adblocker Plus auch schon: Es gibt den Acceptable Ads Filter, der Ads von Doubleklick (Google) und Amazon durchlässt. Andere Werbenetzwerke wie Adscale oder Adjug fehlen da. Auch Zanox und Affilnet sucht man vergeblich, die Netzwerke also, mit denen Hunderte von kleinen Webseitenbetreibern wie Blogger versuchen, wenigstens einige Euro pro Monat mit Klicks auf Ads zu erlösen.

War und ist das so wünschenswert?

UPDATE 
Heute erschien eine Heise-Meldung, die sich mit Adblock plus befasst und Vorwürfe wiedergab, wonach Adblock plus sich für dennoch durchgeleitete Werbung (Whitelist) bezahlen lässt. Sie berichten über Recherchen von Blogger Sascha Pallenberg, der über die Hintergründe berichtet.

Wenn das stimmt, kommen bestimmte Werbetreibende auf eine Whitelist. Allerdings bekommt Adblock plus über ein Affiliatesystem dann 30 Prozent.

UPDATE 24.7.2013
Natürlich reagiert der Werbemarkt auf Versuche, Ads unsichtbar zu machen, denn wieso sollte man als Werbetreibender für Ads bezahlen, die keine sieht?

Sogenannte „Native Ads“ sind stark in die eigenen Webseiten integriert und liegen, anders als Werbeformate wie Banner oder Textads auf der eigenen Domain.
http://onlinemarketing.de/news/erfolgsrezept-native-advertising-aus-sicht-der-publisher

Stellt sich natürlich die Frage, wie Content und Werbung dann noch zu trennen sind. Auch für Suchmaschinen ist dies eine wichtige Frage. Entsprechend deutlich warnt Google schon vor dem Einsatz von Advertorials, eine Art Prototyp von Native Ads. 

Veröffentlicht am 29.05.2013
Matt Cutts, head of the webspam team at Google, talks about advertorials.

NSA-Schnüffelskandal: Ändert dies an der Nutzung von Facebook oder Twitter etwas?

Den meisten Internetusern dürften die Enthüllungen von Snowden zum ersten Mal bewusst gemacht haben, dass Internetkommunikation alles andere als vertraulich ist. Dass eine E-Mail zirka so vertraulich ist wie eine Postkarte damals im analogen Zeitalter, war einigermaßen bekannt.

Aber auch alles weitere, was über Social Networks ausgetauscht wird, SMS (Whatsapp etc. eingeschlossen) oder per Mobiltelefon versendet bzw. empfangen wird. durchläuft zumindest potentiell die Scanner spezialisierter Geheimdienste, wird möglicherweise dauerhaft gespeichert, bewertet und miteinander verbunden.

Spannend ist doch nun, wie die Internetöffentlichkeit darauf reagiert, von einer Empörung einmal abgesehen. Eigentlich, so würde man erwarten, sollten die Nutzerzahlen in Facebook weltweit zurückgehen, und zwar so deutlich, dass man das in Nutzerstatistiken deutlich sehen kann.

Schauen wir uns die aktuelle Statistik der Facebooknutzung an, so wie sie allfacebook.com veröffentlicht:

Noch wächst Facebook in Deutschland. Sollte eine breite Verunsicherung eintreten, wird man wohl in wenigen Wochen eine Delle in den Zuwachsraten sehen müssen. 
Umgekehrt: Viele Contents werden gerade wegen der Sichtbarkeit veröffentlicht. Die meisten User stellen und teilen Inhalte, damit andere User sie sehen. 
Noch spannender wäre es, festzustellen, ob persönlichere und vertrauliche Informationen nun verstärkt entfernt oder zurückgehalten werden. Dazu gibt es aber offensichtlich keine Metriken, zumindest keine öffentlichen.   

Beispiele für Internet-Schmäh-Artikel

Ich will hier mal eine kleine Sammlung von Artikeln aufmachen, die sich im weitesten Sinne mit dem Thema „Web“ oder „Internet“ beschäftigen und von denen ich meine, dass entqweder mit schneller Feder geschrieben worden sind (z.B. aus Hörensagen oder Halbwissen heraus), ohne saubere Quellennennung oder Tatsachen falsch abbilden(auch unter gezielter Weglassung wichtiger Aspekte.

Vergangene Woche Woche ist mit ein Webbbashing-Artikel unter der Überschrift So stoppen Sie Facebook-Werbung mit Ihrem Namen aufgefallen, der mittels Contentsyndication auf Welt online lief.

Darin warnt der Autor in dem von Computer Bild übernommenen Artikel davor, personalisierte Anzeigen in Facebook zuzulassen, denn „damit verdient Facebook viel Geld“ und außerdem sei das „perfide“, denn der Betreffende sieht die Anzeige gar nicht. Also beschreibt er, wie man in die Privacyeinstellungen geht und dort die „soziale Reklame“ verhindert.

Formulierungen wie „viel Geld verdient“ müssten schon konkretisiert werden: Wieviel denn? Und hat man Facebook nicht gerade erst vorgeworfen, kein tragfähiges Businessmodell zu haben?

Und: Was eigentlich ist der Punkt? „Soziale Reklame“ kommt nicht zufällig zustande. Man müsste in solchen Artikeln eben auch Facebook fragen, was es sich dabei denkt, wie die Anzeigen zustanden kommen usw. Das wäre deutlich sauberer.