Autor: Markus Käkenmeister

  • Traffic, den man nicht so gerne sieht

    Es fällt ja schon auf, wenn neue Links in den Referrern stehen und nicht nicht nur die üblichen verdächtigten. Natürlich sieht man dann nach, was das für eine Site ist. Im Fall von ourmeets (dot) com ist das eine Pornoseite der hässlicheren Art, die so einfach ein bisschen Traffic generieren will – einfach weil man den Link mal aufruft.

    Das ist schon anderen Blogbetreibern aufgefallen:
    http://pithybits.blogspot.de/2013/10/why-is-ourmeetscom-visiting-my-website.html 
    http://from-the-sidelines.blogspot.de/2013/10/again-with-spam.html

  • Ghost – einfach nur bloggen, aber erst mal installieren!

    Ghost – einfach nur bloggen, aber erst mal installieren!

    Einfach nur Bloggen – das ist die Leitidee der Macher der
    neuen Blogsoftware Ghost.
    Ghost unterliegt wie viele andere Bloganwendungen einer
    quelloffenen Lizenz. Jeder kann mit- und weiterentwickeln und – eigentlich ist
    das ein Nebeneffekt – die Software kostenlos verwenden.
    Ghost ist nun öffentlich verfügbar. Wer jedoch glaubt, es
    genüge, eine Zip-Datei herunterzuladen, diese zu entpacken, auf einem
    Serverspeicherplatz abzulegen und „install.php“ auszuführen, wird enttäuscht. 
    Ghost baut nicht auf PHP, sondern auf dem Node JS – Framework auf. Als
    Datenbank ist standardmäßig SQLite vorgesehen, aber auch mit mySQL funktioniert
    das. Node JS verwendet einen eigenen http-Server.
    Das hat einige Konsequenzen.

    Server benötigt Node.js 

    Zunächst muss der Server, egal, ob er unter Windows, MacOS
    oder Linux läuft, node.js unterstützen. Falls dies nicht der Fall ist, muss man
    die Installation vornehmen. Das ist von System zu System unterschiedlich. Ich habe
    versucht, Ghost auf einem virtuellen Server mit Debian Linux zu installieren
    und musste node.js natürlich zunächst nachinstallieren. Node.js ist auch noch recht frisch. Daher ändern sich die Releases schnell. Die offiziellen Repositories der Distributionen könnten veraltet sein. Vielleicht ist ein Selbstkompilieren hier tatsächlich besser. 
    Für meinen virtuellen Server
    habe ich mich nach dieser Installationsanleitung gerichtet, was gut geklappt
    hat: http://www.sysadminslife.com/linux/howto-node-js-installation-unter-debian-squeeze-wheezy-ubuntu/
    Zunächst habe ich versucht, Git zu verwenden, was ich auch
    erst nachinstallieren musste. 

    Installation auch über git möglich 

    Da die Installation von Git auf dem V-Server
    nicht reibungslos lief, habe ich die Installationsprozedur per Zip-Datei gewählt.
    Ich habe das Installationspaket von github geladen, aber später gesehen, dass
    Bitnami schon einen fertigen Stack bereit hält, was ich jedoch nicht
    ausprobiert habe: http://bitnami.com/stacks
    Wenn Node.js installiert ist, kann man sich an die
    Installation von Ghost wagen. Also: Datei hochladen, entpacken (oder je nach
    Geschmack auch umgekehrt), und dann in die Konsole (ich habe das als Root
    vorgenommen) den Installationsbefehl ausführen: npm install –production .

    Weird error 8

    Mit „NPM Start“ kann man dann sehen, ob sich Ghost starten
    lässt. In den meisten Fällen, wenn man nicht gerade auf einem lokalen PC oder
    Notebook installiert, wird man Fehlermeldungen erleben. Ich zum Beispiel
    erhielt immer „Weird Error 8“, was auf Konfigurationsfehler hindeutet.
    Tatsächlich muss man in der config.js, die ich mit VI
    bearbeitet habe, die Server-IP eintragen. Der standardmäßig eingetragene Port, 2368,
    hat auf meinen VServer-Umfeld nicht funktioniert. Die URL lieferte einen
    404-Fehler. Zudem soll ich den Apache stoppen, sagt ein Forumsbeitrag. Als Port habe ich 8080
    gewählt. Mit diesen Parametern funktionierte der Aufruf auf die Startseite von
    Ghost dann. Und auch der Apache ließ sich auf der gleichen virtuellen Maschine parallel betreiben. In diesem experimentellen Betrieb habe ich zumindest kein Stabilitätsproblem gesehen. Klar ist aber: Beide, also Apache oder Node.js können nicht auf Port 80 koexistieren. 

    Andere Basistechnologie – bessere Performance? Es scheint so. 

    Grundsätzlich ist die Herangehensweise und die
    Basistechnologie ganz anders und überhaupt nicht mit WordPress, Joomla oder
    auch Drupal vergleichbar. Der Installationsaufwand erinnert an die frühen Tage
    von Typo3. Auch damals mussten viele serverseitige Voraussetzungen erfüllt
    sein, viele Konfigurationen waren vorzunehmen und das System lief längst nicht
    auf normalen, handelsüblichen Shared-Hosting-Accounts. So ist es auch mit
    Ghost. Man braucht definitiv Zugang zu den Serverressourcen, um Node.js
    nachzuinstallieren. Kaum ein shared hoster stellt node.js defaultmäßig bereit.
    Wenn man die URL mit /ghost ergänzt, gelangt man ins
    Backend. Hier soll man sich einen Blog-Account mit Namen und E-Mailadresse
    anlegen. Der Mailtransportdienst kann in der Konfigurationsdatei festgelegt
    werden, so dass der Accountinhaber benachrichtigt werden kann.
    Dann kann man bereits versuchen, seinen ersten Blogbeitrag
    zu erstellen und zu posten.
    Ghost zeigt zwei Ansichten, das heißt unterteilt das
    Browserfenster in vertikaler Richtung. Links gibt man den zu bloggenden Text
    ein. Dabei kann man Markup verwenden, um die Formatierungen auszuzeichnen oder Bilder
    einzufügen. Komfortablerweise gibt es dafür auch Tastaturshortcuts.
    Auf der rechten Seite des Eingabebildschirmfensters sieht
    man dann eine Vorschauansicht, die sich selbst und das sehr schnell
    aktualisiert.
    Überhaupt fällt auf, dass die Eingaben sehr schnell umgesetzt
    werden. So typische leichte Latenzen, die man spürt, wenn man auf geteilten Servern
    Wordpress oder auch Joomla administriert, sind hier überhaupt nicht zu
    erfahren. Alles läuft flott und ohne Hänger. Möglicherweise ist das der große
    Vorzug gegenüber etablierten Systemen und Basistechnologien wie PHP.
    Die von mir verwendete Version Ghost 0.3 bringt bereits eine
    RSS-Funktion und Social Share-Features mit. Es ist ein Template in den
    Installationsdateien vorhanden, das sich interessanterweise responsiv verhält,
    also auch auf meinem iPhone 4S sehr schnell und anders umgebrochen angezeigt
    wurde und von der Aufteilung und der Ästhetik her an Google Plus erinnert. Es gibt
    aber auch schon eine Hand voll anderer Themes. Sogar schon einige Plugins gibt
    es, u.a. für eine Migration von WordPress auf Ghost via eines JSON Files.

    Serverseitiges Javascript scheint Performancevorteile zu bringen

    Momentan gibt es in Ghost nichts, was WordPress und Co nicht
    auch könnten. Spannend wird es, wenn es um die Performance geht. Ghost läuft
    viel flüssiger, möglicherweise aufgrund der Node.js Basistechnologie, die ja
    bekanntermassen auf einer ressourcenschonendes Javascript-Laufzeitumgebung
    basiert oder auch nur deshalb, weil in Ghost noch nicht so viel „drinsteckt“
    wie in WordPress. Ich vermute aber, Node.js hat an der Performance einen großen
    Anteil. 

    Keine Chance mit Shared Hosting 

    Dennoch kann Node.js am Beispiel von Ghost nun zeigen, was
    es kann: Am PC ist Ghost genauso flüssig zu bedienen wie Mircosoft Word, wobei
    ich mit dem eigentlich sonst recht behäbigen virtuellen Server auf einer mit
    einem XEON Quadcore mit 3,20 GHz-Takt und 12 GB RAM bestückten Maschine verbunden
    bin, die wohl irgendwo in einem Datacenter in Strassbourg steht.  Zumindest habe ich den Eindruck, dass Node.js
    hier wirkliche Experience-Vorteile liefert, sowohl für den Administrator als
    auch für den User, der durchs Blog surft.

    Die Macher von Ghost arbeiten an einem hosted Service wie
    blog.wordpress.com. Aber auch für viele andere Hostingdienste gibt es bereits
    fertige Images, wie zum Beispiel für Amazon oder Rackspace. 
    Über ghost: https://en.ghost.org/ 
  • „Not provided“: Bald gibt es keinen Such-Keywordbericht mehr

    „Not provided“: Bald gibt es keinen Such-Keywordbericht mehr

    Im amerikanischen Blog von searchengineland.com war es bereits zu lesen: Google wird – mit der Argumentation, die Google-Such in Zeiten von PRISM, diskreter zu machen – keine Reports mehr ermöglichen, die erkennen lassen, mit welchen Suchbegriffen die Besucher auf die eigene Website gelangt sind.

    Der Anteil der nicht zuordenbaren Suchanfragen, die in Google Analytics mit „not provided“ ausgewiesen werden, ist in den letzten Monaten kontinuierlich gestiegen. Die Kurve der besuche durch die organische Suche und die Kurve für die anzahl unbekannter Suchbegriffe nähert sich kontinuierlich an, wie jeder in seinem Analytics Konto nachvollziehen kann:

    Bald wird der Anteil nicht zugeordneter Suchbegriffe 100 Prozent betragen. Das hat Google inzwischen auch bestätigt.

    Google bezeichnet diese Änderung als eine „Post-PRISM“-Maßnahme:
    http://searchengineland.com/post-prism-google-secure-searches-172487

    Kaum einer nimmt Google ab, dass man sich tatsächlich hauptsächlich Sorgen um den Datenschutz der Nutzer macht.

    Der wahre Grund, so vermuten viele, könnte eher der Versuch sein, das Adwords-Programm weiter zu beflügeln. Wer Adwords bucht, erhält nach wie vor Angaben darüber, mit welchen Suchbegriffen die User auf der Website landen. Natürlich kostet Adwords Geld – pro Klick eine Summe, die hauptsächlich davon abhängt, wie viele andere Anbieter Anzeigen präsentieren wollen, die erscheinen, wenn jemand mit einem festgelegten Keyword oder einer ganzen Phrase etwas mit Google sucht.

    Auch in den Google Webmaster Tools werden Suchbegriffe gezeigt, die dazu führen, dass die entsprechende Domain in der Suchergebnisliste auftaucht. Die Darstellung ist aber eine andere: Gezeigt wird nicht, welche Treffer der User in einer Suchergebnisliste geklickt hat, sondern welche Keywords zu einer Ausweisung als Suchtreffer geführt haben. Damit verliert sich aber die Spur. Als Seitenbetreiber kann man nicht mehr verfolgen, welche Keywords für eine Conversion wichtig sind.

    Was bleibt also, um Recherche nach wichtigen Keywords zu betreiben?
    Man muss die Google Suchergebnisseiten nach eigenen relevanten Keywords durchsuchen und ermitteln, welche URL als Suchergebnis gezeigt worden ist. Das heißt, man muss massenhafte Anfragen an Google schicken und die Suchergebnisse auf die eigene Domain filtern. Oder entsprechende Tools benutzen, die aber durch die Bank Geld kosten. Ausserdem mag Google kein „Scraping“ seiner Suchergebnisseiten.

    Zudem kann  man die Angaben aus Analytics mit denen aus den Webmastertools vergleichen. In den Webmastertools werden Impressions und Clicks für die Top-Keywords gezeigt. Was für die Webmastertools die „Clicks“ sind, ist für Analytics ein „Visit“.

    Offensichtlich liefern die Webmastertools nach wie vor Keyword-Daten, wenn auch stärker vergröbert als Analytics dies tat. Nun könnte man durch geschicktes Parallelreporten und Vergleichen versuchen, den Block „not provided“ oder künftig „organic“ aufzulösen.

  • Psychologie: Warnhinweise auf Produktverpackungen können Verkäufe sogar erhöhen

    Verkehrte Welt: Eigentlich sind die gesetzlich vorgeschriebenen Aufschriften wie „Rauchen kann töten“ auf Zigarettenpackungen dafür gedacht, Leute davon abzuhalten, Zigaretten zu konsumieren.

    Die Wirkung der drastischen Texte, die vor dem Produkt warnen,kann allerdings paradox sein: Der Psychologe Ziv Camon hat einen Effekt gefunden, nach der Konsumenten die Produkte positiver bewerten, wenn es einen gewissen zeitlichen Abstand zwischen dem Warnhinweis und der Kaufentscheidung gibt. Die Verkaufszahlen können so ironischerweise befeuert werden.

    In einem vierteiligen Experiment hat man ermittelt, dass Versuchpersonen, die Raucher waren, und die entsprechende Warnhinweise gesehen hatten, erwartungsgemäß weniger Zigaretten kauften, wenn Sie unmittelbar danach die Gelegenheit hatten.

    In einer Vergleichsgruppe, in denen die Versuchspersonen Warnhinweise zu sehen bekamen, aber erst einige Tage später Zigaretten kaufen konnten, zeigte sich ein anderes Bild: Unter diesen Umständen haben die Versuchspersonen mehr Zigaretten verkauft.

    Man fragt sich also, wie dieser Effekt denn zu erklären ist. Ein Vorschlag von Camon und seinem Forschunsgteam beruht auf der Annahme, dass mit der zeitlichen Distanz die Gefahr abstrakter erscheint und die Warnhinweise stärker als eine Art Signal für das fürsorgliche Verhalten des Herstellers betrachtet wird.

    Der Artikel über die Forschungsarbeit ist hier erschienen:
    http://www.psychologicalscience.org/index.php/news/releases/warning-of-potential-side-effects-of-a-product-can-increase-its-sales.html

  • Black Hat SEO Methode im Trend: Websites hacken, um Links zu platzieren

    Black Hat SEO Methode im Trend: Websites hacken, um Links zu platzieren

    Besondere Vorsicht ist derzeit geboten, wenn Ihr für die
    Website ein CMS einsetzt.
    Ich sehe auf meiner Website zunehmend mehr blinde Anfragen
    auf URLs mit dem Referrer „baidu.com“. Die Zugriffe gehen auf bekannte
    Admin-URLs von verbreiteten und nicht so verbreiteten Content Management
    Systemen.
    Hier sind einige Beispiel von Zugriffen, die ich in den
    vergangenen 24 Stunden gesehen habe:
    http://www.kaekenmeister.de/images/default/publict.css
    http://www.kaekenmeister.de/HX_login.asp
    http://www.kaekenmeister.de/templates/main/default/space_reviews.htm
    http://www.kaekenmeister.de/install.php
    http://www.kaekenmeister.de/www/admin/templates/install/register-step.html
    http://www.kaekenmeister.de/cuteeditor_files/Scripts/spell.js
    http://www.kaekenmeister.de/css/eyou.css
    http://www.kaekenmeister.de/index.php
    http://www.kaekenmeister.de/core/modules/article/assistant/templates/article_list.htm
    … und viele viele mehr.Alle führten auf 404, so dass ich das zeitnah mitbekomme. Ich denke aber, es gibt viele Webseitenbetreiber, denen würde eine Veränderung Ihrer Site gar nicht so schnell auffallen.
    Leider werden die IP Adressen bei meinem Hoster aus Datenschutzgründen nicht in den Logfiles gespeichert, so dass ich den IP Adressblock nicht einfach weg filtern kann. Und
    wenn die Anfragen von einem Botnetz kommen, dann hilft das sowieso nichts.
    Die Anfragen so gezielt, dass ich befürchten muss, dass man
    auch in meinem CMS eine Schwachstelle findet.
    Was also könnte helfen?
    Da meine Website sich nur an deutsche User richtet, könnte
    ich den Zugriff aus asiatischen, chinesischen, russischen IP-Adressblöcken per .htaccess
    Datei sperren. Das scheint mir jetzt etwas übertrieben zu sein.
    Ich möchte
    lieber eine gemeinsame Eigenschaft dieser Anfragen nutzen: Alle Anfragen kommen
    mit dem Referrer baidu.com, der chinesischen Suchmaschine. Es scheint also ein
    Hackertool  geben, das diesen Referrer
    als Standardeinstellung hat. Also versuche ich, den Traffic jetzt mit der
    .htaccess Datei so zu blockieren:
    order allow,deny
    deny from .baidu.com
    allow from all
    Die Aufrufe haben offensichtlich das Ziel, a) festzustellen,
    welches System läuft und b) potentiell vulnerable Elemente in einem
    Zielverzeichnis zu finden. Wenn eine als verletzlich bekannte Datei gefunden
    wird, erhält der anfragende Client eben „sucess“ und nicht 404. Dann kann das
    Hacktool hier weitermachen.

     

    Wahrscheinlich werden viele Websites überhaupt nicht so
    stark verändert, dass schadhafte Codes ihrer Wirkung entfalten können – wie etwa
    eine Phishingseite zu platzieren. Ich denke, dass die Hackscripts versuchen,
    einige Links zu platzieren. Die werden dann verkauft. Das kann aussehen wie auf
    dieser Seite:
    Ein völlig automatisiertes, algoritmisches Verfahren also.
    Es wird wohl nur helfen, immer wieder ein Backup herzustellen und immer die neuste Version des CMS zu verwenden. Ansonsten gibt es seit einiger Zeit die S-Initiative vom Branchenverband eco, Bundeswirtschaftsministerium und einigen Internetfirmen. Man kann sich dafür kostenlos anmelden, einen Securitycheck ausführen zu lassen. S-Initiative schickt dann täglich einen Crawler auf die Website und sendet eine E-Mail, falls schädliche Code-Elemente auf der Startseite gefunden werden.
  • Kommt die Nischengesellschaft wieder?

    Die Ausfrage diese Post war, wie es sich auf die Gesellschaft im Sinne von Verhaltensänderung ihrer Mitglieder auswirkt, wenn alle sich bewusst sind, permanent mit allen Internet- und Mobile-Aktivitäten überwacht werden zu können.

    Gar nicht ist die eine Hypothese, die man öft hört und die sich vielleicht mit der Phrase „ich habe nichts zu verbergen“ pointieren lässt.

    Meine These war, das Kommunikationsverhalten ändert sich langsam, aber nachhaltig, was gesellschaftliche Auswirkungen haben kann. Es bilden sich womöglich Nischen, so wie man Nischen in autoritären, hoch-kollektivistischen Gesellschaften kennt.

    Eine solche Nische könnte das sein, was Telepolis mit „Darknet“ bezeichnet.

    UPDATE 29.7.2013 – Telepolis Beitrag zum „Darknet“
    Es gibt keine eindeutige Definition davon, was man mit „Darknet“ meint. Letztendlich scheinen solche Zuschreibungen wie „verschlüsselt“, „nicht durchsuchbar“, „abgetrennt vom ’normalen‘ Internet“.

    Zitat:

    Einem notwendigen, verlässlichen, rechtsicheren, vertrauenswürdigen
    kommerzialisierten und überwachten Teil (dem „Internet“) und einem
    unzuverlässigen, rechtlosen, anonymen, dafür freien und nicht
    zensierbaren Teil (dem „Darknet“, optimalerweise so konstruiert, das
    seine Nutzung abstreitbar ist).

    UPDATE 22.07.2013 – der Freitag hat eine ähnliche Geschichte veröffentlicht.
    http://www.freitag.de/autoren/der-freitag/uns-steht-eine-neue-netzguerilla-bevor 

    Der Autor sieht aber eher eine Art Radikalisierung, weniger einen Rückzug und nimmt Bezug auf Cypherpunks von Julian Assange, Jacob Appelbaum, Jérémie Zimmermann und Andy Müller-Maguhn:

    Nur „eine Elite von High-Tech-Rebellen“, heißt es in Cypherpunks, sei in der Lage, sich dem „Moloch Überwachungsstaat“ zu entziehen. 

    und weiter:

    Vielleicht müssen wir das Internetzeitalter künftig in eine Zeit vor und
    in eine Zeit nach Snowden einteilen. Die Zeit der Happenings und des
    spielerischen Umgangs mit dem Netz ist jedenfalls vorbei. Den
    Netzpolitikern, die seit Jahren mit zäher Kleinarbeit und demokratischen
    Mitteln für ein freies Internet kämpfen, erwächst daraus eine neue
    Verantwortung: Sie müssen den radikalisierten Gruppen – die sich mit
    Kleinkram nicht mehr abspeisen lassen werden – eine überzeugende
    Alternative anbieten.

    Warum eigentlich passiert gerade keine Revolution? Warum lassen sich die Untertanen die Überwachung offensichtlich gefallen und der Regierung jede Nicht-Aktivität in dieser Angelegenheit durchgehen? Das fragt sich unter anderem Jakob Augstein in seiner Rubrik auf Spiegel online.

    Faulheit, Bequemlichkeit, sagen die einen. Fehleinschätzung, sagen andere, zum Beispiel Sascha Lobo. Es ginge um nichts geringeres als den freien Willen, so Viktor Mayer-Schönberger in der Zeit.


    Wir fühlen uns nicht durch Algorithmen bedroht, weil wir zur Zeit kein Unterdrückungsregime sehen, das dieses potentielle Machtinstrument gegen die Bevölkerung einsetzen will. Dennoch ist es sehr erstaunlich, dass die Haltung „Ich habe nichts zu verbergen“ oder „ist doch nicht schlimm“ im gleichen Kulturkreis der Häuserverpixeler artikuliert wird. Die Deutschen sind doch eigentlich alles andere als transparent, wenn es um Gehalt oder Reichtum geht. Das darf doch keiner wissen, höchstens erahnen, um den gesellschaftlichen Status zu proklamieren (man trägt Rolex, fährt einen SUV). Biedermann und die Brandstifter.

    Überwachung riecht man nicht und sieht man nicht

    Außerdem haben wir Menschen keine Sinne dafür, wir können Ursache und Folge der Entwicklung nicht abschätzen, weil diese zeitlich weit auseinanderliegen und wenig linear zusammenhängen.
    Manche reagieren darauf mit Angst, andere – offensichlich die meisten – mit Ignoranz. Hätten wir Sinne für die Gefahr der Überwachung, zum Beispiel, dass schwarzer, übelriechender Qualm aus der Tastatur austritt, wir würden sofort reagieren.

    Reaktion wird erfolgen

    Ich denke, die internetnutzende Bevölkerung wird reagieren, so wie einige (wenige) anfangen, ihre Daten zu verschlüsseln, US-Anbieter zu meiden oder sich sogar Gedanken machen, inwiesweit sie ihren Internettraffic beeinflussen können. Ein Tool zum Tracen und Visualisieren der Route gibt es bei Opendatacity.de

    Wir wissen jetzt, dass viele Stellen mithören können, algorithmisch, auch nachträglich. Lässt uns das kalt? Schleichend aber sicher werden wir die naive Begeisterung an Social Media und Smartphone Apps verlieren, weil wir wissen, die Beschäftigung damit kann gegen uns verwendet werden, eines Tages vielleicht.

    Privates wird wieder privater. Wir bloggen nicht mehr über kritische Einsichten, wir teilen keine schwer verständlichen Stimmungen oder Bilder mehr, weil wir den Adressatenkreis nicht mehr kennen und abschätzen können.

    Nischengesellschaften

    Wir unterscheiden wieder: Hier das Öffentliche oder Halböffentliche, hier das Private. Die Frage ist nur – wie findet das Austauschen des Privaten statt? Das Öffentliche wird Kommunikation zweiter Klasse. Nischengesellschaften entstehen, vielleicht wie damals in der DDR mit der allgegenwärtigen Überwachung durch die Stasi und ihre IMs, vermeintliche Freunde und Kollegen. Jeder Brief, jedes Telefonat, jedes Treffen überwacht.

    Ende von Social Media?

    Wahrscheinlich bilden sich Zufluchten und Zirkel, in der es keine elektronische Kommunikation gibt. Für die Social Community Idee wird dies ein heftiger Rückschlag werden. Die Idee, Einsichten, Ideen, Erfahrungen mit einem ausgesuchten Kreis zu teilen, wird leiden. Social Media Plattformen werden komplett zur Promotionmaschine, nicht weiter. Schade eigentlich.

    Meetings statt Videokonferenzen

    Firmen werden wieder auf das direkte Gespräch setzen, auf Besprechungen, bei denen Datenbrillen verboten sind. Videokonferenzen, teilweise als das Heil gegen teuere Geschäftsreisen gefeiert, werden eine Renaissance erleben und dem Staat traut man wieder ein Stück weniger.

    Privatleute treffen sich in sehr privaten Räumen. Das muss geplant und anvisiert werden. Big Brother sieht die Aktivitätszunahme, kennt aber nicht mehr den Inhalt. Ein menschlicher Spion müsste los.

    Subnets und private Netze

    Daneben, neben dem großen Kommerzweb entstehen neue Netze dadurch, dass sich Enthusiasten oder Untergrundaktivisten zusammenschalten. Direct Connect könnte ein Beispiel dafür sein.

    Es wird eine Revolution stattfinden, aber keine schnelle. Keine, die von heute auf morgen Spuren hinterlässt und Auswirkungen augenfällig macht. Die Begeisterung für Cloudcomputing wird schwinden, wir setzen wieder auf installierte Software und physikalisch verfügbare Datenträger und geteilt wird nicht mehr. Das könnte der gerade aufkommenden Share-Economy einen gehörigen Dämpfer versetzen.

    Die Umstellung dauert

    Das dauert deswegen so lange, weil man sich erst wieder umstellen muss, doch der Anfang ist gemacht. 

  • So wird man die Pest von „delta-search.com“ wieder los

    So wird man die Pest von „delta-search.com“ wieder los

    Es gibt immer mehr Freeware-Angebote, die nach dem Herunterladen und Installieren ungefragt einige zusätzliche Komponenten mitinstallieren. 

    Das passiert bei Downloads von CNET, Softonic und anderen Sites, denen man bisher eigentlich vertrauen konnte. Das scheint Vergangenheit zu sein. Heute heißt es: Augen auf bei der Freeware-Suche. 
    Wichtig, wenn Sie Freeware herunterladen und installieren: Im Laufe der Installation sollte man es vermeiden, auf Schnellinstallationslinks wie „Quick Install“ zu klicken. Das kann bequem sein, aber installiert viel Unnützes und eventuell auch Gefährtliches mit. 

    Beim Installieren von Freeware unbedingt die „Advanced“ – Option nutzen, sonst gelangt allerlei Softwaremüll ins System. 
    Es handelt sich oft um beliebte consumernahe Software, wie etwa Bildverabreitungstools, Formatwandler und so weiter, Dinge, die man alltäglich einfach ab und an braucht.

    Sogar im Advanced Installationsdialog muss man die Anweisung sehr genau lesen, sonst wird die Malware der Installation doch noch hinzugefügt. So muss man in einem Beispiel auf „no“ klicken, statt auf das gewohnte „OK“.

    Augen auf auch im Installationsdialog. Sonst bekommen Sie allerhand Adware und Malware untergeschoben. 

    Einer der aggressivsten Malwareinstaller ist zur Zeit delta-search:

    – delta-search klinkt sich als Toolbar in jeden Browser, den Sie installiert haben

    – außerdem wird delta-search die Standardsuche

    – und weil das noch nicht reicht, macht sich delta-search zur Startseite in jedem Browser

    – zusätzlich wird ein als Sicherheitstool getarntes Progrämmchen installiert, das Adware- und Malwareentfernern die Arbeit erschweren soll

    Die Verbreitung aufgrund aggressiver Installationsmethoden von delta-search.com steigt rasant. 

    Wer Delta Search betreibt, ist gar nicht so einfach herauszufinden. Weder in den T&C oder im Privacy-Statement noch über eine Whois-Abfrage ist der Inhaber der Domain zu ermitteln. Die Domain wurde über Godaddy registriert und wird von einer amerikanschen Firma verwaltet, deren Spezialität es ist, den eigentlichen Inhaber nicht preiszugeben. Das erinnert an Babylon Search, vielleicht handelt es sich ja auch um den gleichen Anbieter, der nur das Webfrontend verändert hat, nachdem diese Domain verbrannt war.

    Die Identität des Domaininhabers von delta-search.com wird verschleiert. 

    Delta Search versucht, einmal im System eingenistet, nicht weiter aufzufallen und akzeptable Suchergebnisse zu liefern.

    Die Ähnlichkeit zur Google-Suchseite ist frappierend: Die Schrift, der schwarze horizontale Navigationsbalken, die Aufteilung der Seite… flüchtige User sehen noch nicht einmal den Unterschied. Und eine weitere Anzahl User wird Delta Search mehr oder weniger zähneknirschend akzeptieren, da das Deinstallieren recht aufwändig ist. 

    Damit der Eindruck gewahrt bleibt, zeigt delta-search.com oben rechts direkte Links zu einer Videosuche, zum Maillogin und anderen Diensten, allerdings zu denen von Yahoo!

    Auch die Suchergebnisse sehen bekannten SERPs (search engine result pages) zum Verwechseln ähnlich. Dennoch gibt es deutliche inhaltliche Qualitätsunterschiede im Vergleich zu Google.

    Delta Search will vermutlich über die Klicks auf Suchergebnisse Umsatz generieren. International aufgesetzt und dank Malwareinstallation weit verbreitet, ist das offensichtlich ein einträgliches Geschäft.

    Wie aber kann man „delta-search.com“ wieder loswerden?
    Es gibt einige Removal-Tools, aber auch „zu Fuß“ kann man die entsprechenden Einstellungen wieder rückgängig machen.

    Software deinstallieren

    Zunächst sollte man die Software, die mit dem eigentlichen Hauptprogramm installiert worden ist, in der Systemsteuerung unter „Software“ de-installieren. Auch die Toolbars für die Browser kann man dort deinstallieren.

    Danach nimmt man sich die Browser vor und entfernt die Einträge für die Startseite und die Suchbox.

    delta-search-Entfernung aus Firefox

    Bei Firefox muss man zudem noch neu einstellen, welche URL geöffnet wird, wenn man einen neuen Tab öffnet. Dies ist nach der „delta-search.com“ Installation auch verändert worden. Man tippt about:config in die Adresszeile des Firefoxbrowsers und sucht nach dem Eintrag „browser.newtab.url“. Als Status steht dort „Vom Benutzer…“. Klicken Sie rechts auf diese Worte und bwegen Sie die Maus auf den Menüeintrag „Zurücksetzen“. Dann wird der Standard wieder hergestellt.

    delta-search-Entfernung aus Chrome 

    Bei Chrome muss man unter „Einstellungen“ die Angabe „Bestimmte Seite oder Seiten öffnen“ im Abschnitt „Beim Start“ öffnen. Hier ist auch delta-search eingetragen. Man muss dies nur im Dialog „Startseiten“ löschen.

    Im Abschnitt „Suche“ in den Chrome-Einstellungen muss man festlegen, welche Suchmaschine mit der Omnibox verwendet werden soll. Die Omnibox ist das Eingabefeld in Google Chrome. Dort kann man eine URL eingeben oder auch einen Suchbegriff.

    Überprüfen Sie sicherheitshalb noch einmal die Einträge im Menüpunkt „Erweiterungen“ in Chrome. 

    Möglicherweise ist noch anderer Adware-Mist mitinstalliert worden. Ein Virenscanner kann helfen, noch weitere Elemente zu identifizieren.

    delta-search-Entfernung aus dem IE 

    Im Internetexplorer funktioniert dies ganz ähnlich:

    Öffnen Sie unter dem Menüpunkt „Einstellungen“ den Punkt „Add-Ons verwalten“. Unter „Suchanbieter“ können Sie „Delta Search“ entfernen.

    Schließen Sie die „Einstellungen“-Dialogseiten und klicken Sie unter „Extras“ noch auf den Menüpunkt „Internetoptionen“. Auf der Registrierkarte „Startseite“ sehen Sie den Delta-Search-Eintrag, den Sie hier entfernen können, indem Sie einfach auf „Leere Seite“ klicken. Schließen Sie den Dialog mit „OK“ ab.

    Grundsätzlich sollten keine Schäden am System oder Datenverluste auftreten. Delta-Search ist vor allen Dingen lästig. Dennoch sollte man sich die Arbeit machen, eventuell vorhandene Adware- oder Malware-Elemente wieder zu entfernen. 
    Delta-Search ist keine vernünftige, zu empfehlende Suchmaschine und man darf den Verdacht haben, dass es dem Betreiber auch darum geht, das Suchverhalten auszuspähen. 
    Bleibt natürlich die Frage, wie kommt man an qualitative Freeware. Wer es sich leisten kann, lässt von Freeware die Finger, denn wenn Sie einen halben Tag damit beschäftigt sind, Malware zu entfernen, können Sie anhand der Zeit, die Sie vergeuden, entscheiden, ob Ihnen Bezahlsoftware nicht doch vielleicht den Preis Wert ist. 
    Es ist verständlich, dass Freeware-Produzenten die vielen Downloads etwas monetarisieren wollen. Die Frage ist allerdings, ob Erlöse wirklich bei den Produzenten ankommen. 
  • Eigene Summer-Challenge: ein dahindümpelndes Webprojekt mit Content pushen

    Eigene Summer-Challenge: ein dahindümpelndes Webprojekt mit Content pushen

    Seit einigen Jahren betreibe ich eine kleine Seite, die eigentlich ursprünglich als Testsite für Typo3 gedacht war.

    Viel Zeit und Geld kann ich in dieses Projekt nicht investieren, aber ich will im Sommer 2013 nun einmal versuchen, der Domain ein bisschen Speed zu geben, allerdings nur mit Content. Ich werde keine Links organisieren oder kaufen.

    Gestern mal ein paar Onsite-Dinge gemacht, schon sieht man einen Ausschlag. Mal sehen, wohin das führt.

  • Was bringt den Geheimdiensten diese Really Big Data – Analyse eigentlich? – Antwort: Einen Blick in die Zukunft (UPDATE)

    Was bringt den Geheimdiensten diese Really Big Data – Analyse eigentlich? – Antwort: Einen Blick in die Zukunft (UPDATE)

    Visualization of all editing activity by user "Pearle" on Wikipedia (Pearle is a robot). To find out more about this project, go to: www.research.ibm.com/visual/projects/chromogram.html

    UPDATE des Artikels vom 23.6.2013

    Am Wochenende hat sich der Skandal um die Überwachungsabitionen weiter ausgeweitet. Dies ist die dritte Woche in Folge, in der sich durch weitere Enthüllungen neue Ausmaße abzeichnen.

    Langsam, finde ich, wird es Zeit für etwas genauere Analysen. Soweit ich das überblicke, ist noch nirgendwo eine verlässliche oder glaubwürdige Einschätzung erschienen, welchen Nutzen diese immens teuren Schnüffelaktionen überhaupt haben.

    Okay, wir wissen, dass sich Geheimdienste In USA und UK Zugang zu den Glasfaserknoten und den wichtigen Netzknoten verschafft haben. Damit lässt sich der darüber fließende Internetverkehr grundsätzlich abhören und mitschneiden, also speichern. Da es sich um Daten auf recht rohem Niveau handelt, dürften recht aufwändige Analysen nötig sein, um den Fragmenten dieses Datenstroms einen Sinn zu geben.

    Die Frage ist doch auch: Was lässt sich mit dieser Datensuppe eigentlich anfangen? Welche Möglichkeiten sind den Diensten überhaupt gegeben? Ich vermute, nach dem ich ein paar sowieso selten zu findende, weiterführende Artikel gelesen habe, dass man in der Lage sein wird, einzelne E-Mailkonten zu überwachen. Und in einigen Fällen wird es möglich sein, neben der reinen Aktivitätsmessung auch die Inhalte zu entschlüsseln bzw. zuzuordnen. Vielleicht erleben wir deswegen die häufigen unspezifischen Warnungen wie zuletzt vor Anschlägen auf Fanmeilen. Möglicherweise stellt man fest, dass über bekannte Mobilfunkverbindungen bzw. E-Mailadressen verstärkter Traffic läuft und darauf kann man schließen, dass die eine oder andere Gruppe etwas vor hat.

    Vermutlich kann man auch im gespeichertem Datenbestand nachträglich Spuren finden, wenn man weiß, wonach man suchen soll. Dass Anschläge verhindert werden, wird behauptet. Bewiesen ist das glaube ich noch nicht. Offensichtlich ist der Versuch, Verbrechen mit Big Data Analysen zu verhindern viel viel schwieriger als gezielte Fahndung.

    Für Deutschland auch kein Neuland. Bereits in den 1970ern versuchte das BKA per damals auch umstrittener Rasterfahndung der RAF auf die Spur zu kommen. Geholfen hat das wohl nicht viel.

    Es wäre also sehr schön, es erschiene bald irgendwo im Spiegel oder in der Süddeutschen oder wo auch immer ein Beitrag, der einige Hintergründe etwas genauer ausleuchtet und nicht nur auf Empörung setzt.

    UPDATE 6.7.2013

    Inzwischen hat sich die PRISM-Geschichte weiterentwickelt. Wir wissen, dass der englische Geheimdienst und auch die NSA Glasfaserkabel anzapft. Wir wissen, dass auch die Franzosen und auch die Deutschen (BND am DECIX) abhören.

    Was also macht man mit dieser Riesenmenge an Daten?

    Es ist der Versuch, durch korrelative Zusammenhänge Erkenntnisse über die Zukunft ermitteln zu können. Eine Anwendung davon ist Predictive Policing, also der Versuch, aus vergangenen Mustern von Kriminalität Vorhersagen aus damit gewonnenen Zusammenhangsmodellen zu gewinnen. Dies ist in diesem Dokument genau beschrieben. 

    Der englische Guardian hat eine entsprechende Geschichte über prädiktive Analysen veröffentlicht: http://www.guardian.co.uk/science/2013/jul/01/how-algorithms-rule-world-nsa

    Das Prinzip: Man sieht sich vorhandene Daten an, sucht nach inneren Zusammenhängen, die auch versteckt sein können, indem man geeignete statistische Verfahren anwendet (Stichwort: Strukturgleichungsmodelle) und kann dieses Modell darauf prüfen, wie gut es der Realität entspricht (Model Fit). Wenn dieser Model Fit hoch genug ist, taugt das Modell auch als Vorhersagemodell für zukünftige Zusammenhänge. Die Vorhersagekraft kann enorm sein, beängstigend und faszinierend zugleich, denn die Zusammenhänge sind ja tatsächlich, abgesehen von einer statistischen Fehlerwahrscheinlichkeit, tatsächlich vorhanden.

    In vielen Lebensbereichen funktioniert predictive analysis sehr gut, gerade auch in kreativen Bereichen, von denen man naiv annehmen würde, hier kommt der menschliche freie, d.h. unvorhersehbare Wille zu tragen. Das ist offensichtlich nicht so.

    So lässt sich mit guter Treffsicherheit vorausberechnen, ob ein Popsong eine Hit wird oder nicht. Ein Wedesigner names McCready entwickelte so ein Verfahren, das auf erweiterter Spektralkonvolution basiert.

    Beschrieben sind solche Methoden, wie man oft liest, in „Automate This: How Algorithms Came to Rule Our World“ von Christopher Steiner.

    Automate This: How Algorithms Came to Rule Our World

  • Der neue Webpresence Builder von Parallels

    Der neue Webpresence Builder von Parallels

    Wenn man eine neue Website erstellt, steht man immer vor der Frage, wie die technische Umsetzung aussehen soll.

    Für eine recht große Zielgruppe gibt es Homepage-Baukästen. Sie versprechen einen schnellen Start ohne Programmierkenntnisse zu benötigen. Parallels, der Hersteller der Serveradministrationssoftware Plesk, hat nun eine neue Version des Webpresence Builders vorgestellt.

    [su_note note_color=“#ffae66″]UPDATE vom April 2017: Dieser Beitrag stammt aus dem Jahre 2013. Mittlerweile ist die Version „Onyx“ von Plesk die aktuelle Version. Der Websitebuilder wird seit längerer Zeit nicht mehr weiterentwickelt. Auch Parallels setzt mit dem Plesk-Ökosystem nun auf WordPress und liefert mit dem WordPress ToolKit (» Dokumentation bei Plesk) einige Features, die den User beim Generieren einer Website mit dem meistverbreiteten CMS unterstützen sollen. Insbesondere das Verwalten von Themes und Plugins soll via Plesk besser kontrolliert werden können. Zudem sorgen die Tools für mehr Sicherheit, indem die WordPress-Installation vor Angriffen geschützt wird. Für WordPress findet man alle möglichen Add-Ons (Plugins) und Templates (Themes; diese zum Beispiel bei templatemonster.com/de). Man kann sagen, WordPress hat das Rennen um die Vorherrschaft gewonnen, auch wenn es User gibt, denen WordPress zu kompliziert oder überladen ist. Für diese Gruppe sind Online-Seitengeneratoren eine gute Alternative. [/su_note]

    Natürlich kann man theoretisch einfach HTML-Anweisungen in ein Textfile schreiben, dies als HTML-Datei abspeichern und hochladen. Fertig ist das Webdokument.

    Doch wer einige Mindeststandards einhalten oder einige bestimmte Funktionen abbilden muss, kann nicht jede HTMl-Code-Zeile mit der Hand schreiben.

    Man kann dazu ein Contentmanagement System (CMS) installieren. Beliebt in diesem Bereich sind Joomla!, WordPress sowie Typo3 oder auch Drupal. Dann steht aber immer noch die Frage im Raum, wie die Website aussehen soll: Anzahl Spalten, Schriftart, Farbschema, Headerbild. Alles das wird mit dem Template festgelegt, wobei die CMS-Anwendungen meist schon einige benutzbare Templates integriert haben. Wer selbst ein Template erstellen will oder ein vorhandenes variieren möchte, muss sich dennoch mit HTML, CSS und Co. auseinandersetzen.

    Zudem stellen sich noch weitere technische Fragen: CMS brauchen bestimmte Voraussetzungen auf dem Webspace, oft PHP als Skriptsprache und MySQL als Datenbanklösung.

    Für eine Kundenkreis, der vor der Aufgabe steht, eine Website zu erstellen, aber überhaupt keine technischen Kenntnisse mitbringt, sind Homepage-Baukastenlösungen gedacht.

    Bekannt in diesem Sektor sind:

    • Jimdo und das damit immer noch verwandte 1&1 Do-it-Yourself-Homepageprodukt
    • wix.com
    • das etwas in die Jahre gekommene Tool auf homepagebaukasten.de
    • easyPage, eine von goneo betriebene Adaption des (eingestellten) Produkts egoditor
    Was viele nicht wissen ist, dass auch Parallels einen Baukasten anbietet. Parallels nennt ihn „Web Presence Builder“. Wie die vergleichbaren Produkte braucht man dafür nur den Browser, um eine neue Homepage zu erstellen. Ich habe den Webpresence Builder mit Googles Chrome getestet und keine Probleme oder Abstürze festgestellt.
    Verfügbar ist der Web Presence Builder, wenn zum Beispiel die Serveradministrationsoberfläche Plesk eingesetzt wird und der Lizenznehmer das entsprechende Modul mitlizenziert hat. Für Endkunden ist der Parallels Web Presence Builder nicht direkt zugänglich. Der Weg führt über einen Hoster oder eine Agentur.
    Jetzt gibt es die Version 11.5, die den Ansatz verfolgt, der an das 1&1 Produkt erinnert: Der neugebackene Webdesigner wählt aus einer recht langen Liste von Inhaltsvorlagen aus, für welches Thema oder für welchen Einsatzbereich er oder sie die Site braucht. Danach erstellt das System die Rohversion, doch einige Bild- und Textelemente, die man typischerweise in diesem gewählten Bereich gebrauchen kann, sind bereits inkludiert, zum Beispiel ein passendes Headerbild und einige Einzelseiten mit typischem Text.
    Am Anfang also steht die Festlegung auf ein Thema, das dann das Aussehen (Design) der Site vorentscheidet:
    Der Start: Man wählt ein entsprechendes Thema aus und füllt grundsätzliche Angaben in ein Formular ein.
    Die Produktidee, der USP sozusagen, ist, dem User schnell zum Erfolg zu verhelfen und eine erste Website live zu bringen.
    Der Webpresence Builder arbeitet mit einem Toolfenster, das sich im Browser dankenswerterweise auch verschieben lässt und auch minimiert werden kann. Es verschafft Zugriff auf die Hauptfunktionen: Seitenstruktur, Farbschema, Hinzufügen von Inhaltselementen und dergleichen.
    In einer Art What-You-See-Is-What-You-Get werden die Änderungen angezeigt. Text kann man direkt an entsprechender Stelle eintippen und ein wenig formatieren.
    Die Aufteilung der Seite lässt sich jederzeit wieder ändern. So kann man von einem zweispaltigen Layout auf eine zweispaltige Darstellung zurückschalten.
    Die Vorder- und Hintergrundfarben lassen sich gezielt auswählen oder man wählt ein passendes Farbset aus.
    Als nett empfand ich, dass sich die Ecken abrunden lassen. Dafür ist extra eine Option für nahezu jedes Gestaltungselement vorgesehen.
    Wenn man seine Texte eingegeben hat, lässt sich das Ergebnis mit „Publish“ veröffentlichen und steht fortan im Web.
    Solche Baukastensysteme sind natürlich immer ein Kompromiss aus Einfachheit in der Bedienung, Flexibilität und qualitativem Ergebnis hinsichtlich technischer und ästhetischer Kriterien. Entscheidend ist allerdings immer noch die Qualität des Ausgangstemplates.
    Auf mich hat es den Eindruck gemacht, die Templates im Webpresence Builder wirken ein wenig antiquiert. Der optische Eindruck wird aber meiner Meinung nach stark durch die Qualität der Headerbilder beeinflusst. Mit tollen Bildern sieht die fertige Seite toll aus.
    Dennoch wirken die Ausgangstemplates zum Beispiel bei wix für mich ausgearbeiteter, elaborierter. Hier zum Vergleich ein Template aus einer vergleichbaren Templatekategorie bei wix, und das sogar ohne optisch unterstützendes Bild:
    Ich finde, Parallels hätte die Templates modernisieren und neu durchstylen können. Für einen ersten Auftritt ist das Tool allerdings auf jeden Fall brauchbar.
    Ein interessantes Experiment wäre einmal, die verschiedenen Homepagebaukästen gegeneinander zu testen und zwar hinsichtlich ihrer Fähigkeit, in wichtigen Suchmaschinen zu ranken. Dieses Experiment kann ich nicht sofort durchführen, aber vielleicht mache ich dies demnächst mal.
    Ich bin sicher, dass zum Beispiel Google einen Rankingfaktor aus dem Website-Generator gewinnt: Wer ein teueres Webdesigntool einsetzt, hat die Chance auf besseres Ranking im Vergleich zu Sites aus kostenlosen oder einfachen Generatoren.