meinVZ in der Werbehölle

Dass meinVZ noch existiert merkt man daran, dass man an die mit meinVZ verbundene E-Mailadresse gelegentlich, vielleicht so alle ein bis zwei Wochen einmal, eine völlig nutzlose Spammail erhält. Die Werbung darin ist völlig ungetargeted, meistens mit Angeboten für PayTV, Mobile oder anderen Vertragsprodukten ohne spezielle Konditionen oder ähnlichem. Nerv-Werbung wie man sie als web.de Mailadressenbesitzer erdulden muss.

Ich war mir recht sicher, mich bei meinVZ ausgeopted zu haben. Nun erhalte ich wieder Spam. Wieder habe ich mich eingeloggt und gesehen, dass einfach neue Newsletter-Kategorien aufgemacht worden sind. Natürlich war die Erklärung, Mails dieser Kategorie erhalten zu dürfen aktiviert. Der Werbeversender ist eine englische Limited, poolworks LTD und schert sich um das deutsche Double Option Gebot offensichtlich wenig.

Ähnliches ist mir vor kurzem bei tipp24.com aufgefallen. Ständig neue Newsletter-Arten: Sondernewsletter, Jackpotnewsletter, Sonderziehungsnewsletter …

Bei MeinVZ heißen diese aktuell spezielle Angebote, spezielle Werbemitteilungen und zielgruppenspezifische Werbung. Nächste Woche kommt wahrscheinlich dann „ganz spezielle Angebote“ oder „extra für mich-Werbung“ dazu. Holtzbrinck hat meinVZ an einen Spammer verkauft. Ich werde diesen Account nun also löschen.

Hässliche Notizen aus dem Schland Netz

Eigentlich ist es zum Haareausraufen, was an blödsinnigen Entscheidungen und Abmahnereien im Zusammenhang mit dem deutschen Internet ständig zu erfahren ist:

  • Das Landgericht Köln (bekannt durch die Redtube-Affaire) hat einem Abmahner Recht gegeben, der einen Webseitenbetreiber wettbewerbsrechtlich durch eine einschlägige Kanzlei in Berlin abmahnen ließ, weil dieser ein Bild von Pixelio verwendet hat. Das Aktenzeichen ist AZ 14 O 427/13. Pixelio ist ein Bilderdienst, über den Fotografen Bilder vertreiben können, die Webseitenbetreiber „kostenlos“ verwenden können, sofern der Fotografenname genannt wird. Diese Bedingung war nahezu penibel genau erfüllt. Allerdings bezog sich der Abmahner auf die Argumentation, dass seine Fotos ja auch direkt geladen werden können, also mit der Bilder-URL, und dann sei der Fotografenname ja nicht ersichtlich. Also müsste der Fotografenname bitteschön schon in die Bilddatei selbst.

    Und so funktioniert die Verwertungskette, die man auch als Abmahnabzockfalle bezeichnen könnte: Zunächst werden Hunderte nichtssagender Fotos in bereitgestellt. Der eine oder andere Webseitenbetreiber nutzt eines davon, meist aus der Idee heraus, ein illustrierendes Bild zu brauchen. Die „Lizenzbedingung“ des Bilderdienstes ist, dass der Fotografenname genannt wird. Per Bildersuche findet der Einsteller das eine oder andere Vorkommen und nutzt das im deutschen Recht vorgesehene Instrument der Abmahnung, wenn er nachweisen kann, dass der Name nicht genannt wird (aus der Praxis heraus: es gibt genug Szenarien, in denen das gar nicht möglich ist).

    Mit dieser Abmahnung wird der Verstoß gegen die Lizenzbestimmungen erklärt und daher müsse man den vollen Lizenzpreis nachzahlen. Berechnet wird dieser anhand einer eher realitätsfernen Honorarpreisliste eines Branchenverbands für Fotografen. Die Abmahnanwälte schlagen nochmal „Gebühren“ obendrauf und stellen die unangenehme Post in Serienbriefen zu. Ein einträgliches Geschäft. Dabei wenden sich die Abmahnanwälte ausschließlich an Gewerbetreibende, denn für sie gilt nicht die Obergrenze für Abmahnungen in Urheberrechtsfällen für Verbraucher.

    Also: Auf Stockfotos verzichten, eigene Bilder nutzen. Als „Illustration“ braucht die sowieso niemand, lieber etwas selbst mit dem Smartphone fotografieren oder eine Zeichnung bzw. ein  Diagramm erstellen. Das muss sich gar nicht mal nur auf Webseiten beziehen. Powerpoint-Präsentation u.ä., die Fotos aus Stocks beinhalten und die nach Vorträgen online gestellt werden, können genauso betroffen sein.

  • Ein Verband mahnt großflächig Onlinehändler wegen diverser Bestimmungen des Wettbewerbsrechts ab. Häufig geht es um kleinliche AGB-Formulierungen wie die Reihenfolge der Nennungen von Gesetzestextstellen oder Preisangaben. 
  • Die Gema möchte gerne Gebühren für eingebettete Videoclips. Wenn jemand ein Youtube-Video mittels Embed-Code auf seiner Seite einbaut, soll er zahlen, wenn der Urheber des Videos von der Gema vertreten wird. Dabei hat schon Youtube Gemagebühren bezahlen müssen.   

Yandex will auf Backlinks zur Festlegung der Suchergebnisposition verzichten

Die russische Suchmaschine Yandex möchte offensichtlich neue Wege gehen, um die Reihenfolge der Suchergebnisse auf der Suchergebnisseite festzulegen. Es sieht so aus als würde Yandex, die mit 61 Prozent Marktanteil meistverwendete Suchmaschine in Russland, zumindest zunächst für die Region Moskau, wie es heißt, auf das Ranking-Kriterium Backlinks verzichten wollen.

http://seograd.com/2013/12/yandex-turns-seo-business-upside-down/
http://www.design4u.org/russland-gus/seo-russland/yandex-mini-faq-zum-ranking-ohne-backlinks/ 

Statt dessen sollen, wie es in einer Unternehmens FAQ heißt, 750 andere Kriterien herangezogen werden, um wichtige von unwichtigen Seiten zu unterscheiden.

„Wir hoffen, dass wir mit der Neuausrichtung zu einem zivilisierteren Internet-Marketing beitragen können“, heißt es in einer Übersetzung der FAQs, die auf design4u.org veröffentlicht ist. Weiter: „Wir erwarten eine deutlich steigende Nachfrage nach Leistungen im Bereich Usability, mit dem Ziel Konversionsraten zu steigern.“

Ziel dieses Experiments ist wohl, den „Überoptimierungen“ entgegen zu wirken. Offensichtlich sollen Kriterien, die als Onpage-Faktoren bekannt sind, wichtiger werden. Die Ankündigung von Yandex hat SEO-Agenturen in zwei Lager geteilt: Es gibt sowohl viele Befürworter als auch strikte Ablehner des neuen Kurses. Die lokale Suche ist für Yandex sehr wichtig, denn die Ergebnisse gelten hier als besser im Vergleich zu denen von Google.

Zwar ist die Überoptimierung durch eingehende Links, die gekauft oder gemietet werden können, schon seit vielen Jahren ein Problem. Eine überzeugende Lösung hatte bisher jedoch noch keine wichtige Suchmaschine. Große Hoffnungen liegen in der semantischen Suche, oft auch als „Internet der Dinge“ apostrophiert.

Mit der Anzahl und Wertigkeit eingehender Links wird die „Wichtigkeit“ einer Domain oder einer einzelnen Webseite abgeschätzt. Das zugrundeliegende Paradigma ist, dass eine Webseite umso wichtiger ist, je mehr Links darauf zeigen.  Googles zentraler PageRank Algorithmus basiert auf dieser graphentheoretischen Idee und hat Anfang der 2000er Jahre die Suchmaschinenlandschaft weltweit revolutioniert. Im Laufe der Zeit gab es viele Korrekturen und Anpassungen, aber nach wie vor wird die Reihenfolge der Ergebnisse hauptsächlich durch die Anzahl der Links auf diese Seite bestimmt. Andere Faktoren sind untergeordnet wichtig.

Der Freilandversuch von Yandex kann als Experiment gewertet werden. Vermutlich deshalb ist der Einsatz zunächst auf die Region Moskau beschränkt. Man darf also gespannt sein, wie sich die Ergebnisseiten verändern werden.

Wolfram Alpha kennt mich nicht – mal sehen, ob structured data hilft

Was sucht man in einer Suchmaschine, die man kennenlernen will als erstes? Ja, seinen eigenen Namen.
Das habe ich bei Wolfram Alpha probiert. Ergebnis: Die Suche kennt die Zeichenkette „käkenmeister“ nicht und schlägt als naheliegenden Treffer „Hoffmeister“ vor, was offensichtlich der Name eines Krater auf dem Mond ist.

Im Footer gibt es einige Möglichkeiten, selbst Daten zuzuliefern. Diese können auch vom Typ „People“ sein. Ganz klar präferiert Wolfram Alpha hier strukturierte Daten (schema.org). Ich biete also meine Website, die seit neustem strukturierte Daten enthält an: 
Nun muss man man sehen, wie lange es dauert, bis die Suche diesen Begriff als bekannt ausgibt und welche Informationen dann gezeigt werden. 
Viele halten strukturierte Daten für ein wesentliches Element künftiger Information retrieval Prozesse wie sie auch Suchmaschinen verwenden werden. 

Nervsoftware mit Flash-Update

Woran könnte es liegen, dass viele Windows – User darauf verzichten, Java- oder Flash-Updates einzuspielen, obwohl Sicherheitslücken in den alten Versionen bekannt geworden sind?

Ein Punkt könnte die forcierte, aber unerwünschte Installation von Drittparteisoftware wie von McAfee sein. Aktuelles Beispiel: Während man sich im Java-Update-Fenster schon darauf eingestellt hat, das bereits gesetzte Häkchen für den Zusatzsoftwarekram zu entfernen, verändert Adobe das Look & Feel der Installationsanleitung immer mal. Zur Zeit sieht es für das Update von Flash so aus:

Man sollte also in der Mitte das „Optionale Angebot“ für McAfee Security Scan Plus entfernen. Das ist lästig. Ich habe es zuerst auch übersehen und musste dann die Installation später abbrechen.

Traffic, den man nicht so gerne sieht

Es fällt ja schon auf, wenn neue Links in den Referrern stehen und nicht nicht nur die üblichen verdächtigten. Natürlich sieht man dann nach, was das für eine Site ist. Im Fall von ourmeets (dot) com ist das eine Pornoseite der hässlicheren Art, die so einfach ein bisschen Traffic generieren will – einfach weil man den Link mal aufruft.

Das ist schon anderen Blogbetreibern aufgefallen:
http://pithybits.blogspot.de/2013/10/why-is-ourmeetscom-visiting-my-website.html 
http://from-the-sidelines.blogspot.de/2013/10/again-with-spam.html

Ghost – einfach nur bloggen, aber erst mal installieren!

Einfach nur Bloggen – das ist die Leitidee der Macher der
neuen Blogsoftware Ghost.
Ghost unterliegt wie viele andere Bloganwendungen einer
quelloffenen Lizenz. Jeder kann mit- und weiterentwickeln und – eigentlich ist
das ein Nebeneffekt – die Software kostenlos verwenden.
Ghost ist nun öffentlich verfügbar. Wer jedoch glaubt, es
genüge, eine Zip-Datei herunterzuladen, diese zu entpacken, auf einem
Serverspeicherplatz abzulegen und „install.php“ auszuführen, wird enttäuscht. 
Ghost baut nicht auf PHP, sondern auf dem Node JS – Framework auf. Als
Datenbank ist standardmäßig SQLite vorgesehen, aber auch mit mySQL funktioniert
das. Node JS verwendet einen eigenen http-Server.
Das hat einige Konsequenzen.

Server benötigt Node.js 

Zunächst muss der Server, egal, ob er unter Windows, MacOS
oder Linux läuft, node.js unterstützen. Falls dies nicht der Fall ist, muss man
die Installation vornehmen. Das ist von System zu System unterschiedlich. Ich habe
versucht, Ghost auf einem virtuellen Server mit Debian Linux zu installieren
und musste node.js natürlich zunächst nachinstallieren. Node.js ist auch noch recht frisch. Daher ändern sich die Releases schnell. Die offiziellen Repositories der Distributionen könnten veraltet sein. Vielleicht ist ein Selbstkompilieren hier tatsächlich besser. 
Für meinen virtuellen Server
habe ich mich nach dieser Installationsanleitung gerichtet, was gut geklappt
hat: http://www.sysadminslife.com/linux/howto-node-js-installation-unter-debian-squeeze-wheezy-ubuntu/
Zunächst habe ich versucht, Git zu verwenden, was ich auch
erst nachinstallieren musste. 

Installation auch über git möglich 

Da die Installation von Git auf dem V-Server
nicht reibungslos lief, habe ich die Installationsprozedur per Zip-Datei gewählt.
Ich habe das Installationspaket von github geladen, aber später gesehen, dass
Bitnami schon einen fertigen Stack bereit hält, was ich jedoch nicht
ausprobiert habe: http://bitnami.com/stacks
Wenn Node.js installiert ist, kann man sich an die
Installation von Ghost wagen. Also: Datei hochladen, entpacken (oder je nach
Geschmack auch umgekehrt), und dann in die Konsole (ich habe das als Root
vorgenommen) den Installationsbefehl ausführen: npm install –production .

Weird error 8

Mit „NPM Start“ kann man dann sehen, ob sich Ghost starten
lässt. In den meisten Fällen, wenn man nicht gerade auf einem lokalen PC oder
Notebook installiert, wird man Fehlermeldungen erleben. Ich zum Beispiel
erhielt immer „Weird Error 8“, was auf Konfigurationsfehler hindeutet.
Tatsächlich muss man in der config.js, die ich mit VI
bearbeitet habe, die Server-IP eintragen. Der standardmäßig eingetragene Port, 2368,
hat auf meinen VServer-Umfeld nicht funktioniert. Die URL lieferte einen
404-Fehler. Zudem soll ich den Apache stoppen, sagt ein Forumsbeitrag. Als Port habe ich 8080
gewählt. Mit diesen Parametern funktionierte der Aufruf auf die Startseite von
Ghost dann. Und auch der Apache ließ sich auf der gleichen virtuellen Maschine parallel betreiben. In diesem experimentellen Betrieb habe ich zumindest kein Stabilitätsproblem gesehen. Klar ist aber: Beide, also Apache oder Node.js können nicht auf Port 80 koexistieren. 

Andere Basistechnologie – bessere Performance? Es scheint so. 

Grundsätzlich ist die Herangehensweise und die
Basistechnologie ganz anders und überhaupt nicht mit WordPress, Joomla oder
auch Drupal vergleichbar. Der Installationsaufwand erinnert an die frühen Tage
von Typo3. Auch damals mussten viele serverseitige Voraussetzungen erfüllt
sein, viele Konfigurationen waren vorzunehmen und das System lief längst nicht
auf normalen, handelsüblichen Shared-Hosting-Accounts. So ist es auch mit
Ghost. Man braucht definitiv Zugang zu den Serverressourcen, um Node.js
nachzuinstallieren. Kaum ein shared hoster stellt node.js defaultmäßig bereit.
Wenn man die URL mit /ghost ergänzt, gelangt man ins
Backend. Hier soll man sich einen Blog-Account mit Namen und E-Mailadresse
anlegen. Der Mailtransportdienst kann in der Konfigurationsdatei festgelegt
werden, so dass der Accountinhaber benachrichtigt werden kann.
Dann kann man bereits versuchen, seinen ersten Blogbeitrag
zu erstellen und zu posten.
Ghost zeigt zwei Ansichten, das heißt unterteilt das
Browserfenster in vertikaler Richtung. Links gibt man den zu bloggenden Text
ein. Dabei kann man Markup verwenden, um die Formatierungen auszuzeichnen oder Bilder
einzufügen. Komfortablerweise gibt es dafür auch Tastaturshortcuts.
Auf der rechten Seite des Eingabebildschirmfensters sieht
man dann eine Vorschauansicht, die sich selbst und das sehr schnell
aktualisiert.
Überhaupt fällt auf, dass die Eingaben sehr schnell umgesetzt
werden. So typische leichte Latenzen, die man spürt, wenn man auf geteilten Servern
Wordpress oder auch Joomla administriert, sind hier überhaupt nicht zu
erfahren. Alles läuft flott und ohne Hänger. Möglicherweise ist das der große
Vorzug gegenüber etablierten Systemen und Basistechnologien wie PHP.
Die von mir verwendete Version Ghost 0.3 bringt bereits eine
RSS-Funktion und Social Share-Features mit. Es ist ein Template in den
Installationsdateien vorhanden, das sich interessanterweise responsiv verhält,
also auch auf meinem iPhone 4S sehr schnell und anders umgebrochen angezeigt
wurde und von der Aufteilung und der Ästhetik her an Google Plus erinnert. Es gibt
aber auch schon eine Hand voll anderer Themes. Sogar schon einige Plugins gibt
es, u.a. für eine Migration von WordPress auf Ghost via eines JSON Files.

Serverseitiges Javascript scheint Performancevorteile zu bringen

Momentan gibt es in Ghost nichts, was WordPress und Co nicht
auch könnten. Spannend wird es, wenn es um die Performance geht. Ghost läuft
viel flüssiger, möglicherweise aufgrund der Node.js Basistechnologie, die ja
bekanntermassen auf einer ressourcenschonendes Javascript-Laufzeitumgebung
basiert oder auch nur deshalb, weil in Ghost noch nicht so viel „drinsteckt“
wie in WordPress. Ich vermute aber, Node.js hat an der Performance einen großen
Anteil. 

Keine Chance mit Shared Hosting 

Dennoch kann Node.js am Beispiel von Ghost nun zeigen, was
es kann: Am PC ist Ghost genauso flüssig zu bedienen wie Mircosoft Word, wobei
ich mit dem eigentlich sonst recht behäbigen virtuellen Server auf einer mit
einem XEON Quadcore mit 3,20 GHz-Takt und 12 GB RAM bestückten Maschine verbunden
bin, die wohl irgendwo in einem Datacenter in Strassbourg steht.  Zumindest habe ich den Eindruck, dass Node.js
hier wirkliche Experience-Vorteile liefert, sowohl für den Administrator als
auch für den User, der durchs Blog surft.

Die Macher von Ghost arbeiten an einem hosted Service wie
blog.wordpress.com. Aber auch für viele andere Hostingdienste gibt es bereits
fertige Images, wie zum Beispiel für Amazon oder Rackspace. 
Über ghost: https://en.ghost.org/ 

„Not provided“: Bald gibt es keinen Such-Keywordbericht mehr

Im amerikanischen Blog von searchengineland.com war es bereits zu lesen: Google wird – mit der Argumentation, die Google-Such in Zeiten von PRISM, diskreter zu machen – keine Reports mehr ermöglichen, die erkennen lassen, mit welchen Suchbegriffen die Besucher auf die eigene Website gelangt sind.

Der Anteil der nicht zuordenbaren Suchanfragen, die in Google Analytics mit „not provided“ ausgewiesen werden, ist in den letzten Monaten kontinuierlich gestiegen. Die Kurve der besuche durch die organische Suche und die Kurve für die anzahl unbekannter Suchbegriffe nähert sich kontinuierlich an, wie jeder in seinem Analytics Konto nachvollziehen kann:

Bald wird der Anteil nicht zugeordneter Suchbegriffe 100 Prozent betragen. Das hat Google inzwischen auch bestätigt.

Google bezeichnet diese Änderung als eine „Post-PRISM“-Maßnahme:
http://searchengineland.com/post-prism-google-secure-searches-172487

Kaum einer nimmt Google ab, dass man sich tatsächlich hauptsächlich Sorgen um den Datenschutz der Nutzer macht.

Der wahre Grund, so vermuten viele, könnte eher der Versuch sein, das Adwords-Programm weiter zu beflügeln. Wer Adwords bucht, erhält nach wie vor Angaben darüber, mit welchen Suchbegriffen die User auf der Website landen. Natürlich kostet Adwords Geld – pro Klick eine Summe, die hauptsächlich davon abhängt, wie viele andere Anbieter Anzeigen präsentieren wollen, die erscheinen, wenn jemand mit einem festgelegten Keyword oder einer ganzen Phrase etwas mit Google sucht.

Auch in den Google Webmaster Tools werden Suchbegriffe gezeigt, die dazu führen, dass die entsprechende Domain in der Suchergebnisliste auftaucht. Die Darstellung ist aber eine andere: Gezeigt wird nicht, welche Treffer der User in einer Suchergebnisliste geklickt hat, sondern welche Keywords zu einer Ausweisung als Suchtreffer geführt haben. Damit verliert sich aber die Spur. Als Seitenbetreiber kann man nicht mehr verfolgen, welche Keywords für eine Conversion wichtig sind.

Was bleibt also, um Recherche nach wichtigen Keywords zu betreiben?
Man muss die Google Suchergebnisseiten nach eigenen relevanten Keywords durchsuchen und ermitteln, welche URL als Suchergebnis gezeigt worden ist. Das heißt, man muss massenhafte Anfragen an Google schicken und die Suchergebnisse auf die eigene Domain filtern. Oder entsprechende Tools benutzen, die aber durch die Bank Geld kosten. Ausserdem mag Google kein „Scraping“ seiner Suchergebnisseiten.

Zudem kann  man die Angaben aus Analytics mit denen aus den Webmastertools vergleichen. In den Webmastertools werden Impressions und Clicks für die Top-Keywords gezeigt. Was für die Webmastertools die „Clicks“ sind, ist für Analytics ein „Visit“.

Offensichtlich liefern die Webmastertools nach wie vor Keyword-Daten, wenn auch stärker vergröbert als Analytics dies tat. Nun könnte man durch geschicktes Parallelreporten und Vergleichen versuchen, den Block „not provided“ oder künftig „organic“ aufzulösen.

Psychologie: Warnhinweise auf Produktverpackungen können Verkäufe sogar erhöhen

Verkehrte Welt: Eigentlich sind die gesetzlich vorgeschriebenen Aufschriften wie „Rauchen kann töten“ auf Zigarettenpackungen dafür gedacht, Leute davon abzuhalten, Zigaretten zu konsumieren.

Die Wirkung der drastischen Texte, die vor dem Produkt warnen,kann allerdings paradox sein: Der Psychologe Ziv Camon hat einen Effekt gefunden, nach der Konsumenten die Produkte positiver bewerten, wenn es einen gewissen zeitlichen Abstand zwischen dem Warnhinweis und der Kaufentscheidung gibt. Die Verkaufszahlen können so ironischerweise befeuert werden.

In einem vierteiligen Experiment hat man ermittelt, dass Versuchpersonen, die Raucher waren, und die entsprechende Warnhinweise gesehen hatten, erwartungsgemäß weniger Zigaretten kauften, wenn Sie unmittelbar danach die Gelegenheit hatten.

In einer Vergleichsgruppe, in denen die Versuchspersonen Warnhinweise zu sehen bekamen, aber erst einige Tage später Zigaretten kaufen konnten, zeigte sich ein anderes Bild: Unter diesen Umständen haben die Versuchspersonen mehr Zigaretten verkauft.

Man fragt sich also, wie dieser Effekt denn zu erklären ist. Ein Vorschlag von Camon und seinem Forschunsgteam beruht auf der Annahme, dass mit der zeitlichen Distanz die Gefahr abstrakter erscheint und die Warnhinweise stärker als eine Art Signal für das fürsorgliche Verhalten des Herstellers betrachtet wird.

Der Artikel über die Forschungsarbeit ist hier erschienen:
http://www.psychologicalscience.org/index.php/news/releases/warning-of-potential-side-effects-of-a-product-can-increase-its-sales.html

Black Hat SEO Methode im Trend: Websites hacken, um Links zu platzieren

Besondere Vorsicht ist derzeit geboten, wenn Ihr für die
Website ein CMS einsetzt.
Ich sehe auf meiner Website zunehmend mehr blinde Anfragen
auf URLs mit dem Referrer „baidu.com“. Die Zugriffe gehen auf bekannte
Admin-URLs von verbreiteten und nicht so verbreiteten Content Management
Systemen.
Hier sind einige Beispiel von Zugriffen, die ich in den
vergangenen 24 Stunden gesehen habe:
http://www.kaekenmeister.de/images/default/publict.css
http://www.kaekenmeister.de/HX_login.asp
http://www.kaekenmeister.de/templates/main/default/space_reviews.htm
http://www.kaekenmeister.de/install.php
http://www.kaekenmeister.de/www/admin/templates/install/register-step.html
http://www.kaekenmeister.de/cuteeditor_files/Scripts/spell.js
http://www.kaekenmeister.de/css/eyou.css
http://www.kaekenmeister.de/index.php
http://www.kaekenmeister.de/core/modules/article/assistant/templates/article_list.htm
… und viele viele mehr.Alle führten auf 404, so dass ich das zeitnah mitbekomme. Ich denke aber, es gibt viele Webseitenbetreiber, denen würde eine Veränderung Ihrer Site gar nicht so schnell auffallen.
Leider werden die IP Adressen bei meinem Hoster aus Datenschutzgründen nicht in den Logfiles gespeichert, so dass ich den IP Adressblock nicht einfach weg filtern kann. Und
wenn die Anfragen von einem Botnetz kommen, dann hilft das sowieso nichts.
Die Anfragen so gezielt, dass ich befürchten muss, dass man
auch in meinem CMS eine Schwachstelle findet.
Was also könnte helfen?
Da meine Website sich nur an deutsche User richtet, könnte
ich den Zugriff aus asiatischen, chinesischen, russischen IP-Adressblöcken per .htaccess
Datei sperren. Das scheint mir jetzt etwas übertrieben zu sein.
Ich möchte
lieber eine gemeinsame Eigenschaft dieser Anfragen nutzen: Alle Anfragen kommen
mit dem Referrer baidu.com, der chinesischen Suchmaschine. Es scheint also ein
Hackertool  geben, das diesen Referrer
als Standardeinstellung hat. Also versuche ich, den Traffic jetzt mit der
.htaccess Datei so zu blockieren:
order allow,deny
deny from .baidu.com
allow from all
Die Aufrufe haben offensichtlich das Ziel, a) festzustellen,
welches System läuft und b) potentiell vulnerable Elemente in einem
Zielverzeichnis zu finden. Wenn eine als verletzlich bekannte Datei gefunden
wird, erhält der anfragende Client eben „sucess“ und nicht 404. Dann kann das
Hacktool hier weitermachen.

 

Wahrscheinlich werden viele Websites überhaupt nicht so
stark verändert, dass schadhafte Codes ihrer Wirkung entfalten können – wie etwa
eine Phishingseite zu platzieren. Ich denke, dass die Hackscripts versuchen,
einige Links zu platzieren. Die werden dann verkauft. Das kann aussehen wie auf
dieser Seite:
Ein völlig automatisiertes, algoritmisches Verfahren also.
Es wird wohl nur helfen, immer wieder ein Backup herzustellen und immer die neuste Version des CMS zu verwenden. Ansonsten gibt es seit einiger Zeit die S-Initiative vom Branchenverband eco, Bundeswirtschaftsministerium und einigen Internetfirmen. Man kann sich dafür kostenlos anmelden, einen Securitycheck ausführen zu lassen. S-Initiative schickt dann täglich einen Crawler auf die Website und sendet eine E-Mail, falls schädliche Code-Elemente auf der Startseite gefunden werden.