Was sucht man in einer Suchmaschine, die man kennenlernen will als erstes? Ja, seinen eigenen Namen.
Das habe ich bei Wolfram Alpha probiert. Ergebnis: Die Suche kennt die Zeichenkette „käkenmeister“ nicht und schlägt als naheliegenden Treffer „Hoffmeister“ vor, was offensichtlich der Name eines Krater auf dem Mond ist.
Nervsoftware mit Flash-Update
Woran könnte es liegen, dass viele Windows – User darauf verzichten, Java- oder Flash-Updates einzuspielen, obwohl Sicherheitslücken in den alten Versionen bekannt geworden sind?
Ein Punkt könnte die forcierte, aber unerwünschte Installation von Drittparteisoftware wie von McAfee sein. Aktuelles Beispiel: Während man sich im Java-Update-Fenster schon darauf eingestellt hat, das bereits gesetzte Häkchen für den Zusatzsoftwarekram zu entfernen, verändert Adobe das Look & Feel der Installationsanleitung immer mal. Zur Zeit sieht es für das Update von Flash so aus:
Man sollte also in der Mitte das „Optionale Angebot“ für McAfee Security Scan Plus entfernen. Das ist lästig. Ich habe es zuerst auch übersehen und musste dann die Installation später abbrechen.
Traffic, den man nicht so gerne sieht
Es fällt ja schon auf, wenn neue Links in den Referrern stehen und nicht nicht nur die üblichen verdächtigten. Natürlich sieht man dann nach, was das für eine Site ist. Im Fall von ourmeets (dot) com ist das eine Pornoseite der hässlicheren Art, die so einfach ein bisschen Traffic generieren will – einfach weil man den Link mal aufruft.
Das ist schon anderen Blogbetreibern aufgefallen:
http://pithybits.blogspot.de/2013/10/why-is-ourmeetscom-visiting-my-website.html
http://from-the-sidelines.blogspot.de/2013/10/again-with-spam.html
Ghost – einfach nur bloggen, aber erst mal installieren!
neuen Blogsoftware Ghost.
quelloffenen Lizenz. Jeder kann mit- und weiterentwickeln und – eigentlich ist
das ein Nebeneffekt – die Software kostenlos verwenden.
genüge, eine Zip-Datei herunterzuladen, diese zu entpacken, auf einem
Serverspeicherplatz abzulegen und „install.php“ auszuführen, wird enttäuscht.
Datenbank ist standardmäßig SQLite vorgesehen, aber auch mit mySQL funktioniert
das. Node JS verwendet einen eigenen http-Server.
Server benötigt Node.js
oder Linux läuft, node.js unterstützen. Falls dies nicht der Fall ist, muss man
die Installation vornehmen. Das ist von System zu System unterschiedlich. Ich habe
versucht, Ghost auf einem virtuellen Server mit Debian Linux zu installieren
und musste node.js natürlich zunächst nachinstallieren. Node.js ist auch noch recht frisch. Daher ändern sich die Releases schnell. Die offiziellen Repositories der Distributionen könnten veraltet sein. Vielleicht ist ein Selbstkompilieren hier tatsächlich besser.
habe ich mich nach dieser Installationsanleitung gerichtet, was gut geklappt
hat: http://www.sysadminslife.com/linux/howto-node-js-installation-unter-debian-squeeze-wheezy-ubuntu/
erst nachinstallieren musste.
Installation auch über git möglich
nicht reibungslos lief, habe ich die Installationsprozedur per Zip-Datei gewählt.
Ich habe das Installationspaket von github geladen, aber später gesehen, dass
Bitnami schon einen fertigen Stack bereit hält, was ich jedoch nicht
ausprobiert habe: http://bitnami.com/stacks
Installation von Ghost wagen. Also: Datei hochladen, entpacken (oder je nach
Geschmack auch umgekehrt), und dann in die Konsole (ich habe das als Root
vorgenommen) den Installationsbefehl ausführen: npm install –production .
Weird error 8
lässt. In den meisten Fällen, wenn man nicht gerade auf einem lokalen PC oder
Notebook installiert, wird man Fehlermeldungen erleben. Ich zum Beispiel
erhielt immer „Weird Error 8“, was auf Konfigurationsfehler hindeutet.
bearbeitet habe, die Server-IP eintragen. Der standardmäßig eingetragene Port, 2368,
hat auf meinen VServer-Umfeld nicht funktioniert. Die URL lieferte einen
404-Fehler. Zudem soll ich den Apache stoppen, sagt ein Forumsbeitrag. Als Port habe ich 8080
gewählt. Mit diesen Parametern funktionierte der Aufruf auf die Startseite von
Ghost dann. Und auch der Apache ließ sich auf der gleichen virtuellen Maschine parallel betreiben. In diesem experimentellen Betrieb habe ich zumindest kein Stabilitätsproblem gesehen. Klar ist aber: Beide, also Apache oder Node.js können nicht auf Port 80 koexistieren.
Andere Basistechnologie – bessere Performance? Es scheint so.
Basistechnologie ganz anders und überhaupt nicht mit WordPress, Joomla oder
auch Drupal vergleichbar. Der Installationsaufwand erinnert an die frühen Tage
von Typo3. Auch damals mussten viele serverseitige Voraussetzungen erfüllt
sein, viele Konfigurationen waren vorzunehmen und das System lief längst nicht
auf normalen, handelsüblichen Shared-Hosting-Accounts. So ist es auch mit
Ghost. Man braucht definitiv Zugang zu den Serverressourcen, um Node.js
nachzuinstallieren. Kaum ein shared hoster stellt node.js defaultmäßig bereit.
Backend. Hier soll man sich einen Blog-Account mit Namen und E-Mailadresse
anlegen. Der Mailtransportdienst kann in der Konfigurationsdatei festgelegt
werden, so dass der Accountinhaber benachrichtigt werden kann.
zu erstellen und zu posten.
Browserfenster in vertikaler Richtung. Links gibt man den zu bloggenden Text
ein. Dabei kann man Markup verwenden, um die Formatierungen auszuzeichnen oder Bilder
einzufügen. Komfortablerweise gibt es dafür auch Tastaturshortcuts.
man dann eine Vorschauansicht, die sich selbst und das sehr schnell
aktualisiert.
werden. So typische leichte Latenzen, die man spürt, wenn man auf geteilten Servern
Wordpress oder auch Joomla administriert, sind hier überhaupt nicht zu
erfahren. Alles läuft flott und ohne Hänger. Möglicherweise ist das der große
Vorzug gegenüber etablierten Systemen und Basistechnologien wie PHP.
RSS-Funktion und Social Share-Features mit. Es ist ein Template in den
Installationsdateien vorhanden, das sich interessanterweise responsiv verhält,
also auch auf meinem iPhone 4S sehr schnell und anders umgebrochen angezeigt
wurde und von der Aufteilung und der Ästhetik her an Google Plus erinnert. Es gibt
aber auch schon eine Hand voll anderer Themes. Sogar schon einige Plugins gibt
es, u.a. für eine Migration von WordPress auf Ghost via eines JSON Files.
Serverseitiges Javascript scheint Performancevorteile zu bringen
auch könnten. Spannend wird es, wenn es um die Performance geht. Ghost läuft
viel flüssiger, möglicherweise aufgrund der Node.js Basistechnologie, die ja
bekanntermassen auf einer ressourcenschonendes Javascript-Laufzeitumgebung
basiert oder auch nur deshalb, weil in Ghost noch nicht so viel „drinsteckt“
wie in WordPress. Ich vermute aber, Node.js hat an der Performance einen großen
Anteil.
Keine Chance mit Shared Hosting
es kann: Am PC ist Ghost genauso flüssig zu bedienen wie Mircosoft Word, wobei
ich mit dem eigentlich sonst recht behäbigen virtuellen Server auf einer mit
einem XEON Quadcore mit 3,20 GHz-Takt und 12 GB RAM bestückten Maschine verbunden
bin, die wohl irgendwo in einem Datacenter in Strassbourg steht. Zumindest habe ich den Eindruck, dass Node.js
hier wirkliche Experience-Vorteile liefert, sowohl für den Administrator als
auch für den User, der durchs Blog surft.
blog.wordpress.com. Aber auch für viele andere Hostingdienste gibt es bereits
fertige Images, wie zum Beispiel für Amazon oder Rackspace.
„Not provided“: Bald gibt es keinen Such-Keywordbericht mehr
Im amerikanischen Blog von searchengineland.com war es bereits zu lesen: Google wird – mit der Argumentation, die Google-Such in Zeiten von PRISM, diskreter zu machen – keine Reports mehr ermöglichen, die erkennen lassen, mit welchen Suchbegriffen die Besucher auf die eigene Website gelangt sind.
Der Anteil der nicht zuordenbaren Suchanfragen, die in Google Analytics mit „not provided“ ausgewiesen werden, ist in den letzten Monaten kontinuierlich gestiegen. Die Kurve der besuche durch die organische Suche und die Kurve für die anzahl unbekannter Suchbegriffe nähert sich kontinuierlich an, wie jeder in seinem Analytics Konto nachvollziehen kann:
Bald wird der Anteil nicht zugeordneter Suchbegriffe 100 Prozent betragen. Das hat Google inzwischen auch bestätigt.
Google bezeichnet diese Änderung als eine „Post-PRISM“-Maßnahme:
http://searchengineland.com/post-prism-google-secure-searches-172487
Kaum einer nimmt Google ab, dass man sich tatsächlich hauptsächlich Sorgen um den Datenschutz der Nutzer macht.
Der wahre Grund, so vermuten viele, könnte eher der Versuch sein, das Adwords-Programm weiter zu beflügeln. Wer Adwords bucht, erhält nach wie vor Angaben darüber, mit welchen Suchbegriffen die User auf der Website landen. Natürlich kostet Adwords Geld – pro Klick eine Summe, die hauptsächlich davon abhängt, wie viele andere Anbieter Anzeigen präsentieren wollen, die erscheinen, wenn jemand mit einem festgelegten Keyword oder einer ganzen Phrase etwas mit Google sucht.
Auch in den Google Webmaster Tools werden Suchbegriffe gezeigt, die dazu führen, dass die entsprechende Domain in der Suchergebnisliste auftaucht. Die Darstellung ist aber eine andere: Gezeigt wird nicht, welche Treffer der User in einer Suchergebnisliste geklickt hat, sondern welche Keywords zu einer Ausweisung als Suchtreffer geführt haben. Damit verliert sich aber die Spur. Als Seitenbetreiber kann man nicht mehr verfolgen, welche Keywords für eine Conversion wichtig sind.
Was bleibt also, um Recherche nach wichtigen Keywords zu betreiben?
Man muss die Google Suchergebnisseiten nach eigenen relevanten Keywords durchsuchen und ermitteln, welche URL als Suchergebnis gezeigt worden ist. Das heißt, man muss massenhafte Anfragen an Google schicken und die Suchergebnisse auf die eigene Domain filtern. Oder entsprechende Tools benutzen, die aber durch die Bank Geld kosten. Ausserdem mag Google kein „Scraping“ seiner Suchergebnisseiten.
Zudem kann man die Angaben aus Analytics mit denen aus den Webmastertools vergleichen. In den Webmastertools werden Impressions und Clicks für die Top-Keywords gezeigt. Was für die Webmastertools die „Clicks“ sind, ist für Analytics ein „Visit“.
Offensichtlich liefern die Webmastertools nach wie vor Keyword-Daten, wenn auch stärker vergröbert als Analytics dies tat. Nun könnte man durch geschicktes Parallelreporten und Vergleichen versuchen, den Block „not provided“ oder künftig „organic“ aufzulösen.
Psychologie: Warnhinweise auf Produktverpackungen können Verkäufe sogar erhöhen
Verkehrte Welt: Eigentlich sind die gesetzlich vorgeschriebenen Aufschriften wie „Rauchen kann töten“ auf Zigarettenpackungen dafür gedacht, Leute davon abzuhalten, Zigaretten zu konsumieren.
Die Wirkung der drastischen Texte, die vor dem Produkt warnen,kann allerdings paradox sein: Der Psychologe Ziv Camon hat einen Effekt gefunden, nach der Konsumenten die Produkte positiver bewerten, wenn es einen gewissen zeitlichen Abstand zwischen dem Warnhinweis und der Kaufentscheidung gibt. Die Verkaufszahlen können so ironischerweise befeuert werden.
In einem vierteiligen Experiment hat man ermittelt, dass Versuchpersonen, die Raucher waren, und die entsprechende Warnhinweise gesehen hatten, erwartungsgemäß weniger Zigaretten kauften, wenn Sie unmittelbar danach die Gelegenheit hatten.
In einer Vergleichsgruppe, in denen die Versuchspersonen Warnhinweise zu sehen bekamen, aber erst einige Tage später Zigaretten kaufen konnten, zeigte sich ein anderes Bild: Unter diesen Umständen haben die Versuchspersonen mehr Zigaretten verkauft.
Man fragt sich also, wie dieser Effekt denn zu erklären ist. Ein Vorschlag von Camon und seinem Forschunsgteam beruht auf der Annahme, dass mit der zeitlichen Distanz die Gefahr abstrakter erscheint und die Warnhinweise stärker als eine Art Signal für das fürsorgliche Verhalten des Herstellers betrachtet wird.
Der Artikel über die Forschungsarbeit ist hier erschienen:
http://www.psychologicalscience.org/index.php/news/releases/warning-of-potential-side-effects-of-a-product-can-increase-its-sales.html
Black Hat SEO Methode im Trend: Websites hacken, um Links zu platzieren
Website ein CMS einsetzt.
auf URLs mit dem Referrer „baidu.com“. Die Zugriffe gehen auf bekannte
Admin-URLs von verbreiteten und nicht so verbreiteten Content Management
Systemen.
vergangenen 24 Stunden gesehen habe:
wenn die Anfragen von einem Botnetz kommen, dann hilft das sowieso nichts.
auch in meinem CMS eine Schwachstelle findet.
ich den Zugriff aus asiatischen, chinesischen, russischen IP-Adressblöcken per .htaccess
Datei sperren. Das scheint mir jetzt etwas übertrieben zu sein.
lieber eine gemeinsame Eigenschaft dieser Anfragen nutzen: Alle Anfragen kommen
mit dem Referrer baidu.com, der chinesischen Suchmaschine. Es scheint also ein
Hackertool geben, das diesen Referrer
als Standardeinstellung hat. Also versuche ich, den Traffic jetzt mit der
.htaccess Datei so zu blockieren:
welches System läuft und b) potentiell vulnerable Elemente in einem
Zielverzeichnis zu finden. Wenn eine als verletzlich bekannte Datei gefunden
wird, erhält der anfragende Client eben „sucess“ und nicht 404. Dann kann das
Hacktool hier weitermachen.
stark verändert, dass schadhafte Codes ihrer Wirkung entfalten können – wie etwa
eine Phishingseite zu platzieren. Ich denke, dass die Hackscripts versuchen,
einige Links zu platzieren. Die werden dann verkauft. Das kann aussehen wie auf
dieser Seite:
Kommt die Nischengesellschaft wieder?
Die Ausfrage diese Post war, wie es sich auf die Gesellschaft im Sinne von Verhaltensänderung ihrer Mitglieder auswirkt, wenn alle sich bewusst sind, permanent mit allen Internet- und Mobile-Aktivitäten überwacht werden zu können.
Gar nicht ist die eine Hypothese, die man öft hört und die sich vielleicht mit der Phrase „ich habe nichts zu verbergen“ pointieren lässt.
Meine These war, das Kommunikationsverhalten ändert sich langsam, aber nachhaltig, was gesellschaftliche Auswirkungen haben kann. Es bilden sich womöglich Nischen, so wie man Nischen in autoritären, hoch-kollektivistischen Gesellschaften kennt.
Eine solche Nische könnte das sein, was Telepolis mit „Darknet“ bezeichnet.
UPDATE 29.7.2013 – Telepolis Beitrag zum „Darknet“
Es gibt keine eindeutige Definition davon, was man mit „Darknet“ meint. Letztendlich scheinen solche Zuschreibungen wie „verschlüsselt“, „nicht durchsuchbar“, „abgetrennt vom ’normalen‘ Internet“.
Zitat:
Einem notwendigen, verlässlichen, rechtsicheren, vertrauenswürdigen
kommerzialisierten und überwachten Teil (dem „Internet“) und einem
unzuverlässigen, rechtlosen, anonymen, dafür freien und nicht
zensierbaren Teil (dem „Darknet“, optimalerweise so konstruiert, das
seine Nutzung abstreitbar ist).
UPDATE 22.07.2013 – der Freitag hat eine ähnliche Geschichte veröffentlicht.
http://www.freitag.de/autoren/der-freitag/uns-steht-eine-neue-netzguerilla-bevor
Der Autor sieht aber eher eine Art Radikalisierung, weniger einen Rückzug und nimmt Bezug auf Cypherpunks von Julian Assange, Jacob Appelbaum, Jérémie Zimmermann und Andy Müller-Maguhn:
Nur „eine Elite von High-Tech-Rebellen“, heißt es in Cypherpunks, sei in der Lage, sich dem „Moloch Überwachungsstaat“ zu entziehen.
und weiter:
Vielleicht müssen wir das Internetzeitalter künftig in eine Zeit vor und
in eine Zeit nach Snowden einteilen. Die Zeit der Happenings und des
spielerischen Umgangs mit dem Netz ist jedenfalls vorbei. Den
Netzpolitikern, die seit Jahren mit zäher Kleinarbeit und demokratischen
Mitteln für ein freies Internet kämpfen, erwächst daraus eine neue
Verantwortung: Sie müssen den radikalisierten Gruppen – die sich mit
Kleinkram nicht mehr abspeisen lassen werden – eine überzeugende
Alternative anbieten.
Warum eigentlich passiert gerade keine Revolution? Warum lassen sich die Untertanen die Überwachung offensichtlich gefallen und der Regierung jede Nicht-Aktivität in dieser Angelegenheit durchgehen? Das fragt sich unter anderem Jakob Augstein in seiner Rubrik auf Spiegel online.
Faulheit, Bequemlichkeit, sagen die einen. Fehleinschätzung, sagen andere, zum Beispiel Sascha Lobo. Es ginge um nichts geringeres als den freien Willen, so Viktor Mayer-Schönberger in der Zeit.
Wir fühlen uns nicht durch Algorithmen bedroht, weil wir zur Zeit kein Unterdrückungsregime sehen, das dieses potentielle Machtinstrument gegen die Bevölkerung einsetzen will. Dennoch ist es sehr erstaunlich, dass die Haltung „Ich habe nichts zu verbergen“ oder „ist doch nicht schlimm“ im gleichen Kulturkreis der Häuserverpixeler artikuliert wird. Die Deutschen sind doch eigentlich alles andere als transparent, wenn es um Gehalt oder Reichtum geht. Das darf doch keiner wissen, höchstens erahnen, um den gesellschaftlichen Status zu proklamieren (man trägt Rolex, fährt einen SUV). Biedermann und die Brandstifter.
Überwachung riecht man nicht und sieht man nicht
Reaktion wird erfolgen
Ich denke, die internetnutzende Bevölkerung wird reagieren, so wie einige (wenige) anfangen, ihre Daten zu verschlüsseln, US-Anbieter zu meiden oder sich sogar Gedanken machen, inwiesweit sie ihren Internettraffic beeinflussen können. Ein Tool zum Tracen und Visualisieren der Route gibt es bei Opendatacity.de
Privates wird wieder privater. Wir bloggen nicht mehr über kritische Einsichten, wir teilen keine schwer verständlichen Stimmungen oder Bilder mehr, weil wir den Adressatenkreis nicht mehr kennen und abschätzen können.
Nischengesellschaften
Wir unterscheiden wieder: Hier das Öffentliche oder Halböffentliche, hier das Private. Die Frage ist nur – wie findet das Austauschen des Privaten statt? Das Öffentliche wird Kommunikation zweiter Klasse. Nischengesellschaften entstehen, vielleicht wie damals in der DDR mit der allgegenwärtigen Überwachung durch die Stasi und ihre IMs, vermeintliche Freunde und Kollegen. Jeder Brief, jedes Telefonat, jedes Treffen überwacht.
Ende von Social Media?
Wahrscheinlich bilden sich Zufluchten und Zirkel, in der es keine elektronische Kommunikation gibt. Für die Social Community Idee wird dies ein heftiger Rückschlag werden. Die Idee, Einsichten, Ideen, Erfahrungen mit einem ausgesuchten Kreis zu teilen, wird leiden. Social Media Plattformen werden komplett zur Promotionmaschine, nicht weiter. Schade eigentlich.
Meetings statt Videokonferenzen
Firmen werden wieder auf das direkte Gespräch setzen, auf Besprechungen, bei denen Datenbrillen verboten sind. Videokonferenzen, teilweise als das Heil gegen teuere Geschäftsreisen gefeiert, werden eine Renaissance erleben und dem Staat traut man wieder ein Stück weniger.
Privatleute treffen sich in sehr privaten Räumen. Das muss geplant und anvisiert werden. Big Brother sieht die Aktivitätszunahme, kennt aber nicht mehr den Inhalt. Ein menschlicher Spion müsste los.
Subnets und private Netze
Es wird eine Revolution stattfinden, aber keine schnelle. Keine, die von heute auf morgen Spuren hinterlässt und Auswirkungen augenfällig macht. Die Begeisterung für Cloudcomputing wird schwinden, wir setzen wieder auf installierte Software und physikalisch verfügbare Datenträger und geteilt wird nicht mehr. Das könnte der gerade aufkommenden Share-Economy einen gehörigen Dämpfer versetzen.
Die Umstellung dauert
Das dauert deswegen so lange, weil man sich erst wieder umstellen muss, doch der Anfang ist gemacht.
So wird man die Pest von „delta-search.com“ wieder los
Es gibt immer mehr Freeware-Angebote, die nach dem Herunterladen und Installieren ungefragt einige zusätzliche Komponenten mitinstallieren.
Beim Installieren von Freeware unbedingt die „Advanced“ – Option nutzen, sonst gelangt allerlei Softwaremüll ins System. |
Sogar im Advanced Installationsdialog muss man die Anweisung sehr genau lesen, sonst wird die Malware der Installation doch noch hinzugefügt. So muss man in einem Beispiel auf „no“ klicken, statt auf das gewohnte „OK“.
Augen auf auch im Installationsdialog. Sonst bekommen Sie allerhand Adware und Malware untergeschoben. |
Einer der aggressivsten Malwareinstaller ist zur Zeit delta-search:
– delta-search klinkt sich als Toolbar in jeden Browser, den Sie installiert haben
– außerdem wird delta-search die Standardsuche
– und weil das noch nicht reicht, macht sich delta-search zur Startseite in jedem Browser
– zusätzlich wird ein als Sicherheitstool getarntes Progrämmchen installiert, das Adware- und Malwareentfernern die Arbeit erschweren soll
Die Verbreitung aufgrund aggressiver Installationsmethoden von delta-search.com steigt rasant. |
Wer Delta Search betreibt, ist gar nicht so einfach herauszufinden. Weder in den T&C oder im Privacy-Statement noch über eine Whois-Abfrage ist der Inhaber der Domain zu ermitteln. Die Domain wurde über Godaddy registriert und wird von einer amerikanschen Firma verwaltet, deren Spezialität es ist, den eigentlichen Inhaber nicht preiszugeben. Das erinnert an Babylon Search, vielleicht handelt es sich ja auch um den gleichen Anbieter, der nur das Webfrontend verändert hat, nachdem diese Domain verbrannt war.
Die Identität des Domaininhabers von delta-search.com wird verschleiert. |
Delta Search versucht, einmal im System eingenistet, nicht weiter aufzufallen und akzeptable Suchergebnisse zu liefern.
Die Ähnlichkeit zur Google-Suchseite ist frappierend: Die Schrift, der schwarze horizontale Navigationsbalken, die Aufteilung der Seite… flüchtige User sehen noch nicht einmal den Unterschied. Und eine weitere Anzahl User wird Delta Search mehr oder weniger zähneknirschend akzeptieren, da das Deinstallieren recht aufwändig ist.
Auch die Suchergebnisse sehen bekannten SERPs (search engine result pages) zum Verwechseln ähnlich. Dennoch gibt es deutliche inhaltliche Qualitätsunterschiede im Vergleich zu Google.
Wie aber kann man „delta-search.com“ wieder loswerden?
Es gibt einige Removal-Tools, aber auch „zu Fuß“ kann man die entsprechenden Einstellungen wieder rückgängig machen.
Software deinstallieren
Zunächst sollte man die Software, die mit dem eigentlichen Hauptprogramm installiert worden ist, in der Systemsteuerung unter „Software“ de-installieren. Auch die Toolbars für die Browser kann man dort deinstallieren.
Danach nimmt man sich die Browser vor und entfernt die Einträge für die Startseite und die Suchbox.
delta-search-Entfernung aus Firefox
delta-search-Entfernung aus Chrome
Bei Chrome muss man unter „Einstellungen“ die Angabe „Bestimmte Seite oder Seiten öffnen“ im Abschnitt „Beim Start“ öffnen. Hier ist auch delta-search eingetragen. Man muss dies nur im Dialog „Startseiten“ löschen.
Im Abschnitt „Suche“ in den Chrome-Einstellungen muss man festlegen, welche Suchmaschine mit der Omnibox verwendet werden soll. Die Omnibox ist das Eingabefeld in Google Chrome. Dort kann man eine URL eingeben oder auch einen Suchbegriff.
Überprüfen Sie sicherheitshalb noch einmal die Einträge im Menüpunkt „Erweiterungen“ in Chrome.
delta-search-Entfernung aus dem IE
Im Internetexplorer funktioniert dies ganz ähnlich:
Öffnen Sie unter dem Menüpunkt „Einstellungen“ den Punkt „Add-Ons verwalten“. Unter „Suchanbieter“ können Sie „Delta Search“ entfernen.
Schließen Sie die „Einstellungen“-Dialogseiten und klicken Sie unter „Extras“ noch auf den Menüpunkt „Internetoptionen“. Auf der Registrierkarte „Startseite“ sehen Sie den Delta-Search-Eintrag, den Sie hier entfernen können, indem Sie einfach auf „Leere Seite“ klicken. Schließen Sie den Dialog mit „OK“ ab.
Eigene Summer-Challenge: ein dahindümpelndes Webprojekt mit Content pushen
Seit einigen Jahren betreibe ich eine kleine Seite, die eigentlich ursprünglich als Testsite für Typo3 gedacht war.
Viel Zeit und Geld kann ich in dieses Projekt nicht investieren, aber ich will im Sommer 2013 nun einmal versuchen, der Domain ein bisschen Speed zu geben, allerdings nur mit Content. Ich werde keine Links organisieren oder kaufen.
Gestern mal ein paar Onsite-Dinge gemacht, schon sieht man einen Ausschlag. Mal sehen, wohin das führt.