Die neue Produktwelt bei 1&1 Ionos

Die Website 1&1 Ionos neu besucht

Vor einiger Zeit hat sich die Business-Application-Sparte bei 1&1 von United Internet in Ionos umbenannt. Hinter 1&1 Ionos (Affiliatelink) wie es in der Außendarstellung aktuell heißt, steckt die Webhosting- und Servermietsparte von 1&1. Erklärtermaßen will das Unternehmen in Montabaur und Karlsruhe weiter wachsen und einen eigenen Zugang zum Kapitalmarkt haben, wie der Vorstand schon vor einiger Zeit verlauten ließ.

Zwar ist die Optik der Webseiten immer noch stark im typischen und gewohnten blau-weiß gehalten, doch der Auftritt wurde etwas symbollastiger, weniger farbig, weniger knallig. Mit der Integration des bis dato startupmäßig geführten in Berlin ansässigen Unternehmens Profitbricks wurde 1&1 als Ionos nun zum vertikal und horizontal integrierten Cloud-Provider, der seinen Heimatmarkt in Deutschland und Europa hat, aber auch in den USA Wachstumsambitionen zeigte. Es gibt Ionos-Datacenter in den USA, der größere Teil an Serverkapazitäten dürfte aber immer noch in Deutschland beheimatet sein. Der traditionsreiche Webhoster Strato bleibt als Marke offenbar noch eigenständig.

[su_highlight background=“#ececec“ color=“#838383″]Hinweis: Dieser Beitrag enthält Affiliatelinks. [/su_highlight]

„Die neue Produktwelt bei 1&1 Ionos“ weiterlesen

Welche Zukunft haben Open-Source-Webapplikationen?

Einige Open-Source-Webapplikationen dominieren das Web – aber wie kommen kleinere Projekte zurecht?

Nach eigenem Bekunden sind weltweit mehr als 20 Prozent aller Webseiten mit WordPress realisiert. Manche Analysten kommen auf noch höhere Werte. WordPress ist der Prototyp einer Anwendung für Webserver, die unter einer quelloffenen Lizenz steht und sich mit der weitverbreiteten Serverzusammenstellung Linux, Apache, MySQL und PHP -ebenfalls alles unter quelloffenen Lizenzen verfügbar – begnügt.

„Welche Zukunft haben Open-Source-Webapplikationen?“ weiterlesen

Die weltweit Top 500 Hosting- und Cloud Unternehmen

Es gibt nur wenige Quellen, die Aussagen darüber zulassen, welche Unternehmen die meisten Websites beherbergen.

Netcraft ist sicher eine recht zuverlässige Quelle. Leider sind die Daten nicht öffentlich.

Eine andere Quelle ist w3bin.com. Dieser Anbieter nutzt zur Ermittlung offensichtlich in erster Linie User Input, denn mit dem Service kann man herausfinden, wo eine Webseite „zuhause“ ist. Einmal in die Datenbank aufgenommen, muss man dann nur noch ständig nachverfolgen, ob die Site immer noch unter der entsprechenden IP-Adresse liegt oder umgezogen wurde. Hier ist die Top 500 Hoster Liste nach w3bin.

Dies macht wohl auch Markosweb.com mit dem Service „Smart Viper“. Das Angebot ist, seinen Domainnamen einzugeben und dann ein paar Leistungsinformationen über die Website zu bekommen. Damit jedoch lassen sich auch entsprechende Daten sammeln. Inwieweit dies dann zu validen Ergebnissen führt, hängt davon ab wie zufällig die Eingaben erfolgen. Verteilen Sie sich Nutzer also gleichmäßig auf aller Hoster oder ist die Nutzung (was man annehmen darf) in gewisser Weise verzerrt. Die Daten werden immer noch aggregiert und sind auch noch – wenn auch versteckt – hier dargestellt.

Um die Zuverlässigkeit der Daten scheint es nicht besonders gut bestellt zu sein, denn beide Dienste liefern recht unterschiedliche Ergebnisse. Das rührt von den verschiedenen Erhebungsmethoden her. Im Zweifel würde ich den Markosweb-Daten weniger vertrauen. Insgesamt scheint sich der Service nicht mehr weiter zu entwickeln. Einige Features funktionieren nicht mehr richtig. Alles macht einen eher morbiden Eindruck.

 

 

Hosting & Cloud Computing: whd.global World Hosting Days 2015 in Rust – Einige Notizen

Die inzwischen sehr etablierte Fachmesse World Hosting Days geht heute am 26.März mit einer obligatorischen Party zu Ende.

Einmal im Jahr, bisher immer kurz vor der Eröffnung des Europaparks in Rust, einem großen Vergnügungspark am Rande des Schwarzwalds, trifft sich hier zumindest der auf EMEA ausgerichtete Teil der Branche.

Datenschutz und Sicherheit 

Wichtige übergreifende Themen in diesem Jahr waren Datenschutz und Sicherheit. Edward Snowden war für eine Session aus seinem Exil per Videokonferenz zugeschaltet, ebenso der Computersicherheitsveteran Eugene Kaspersky, bekannt von der gleichnamigen Sicherheitssoftware.

Er betonte, dass es versierte Cyberkriminelle stark auf Unternehmensnetzwerke und Firmendaten abgesehen hätten. Endkunden, Konsumenten seinen natürlich betroffen, doch dort sei nicht so viel an Daten zu entwenden. Wenn wirklich lange mit hohem Aufwand an Schadsoftware entwickelt werden würde, etwa an Software, die die Firmware der Festplatten umschreiben kann, dann würde man die Angriffe gegen möglichst lohnende Ziele richten. Dazu gehörten Kraftwerke und ähnlich sensible Einrichtungen der Infrastruktur.

Virtualisierung ist inzwischen ein gelerntes Thema, unter dem Docker und Container eine große Rolle spielten. Im Hardwarebereich war oft von DDR4 die Rede, im Netzbereich von SSL mit einem leicht ängstlichen Blick auf Free SSL.

Marketing im dichter werdenden Konkurrenzumfeld

Marketing für Hostingprodukte ist ein untergeordnetes Thema gewesen. Die Messe ist eher Hardware-lastig. Einzig Parallels sieht sich ganz betont als Partner auch kleiner Hostingunternehmen und liefert jedes Jahr recht zuverlässig neue Daten aus Umfragen unter der typischen Marketingzielgruppe, den SMBs (Small and Medium Business). Das sind kleine Firmen der Größenordnung 1 bis 50 Mitarbeiter. Gemäß dieser Daten stehen auch im europäischen Markt die Zeichen auf Wachstum (Größenordnung 10 bis 20 Prozent, je nach Segment).

Zwei große Trend gelten als Bedrohung: Der Trend, dass immer mehr Unternehmen auf Contentmarketing setzen und Inhalte bevorzugt gleich und ausschließlich in Facebook oder auf Linkedin publizieren und die Dominanz großer Cloud-Serverfarmen von Amazon (AWS), Microsoft (Azure) und Google (GCP).

Bedrohungen

Tatsächlich findet ja eine recht sichtbare Konsolidierung und Konzentrationsbewegung statt. Wie also können kleinere Anbieter überleben? Es gibt einige Tools, einen neuen Marktplatz für Cloud-Dienstleistungen, Website-Builder als Software as a Service (SaaS), zum Beispiel. Mit Spannung wird auch thegrid.io erwartet.

Sicher müssen normale Webseiten nutzwertiger werden, wenn sie ihre Existenzberechtigung behalten wollen. Schließlich findet man ja dank Googlesuche alle relevanten Informationen schon auf der Suchergebnisseite (im Lokalen sind es Öffnungszeiten, im E-Commercebereich die Produkte oder der Knowledge Graph). 

Über diesen Zusammenhang habe ich hier schon einmal geschrieben
Vielleicht könnten Webseiten von Unternehmen stärker personalisiert werden, so wie das Unternehmen duda es vorschlägt. Auch andere Unternehmen arbeiten daran, das Webseitenerstellen einfacher zu machen.

Insgesamt ist ein einer hoher Innovationsdruck zu spüren, der durch die Branche geht. Auf der Vermarktungsseite steigen die Herausforderungen, trotz oder vielleicht auch wegen der sich abzeichnenden Konsolidierung. Doch in jedem Jahr kommen neue Player auf den Markt, 2014 war dies godaddy aus den USA. Das Unternehmen, das nach eigenem Bekunden nun an die Börse will, hat auch die europäischen Märkte ins Visier genommen. Es bleibt also spannend.

Sind soziale Netzwerke ein Unfall der Hosting-Branche?

datacenter server racks Image

Warum haben sich geschlossene Plattformen wie Facebook, Linkedin, Twitter so verselbständigen können? Was wurde aus dem freien, offenen Web und sind propretäre, soziale Inhalte- und Sharingplattformen vielleicht ein Unfall der Hosting-Industrie? Zumindest sind sie deren ernsteste Bedrohung.
Ende der 1990er Jahre waren Computeranwender endlich in der Lage, digitale Inhalte im offenen Internet selbst zu veröffentlichen. Private Publishing im neuen, offenen World Wide Web war möglich. Nicht nur Studenten an Universitäten kamen in den Genuss dieser neuen Möglichkeit. Dank technischer Dienstleister, die das Massengeschäft übernahmen, war – zumindest in freien Gesellschaften – die eigene Webpräsenz für jedermann erschwinglich und möglich. Eine neue Branche entstand, die Hosting-Branche. Für kleines Geld konnte man sich ein Bündel aus Domainregistrierung, Serverspeicherplatz und E-Mail-Dienst abonnieren.

Private Publishing im WWW anno 1997

Zu dieser Zeit gab es viele technische Beschränkungen. Feedback von Usern einzuholen und zu verarbeiten, war schwer zu realisieren. Die eingesetzten Server waren noch nicht so leistungsfähig und Speicherplatz war noch teuer. Möglichkeiten für Interaktionen und dynamische Inhalte waren gegeben, längst aber nicht selbstverständlich und eher aufwändig. Die ersten Ansätze waren Gästebücher und Feedbackformulare, vielleicht auch Umfragen und ähnliche einfache Interaktionsmöglichkeiten.

Php & MySql brachten Anwendungen wie WordPress oder SugarCRM hervor

Erst mit der Verbreitung von PHP als quelloffene und somit kostenfreie Scriptsprache für serverseitig auszuführende Anweisungen und einer Datenbanklösung, in diesem Fall MySQL, war mehr machbar. So entstand das, was einige Zeit lang als Web 2.0 bezeichnet wurde, das „Mitmach-Web“. Speicher und Prozessorkapazität war billiger zu bekommen, die Rechenzentren wuchsen.

Viele Hosting-Unternehmen haben Technologien wie PHP und MySQL unterstützt, aber es versäumt, dem Kommunikations- und Vernetzungsbedarf der Webseitenbetreiber Rechnung zu tragen. Als User konnte sich einzelne Webdokumente im Browser bookmarken, aber die Konnektierung mit Usern war schwierig. RSS/Atom/XML-Feeds sollten Contents syndidizierbar machen, setzten aber wieder eine eigene Technologie voraus.

Dank der hohen Verbreitung von PHP und MySQL entwickelte sich eine florierende Open Source Landschaft, aus der so phantastische Anwendungen wie WordPress, Joomla! und Co hervorgingen. Content im Web bereit zu stellen, war nie einfacher.

Das Modell des zufällig surfenden Users 

Webseiten bezogen sich mehr und mehr auf einen Gegenstand, eine Organisation, ein Unternehmen. Verlinkungen auf andere Domains wurden seltener. Das Hypertextprinzip wurde nicht mehr voll ausgeschöpft.

Die Folge: Inhalte im Web konnten zunächst nur per manuell editiertem Webkatalog, per Linkliste oder per Suchmaschine zugänglich gemacht werden. Suchmaschinen wurden zur meistgenutzten Anwendung. Dabei basiert Googles elementarer PageRank-Algorithmus vor allem auf der Idee des Hyperlinks und dem Modell des zufällig surfenden Users, der sich von Link zu Link hangelt. Ein Modell, das der Praxis zunehmend weniger entsprach. Es gab das Bild des Surfers bald nicht mehr.

Während der großen Zeit der Google Suche war die Position auf der jeweiligen Suchergebnisseite für wichtige Keywords entscheidend. Der Traffic kommt heute mehr und mehr von Verlinkungen aus Beiträgen in Social Media Plattformen. Man liest einen Teaser online und klickt auf den Link, um den Rest der Story konsumieren zu können. Dabei ist die Story meist in Wort und Bild gekleidete Werbung, Native Advertising.

Native Advertising: Was ist Content, was ist Werbung?

Einige Inhalteanbieter, Contentaggregatoren oder -distributoren gehen sogar dazu über, Inhalte nur über Facebook oder Linkedin zu platzieren und die Story gar nicht mehr auf die eigene Website zu schreiben. Leute, die Modeblogs anbieten, präferieren heute Instagram. Das ginge schneller, ist optischer und das Teilen der Inhalte ginge einfacher von statten. Vorteile, die nicht von der Hand zu weisen sind. Entscheidend ist, wieviele Augenpaare man erreicht, nicht wie viele Page Impressions auf der werbefinanzierten Webseite generiert werden. Dieses alte Web-Geschäftsmodell ist auch aufgrund der Verbreitung von Adblockern ohnehin in Gefahr. Fest steht, dass immer mehr Contents in geschlossene Plattformen verlagert wird. Das offene Web stirbt.

Steht man auf dem Standpunkt, dass das offene Web grundsätzlich ein Wert an sich ist, kann man fragen, wo ist was schief gelaufen?

Was ist aus dem offenen Web geworden – alles nur noch Timeline?

Natürlich haben auch die Apps für ohnehin schon proprietäre mobile Betriebssysteme dafür gesorgt, dass das offene Web zurückgedrängt wird. Den Hauptteil an Traffic auf Mobilgeräten erzeugen Apps, nicht der mobile Webbrowser.

Dank der Veröffentlichung von PHP und MySQL unter Open Source Lizenzen fanden Content Management System wie WordPress, Joomla!, Drupal und in Deutschland insbesondere auch Typo3 eine große Verbreitung. Dank der großen Verbreitung gab es auch große und agile Entwicklercommunities, die von Version zu Version überzeugende Features geliefert haben.

Die Open Source CMS – Lösungen wurden von Hostingunternehmen gerne aktiv angeboten. Für Kunden entstand durch die einfache Installation Mehrwert. Allerdings ist kein Benefit an die Entwicklercommunities zurückgeflossen. Sie waren von Spenden abhängig oder fanden einen Großsponsor, so dass neben der Community-Version bald eine lizenzpflichtige Version mit mehr Support und Funktionen erstellt wurde.

Wie hätte sich Open Source social software besser entwickeln können? 

Einige CMS haben sich gut entwickelt, ebenso Tools wie Piwik oder CRM-Anwendungen. Leider haben es Social Media Plattformen nicht über Achtungserfolge hinaus geschafft. Leider war einem Friendica, einem Diaspora oder Elgg der große Durchbruch nicht vergönnt. Daneben gibt es noch eine Handvoll Social Media Frameworks mit einer dezentralen Struktur, die aber über das Betastadium nicht hinauskommen.

Vielleicht hätten sich die vielen Rechenzentrumsbetreiber und Hoster früher um soziale Netzwerke bemühen sollen. Es gibt offene Standards, die einen Austausch von Profildaten und Graphen ermöglichen. Damit könnte eine quelloffene, dezentrale Struktur ermöglicht werden, so wie es in Friendica auch angelegt ist.

Zu lange haben Hoster zugesehen und zumindest insgeheim darauf gehofft, dass social media ein schnell vorübergehendes Phänomen ist, dem die User bald überdrüssig werden würden. Ein Fehlschluss. Facebook und Co haben mit Hochdruck daran gearbeitet, für immer neue Zielgruppen interessant zu werden und zu bleiben. Ein Selbstläufer war das nicht, wie man am Schicksal von MySpace und StudiVZ unschwer erkennt.

Gibt es noch Leben in der Social Media Welt mit Open Source?

Die aktuelle Friendica Version trägt die Nummer 3.3.3, kann aber mit dem enormen Entwicklungstempo kommerzieller Plattformen nicht mithalten. Die User Experience ist mit Facebook oder Twitter einfach nicht zu vergleichen, von der Anzahl der Teilnehmer ganz abgesehen.

Das Problem des Sterbens des offenen Webs haben viele Unternnehmen erkannt. Einige haben sich in der Internet Defense Leage (https://www.internetdefenseleague.org) zusammengeschlossen. PHP, WordPress und Mozilla sind prominente Teilnehmer.

Eigentlich müsste auch Google daran interessiert sein, das offene, sich agil entwickelnde Web zu erhalten. Durch die Notwendigkeit, Milliarden Webseiten indizieren zu müssen, um Inhalte und Informationen zugänglich zu machen, hat Google viel Geld verdient. Die Anzeige von Werbebotschaften, die zu einer Sucheingabe passen, ist heute noch der mit Abstand größte Umsatzstrom für Google, der geringer wird, wenn immer mehr User über Social Media News und Informationen konsumieren und teilen.

Im Prinzip kann man Webseitenbetreiber nur ermutigen, die bisher betriebene Onlinepräsenz fortzuführen. Ein Verlass auf Social Media Plattformen zur Veröffentlichung eigener Contents ist gefährlich: Was passiert, wenn die Plattform eingestellt wird, die Richtlinien ändert oder das Geschäftsmodell? Dann sind im extremen Fall alle Inhalte und Kontakte verloren. 

Ghost – einfach nur bloggen, aber erst mal installieren!

Einfach nur Bloggen – das ist die Leitidee der Macher der
neuen Blogsoftware Ghost.
Ghost unterliegt wie viele andere Bloganwendungen einer
quelloffenen Lizenz. Jeder kann mit- und weiterentwickeln und – eigentlich ist
das ein Nebeneffekt – die Software kostenlos verwenden.
Ghost ist nun öffentlich verfügbar. Wer jedoch glaubt, es
genüge, eine Zip-Datei herunterzuladen, diese zu entpacken, auf einem
Serverspeicherplatz abzulegen und „install.php“ auszuführen, wird enttäuscht. 
Ghost baut nicht auf PHP, sondern auf dem Node JS – Framework auf. Als
Datenbank ist standardmäßig SQLite vorgesehen, aber auch mit mySQL funktioniert
das. Node JS verwendet einen eigenen http-Server.
Das hat einige Konsequenzen.

Server benötigt Node.js 

Zunächst muss der Server, egal, ob er unter Windows, MacOS
oder Linux läuft, node.js unterstützen. Falls dies nicht der Fall ist, muss man
die Installation vornehmen. Das ist von System zu System unterschiedlich. Ich habe
versucht, Ghost auf einem virtuellen Server mit Debian Linux zu installieren
und musste node.js natürlich zunächst nachinstallieren. Node.js ist auch noch recht frisch. Daher ändern sich die Releases schnell. Die offiziellen Repositories der Distributionen könnten veraltet sein. Vielleicht ist ein Selbstkompilieren hier tatsächlich besser. 
Für meinen virtuellen Server
habe ich mich nach dieser Installationsanleitung gerichtet, was gut geklappt
hat: http://www.sysadminslife.com/linux/howto-node-js-installation-unter-debian-squeeze-wheezy-ubuntu/
Zunächst habe ich versucht, Git zu verwenden, was ich auch
erst nachinstallieren musste. 

Installation auch über git möglich 

Da die Installation von Git auf dem V-Server
nicht reibungslos lief, habe ich die Installationsprozedur per Zip-Datei gewählt.
Ich habe das Installationspaket von github geladen, aber später gesehen, dass
Bitnami schon einen fertigen Stack bereit hält, was ich jedoch nicht
ausprobiert habe: http://bitnami.com/stacks
Wenn Node.js installiert ist, kann man sich an die
Installation von Ghost wagen. Also: Datei hochladen, entpacken (oder je nach
Geschmack auch umgekehrt), und dann in die Konsole (ich habe das als Root
vorgenommen) den Installationsbefehl ausführen: npm install –production .

Weird error 8

Mit „NPM Start“ kann man dann sehen, ob sich Ghost starten
lässt. In den meisten Fällen, wenn man nicht gerade auf einem lokalen PC oder
Notebook installiert, wird man Fehlermeldungen erleben. Ich zum Beispiel
erhielt immer „Weird Error 8“, was auf Konfigurationsfehler hindeutet.
Tatsächlich muss man in der config.js, die ich mit VI
bearbeitet habe, die Server-IP eintragen. Der standardmäßig eingetragene Port, 2368,
hat auf meinen VServer-Umfeld nicht funktioniert. Die URL lieferte einen
404-Fehler. Zudem soll ich den Apache stoppen, sagt ein Forumsbeitrag. Als Port habe ich 8080
gewählt. Mit diesen Parametern funktionierte der Aufruf auf die Startseite von
Ghost dann. Und auch der Apache ließ sich auf der gleichen virtuellen Maschine parallel betreiben. In diesem experimentellen Betrieb habe ich zumindest kein Stabilitätsproblem gesehen. Klar ist aber: Beide, also Apache oder Node.js können nicht auf Port 80 koexistieren. 

Andere Basistechnologie – bessere Performance? Es scheint so. 

Grundsätzlich ist die Herangehensweise und die
Basistechnologie ganz anders und überhaupt nicht mit WordPress, Joomla oder
auch Drupal vergleichbar. Der Installationsaufwand erinnert an die frühen Tage
von Typo3. Auch damals mussten viele serverseitige Voraussetzungen erfüllt
sein, viele Konfigurationen waren vorzunehmen und das System lief längst nicht
auf normalen, handelsüblichen Shared-Hosting-Accounts. So ist es auch mit
Ghost. Man braucht definitiv Zugang zu den Serverressourcen, um Node.js
nachzuinstallieren. Kaum ein shared hoster stellt node.js defaultmäßig bereit.
Wenn man die URL mit /ghost ergänzt, gelangt man ins
Backend. Hier soll man sich einen Blog-Account mit Namen und E-Mailadresse
anlegen. Der Mailtransportdienst kann in der Konfigurationsdatei festgelegt
werden, so dass der Accountinhaber benachrichtigt werden kann.
Dann kann man bereits versuchen, seinen ersten Blogbeitrag
zu erstellen und zu posten.
Ghost zeigt zwei Ansichten, das heißt unterteilt das
Browserfenster in vertikaler Richtung. Links gibt man den zu bloggenden Text
ein. Dabei kann man Markup verwenden, um die Formatierungen auszuzeichnen oder Bilder
einzufügen. Komfortablerweise gibt es dafür auch Tastaturshortcuts.
Auf der rechten Seite des Eingabebildschirmfensters sieht
man dann eine Vorschauansicht, die sich selbst und das sehr schnell
aktualisiert.
Überhaupt fällt auf, dass die Eingaben sehr schnell umgesetzt
werden. So typische leichte Latenzen, die man spürt, wenn man auf geteilten Servern
Wordpress oder auch Joomla administriert, sind hier überhaupt nicht zu
erfahren. Alles läuft flott und ohne Hänger. Möglicherweise ist das der große
Vorzug gegenüber etablierten Systemen und Basistechnologien wie PHP.
Die von mir verwendete Version Ghost 0.3 bringt bereits eine
RSS-Funktion und Social Share-Features mit. Es ist ein Template in den
Installationsdateien vorhanden, das sich interessanterweise responsiv verhält,
also auch auf meinem iPhone 4S sehr schnell und anders umgebrochen angezeigt
wurde und von der Aufteilung und der Ästhetik her an Google Plus erinnert. Es gibt
aber auch schon eine Hand voll anderer Themes. Sogar schon einige Plugins gibt
es, u.a. für eine Migration von WordPress auf Ghost via eines JSON Files.

Serverseitiges Javascript scheint Performancevorteile zu bringen

Momentan gibt es in Ghost nichts, was WordPress und Co nicht
auch könnten. Spannend wird es, wenn es um die Performance geht. Ghost läuft
viel flüssiger, möglicherweise aufgrund der Node.js Basistechnologie, die ja
bekanntermassen auf einer ressourcenschonendes Javascript-Laufzeitumgebung
basiert oder auch nur deshalb, weil in Ghost noch nicht so viel „drinsteckt“
wie in WordPress. Ich vermute aber, Node.js hat an der Performance einen großen
Anteil. 

Keine Chance mit Shared Hosting 

Dennoch kann Node.js am Beispiel von Ghost nun zeigen, was
es kann: Am PC ist Ghost genauso flüssig zu bedienen wie Mircosoft Word, wobei
ich mit dem eigentlich sonst recht behäbigen virtuellen Server auf einer mit
einem XEON Quadcore mit 3,20 GHz-Takt und 12 GB RAM bestückten Maschine verbunden
bin, die wohl irgendwo in einem Datacenter in Strassbourg steht.  Zumindest habe ich den Eindruck, dass Node.js
hier wirkliche Experience-Vorteile liefert, sowohl für den Administrator als
auch für den User, der durchs Blog surft.

Die Macher von Ghost arbeiten an einem hosted Service wie
blog.wordpress.com. Aber auch für viele andere Hostingdienste gibt es bereits
fertige Images, wie zum Beispiel für Amazon oder Rackspace. 
Über ghost: https://en.ghost.org/ 

Google löscht Blogger.com-Sites, die sich mit Sex und Sexualität beschäftigen und Werbung zeigen

Wie Spiegel Online heute schreibt, beginnt Google damit, neue Content-Richtlinien bei blogger.com umzusetzen. Das bedeutet, Blogs mit „nicht jugendfreien Inhalten“ können gelöscht werden, und zwar dann, wenn Blogger mit nicht-jugendfreien Inhalten Geld verdienen wollen: „Erstellen Sie beispielsweise keine Blogs, bei denen ein erheblicher Teil des Inhalts aus Werbung oder Links zu kommerziellen Pornografie-Websites besteht“, heißt es in den Content-Richtlinien.

Dabei weiß aber niemand, was ein „erheblicher Teil“ ist: Ein Banner, ein Text, der sich werbend oder überhaupt mit einem Porno-Angebot auseinandersetzt?

Un was ist „nicht-jugendfrei“. Dieser Begriff ist nicht exakt definiert und Auslegungssache.

Wie sich die Richtlinien lesen, erlaubt Google wohl nach wie vor, explizite Inhalte, wenn der Blog entsprechend gekennzeichnet ist. Nur Geld soll man damit nicht mehr verdienen dürfen. Die Grenzen allerdings dürften fließend sein. Schon Links zu kommerziellen Pornoangeboten können problematisch sein und zur Löschung führen.

Wer entsprechende Blogs betreibt, sollte wohl besser an einen Umzug denken. Als Alternative empfiehlt es sich, die WordPress-Software selbst auf einem Hosting-Account zu installieren und die Inhalte zu migrieren. Das WordPress-Netzwerk unter wordpress.com hat übrigens ähnliche Restriktionen, was die Vermarketung von Erotikinhalten angeht. Tumblr Blogs werden in der Google Suche nicht angezeigt.

Neben WordPress, das viel kann, aber für viele Anwender schon überdimensioniert erscheint, gibt es seit einiger Zeit einige Alternativen, die einen sehr viel minimalistischeren Ansatz bieten: Dazu gehören Koken, Craft, Anchor und Dropplets.

Was man dafür allerdings braucht, ist ein Webhosting-Account, den man bei einem professionellen Anbieter nicht umsonst bekommen wird. Die Kosten bewegen sich im Bereich 3 bis 6 Euro pro Monat. Wer vorhat, mit den Inhalten Geld zu verdienen, sollte diese Investition auf sich nehmen.

Allerdings schließen auch manche deutsche oder europäische Hoster in ihren Nutzungsbedingungen erotische oder Ü18-Inhalte aus oder verlangen Aufpreise. Grund dafür ist Mehraufwand für das Supportteam aufgrund Beschwerden oder Ermittlungsersuchen staatlicher Stellen, die bei Erotikwebsites mit höherer Wahrscheinlichkeit zu erwarten sind.

Zudem muss man beachten, dass eine anonyme Veröffentlichung dann nicht mehr möglich ist: Wer eine eigene Domain betreibt, wird in die öffentlich zugänglichen Whois-Datenbanken eingetragen, mit Klarnamen und ladungsfähiger Adresse. Bei Blogger.com oder anderen gratis Blog-Diensten ist das nicht der Fall, so lange man keine eigene Domain hat. Allerings gibt es auch für solche Blogs eine Impressumspflicht, gerade dann, wenn man gewerblich tätig ist, d.h. eine Website mit Gewinnerzielungsabsicht betreibt. Das allerdings kann bei dieser Thematik dann aber auch ein Sicherheitsrisiko sein.

Hosting als Rankingfaktor in Suchmaschinen?

Mein Privatverdacht war bisher immer, dass es durchaus einen Rankingfaktor „Hosting“ oder „Hoster reputation“ gibt.

Gibt es eine Hoster Reputation?

Offiziell war nicht viel zu erfahren, zumindest habe ich nie etwas von einer „hoster reputaion“ als Rankingfaktor gehört oder gelesen. Aus aber aus Sicht einer Suchmaschine kann es ja nachvoillziehbarerweis absolut interessant sein, festzustellen, wo und bei welchem Anbieter die Site gehostet ist.

Aufwendige Seiten wird man kaum auf einem Shared Server hosten, Business Websites nicht auf einem gratis Account  – zumindest heute nicht mehr (angeblich ist ja Mark Zuckerbergs erste Site wieder aufgetaucht und lag beim amerikansichen Angelfire – wie Tripod seinerzeit ein Gratishoster von Lycos).

Natürlich kann es interessante und verlinkungswürdige Seiten auch bei Gratishostern geben, aber wie hoch ist die Wahrscheinlichkeit, auf Gratishoster-Servern viele relevante Sites zu finden?

Hostingkonzept als Spiegel des Gesamtaufwands, den ein Anbieter zum Betrieb der Website betreibt?

Denn: Mit der Auswahl des Hostingkonzepts und damit des Hosters sollte sich eine Beziehung zum verfügbaren Budget, das ein Unternehmen bereit stellt, um einen Webauftritt zu realisieren, ergeben. Ein ähnliches Signal wäre das zugrundeliegende Content Management System. Auch die Korrektheit des Codes ist ja als Spiegelbild des Aufwands, der für den Betrieb der Website getrieben wird,  bekanntermaßen ein Faktor.

Man kann  ja ab und an einige Fragen zu Google schicken, die dann von Matt Cutts mit viel Glück per Video im Webmaster Channel bei Youtube beantwortet werden. Meine Frage „Is there something like a hoster reputation as ranking factor“ kam zwar nicht dran, aber eine ähnliche:

My SEO client is using shared hosting for one of their websites. When I checked other sites hosted on their server, I found some spammy websites. Will that affect ranking of my client’s website?

Google: Hoster Reputation beeinflusst Ranking nicht 

Von Google wird das dementiert. „Typischerweise nicht“. Es gebe Ausnahmen, aber die seien, sehr sehr rar. 

Also: Offensichtlich gibt es keine „hoster reputation“, die das Ranking beeinflusst. Aber immerhin existieren ja viele Faktoren, die erwiesenermaßen im Rankingalgorithmus berücksichtigt werden. Die Seitenladezeit und der Serverstandort gehören dazu. 

Modethema Cloud Computing bei Hostern

Deutsche Webhosting Firmen setzen auf das Schlagwort Cloud Computing. Bei 1&1 heißt dass, dass sich der Kunde eines virtuellen Servers die Ressourcenzuordnung selbst gestalten kann und auch während der Laufzeit des Vertrags Anpassungen vornehmen kann. So ist es möglich, nach und nach mit dem wachsenden Projekt auch die Ressourcenzuordnung zu erhöhen. Unter dem Strich kann das teuerer als ein dedizierter Server werden.Ich hatte heute kurz Gelegenheit, das neue Produkt „Jiffy Box“ des Hosting Anbieters domain factory zu testen. Hier geht der Anbieter noch einen Schritt weiter: Kurz beschrieben ist die Jiffy Box ein virtueller Server, den man nutzungsabhängig bezahlen kann. Je nach CPU-Kern-Anzahl, Ram und HD-Platz kostet eine Stunde, in der der Server läuft 0,02 bis 0,13 Euro pro Stunde. Der VServer lässt sich jederzeit stoppen (was dann nichts kostet) oder einfrieren (auch hier werden Gebühren fällig, aber mit ab 0,005 Euro pro Stunde deutlich weniger als im aktiven Zustand. Traffic ist nicht inklusive, eine IP ist im Preis inbegriffen, bis zu drei sind möglich. Vielleicht eine gute Alternative als Gameserver, Fileserver oder Testserver.