Hosting als Rankingfaktor in Suchmaschinen?

Mein Privatverdacht war bisher immer, dass es durchaus einen Rankingfaktor „Hosting“ oder „Hoster reputation“ gibt.

Gibt es eine Hoster Reputation?

Offiziell war nicht viel zu erfahren, zumindest habe ich nie etwas von einer „hoster reputaion“ als Rankingfaktor gehört oder gelesen. Aus aber aus Sicht einer Suchmaschine kann es ja nachvoillziehbarerweis absolut interessant sein, festzustellen, wo und bei welchem Anbieter die Site gehostet ist.

Aufwendige Seiten wird man kaum auf einem Shared Server hosten, Business Websites nicht auf einem gratis Account  – zumindest heute nicht mehr (angeblich ist ja Mark Zuckerbergs erste Site wieder aufgetaucht und lag beim amerikansichen Angelfire – wie Tripod seinerzeit ein Gratishoster von Lycos).

Natürlich kann es interessante und verlinkungswürdige Seiten auch bei Gratishostern geben, aber wie hoch ist die Wahrscheinlichkeit, auf Gratishoster-Servern viele relevante Sites zu finden?

Hostingkonzept als Spiegel des Gesamtaufwands, den ein Anbieter zum Betrieb der Website betreibt?

Denn: Mit der Auswahl des Hostingkonzepts und damit des Hosters sollte sich eine Beziehung zum verfügbaren Budget, das ein Unternehmen bereit stellt, um einen Webauftritt zu realisieren, ergeben. Ein ähnliches Signal wäre das zugrundeliegende Content Management System. Auch die Korrektheit des Codes ist ja als Spiegelbild des Aufwands, der für den Betrieb der Website getrieben wird,  bekanntermaßen ein Faktor.

Man kann  ja ab und an einige Fragen zu Google schicken, die dann von Matt Cutts mit viel Glück per Video im Webmaster Channel bei Youtube beantwortet werden. Meine Frage „Is there something like a hoster reputation as ranking factor“ kam zwar nicht dran, aber eine ähnliche:

My SEO client is using shared hosting for one of their websites. When I checked other sites hosted on their server, I found some spammy websites. Will that affect ranking of my client’s website?

Google: Hoster Reputation beeinflusst Ranking nicht 

Von Google wird das dementiert. „Typischerweise nicht“. Es gebe Ausnahmen, aber die seien, sehr sehr rar. 

Also: Offensichtlich gibt es keine „hoster reputation“, die das Ranking beeinflusst. Aber immerhin existieren ja viele Faktoren, die erwiesenermaßen im Rankingalgorithmus berücksichtigt werden. Die Seitenladezeit und der Serverstandort gehören dazu. 

Nun ist „SchülerVZ“ Geschichte

Die lange Leidensgeschichte der VZs geht weiter. Am Anfang war StudiVZ – eine Kopie der Facebookidee – eine Erfolgsgeschichte: Massenhaft User, ein Account war Standard bei Fachhochschülern und Studenten. Doch Facebook expandierte weltweit und rollte auch eine deutschen Sprachversion aus.

StudiVZ war Marktführer

Entschieden war das Rennen damit überhaupt nicht. Der Facebook-Clone StudiVZ war in Deutschland Marktführer und Gegenstand von Forschungebemühungen zum Thema Social Media. Der Spiegel schrieb 2008 „… bevor es ans Geldverdienen geht, stellen die Kalifornier nun
eine deutsche Facebook-Version ins Netz. Spät, vielleicht zu spät.“

VZ-Gruppen

Charakteristisch bei StudiVZ waren die Gruppen, von denen es Hundertausende gab. Die Mitgliedschaft in einer der Gruppen  mit oft lustigen Namen war eher eine Profilergänzung, weil die Gruppenmitgliedschaften eher den gesellschaftlichen Status und die Einstellung des Users reflektiert hat.

Im Vergleich zu Facebook bot StudiVZ viel weniger Features. Viele User migrierten zu Facebook, denn hier war es möglich, Apps zu integrieren, mit denen sich die User interagieren konnten. Diese Möglichkeit fehlte bei StudiVZ lange Zeit. Die Eigentümer wollten der Gatekeeper zu den User sein.

Diversifizierung  SchülerVZ, meinVZ – boring German

Statt dessen setzte man auf Diversifizierung mit „SchülerVZ“ und („boring German“ – typisch) auf „meinVZ“ für alle und hob den besonderen deutschen Datenschutz als USP hervor. Geholfen hat das nicht, auch wenn „boring German“ nicht falsch sein muss – bei web.de hat es ja auch funktioniert.

Zu spät haben die VZs Schnittstellen für Entwickler geboten. Der Zug war abgefahren. Relaunchversuche brachten keine Rettung. Damit war die leicht schillernde VZ-Erfolgsgeschichte Geschichte. Leider, denn damit bestätigt sich wieder die These von tendeziell glück- und erfolglosen deutschen Internetunternehmen.

Die interne Vernetzung der eigenen Webseite darstellen

Es ist ja manchmal interessant, sich die interne Verlinkung der eigenen Website anzusehen. Wenn man das Funktionieren externer Links überprüfen will, gibt es einige Linkcheck – Tools.

Wer aber wissen will, welche Webseite (HTML Dokument) welche Links enthalten, braucht einen Spider, der die Seiten abcrawlt und die enthaltenen Links zurückliefert. Das ist die Voraussetzung, um eine visuelle Darstellung vornehmen zu können. Diese Liste sollte man dann auch in ein möglichst flaches Dateiformat wie csv exportieren können.

Auf Anregung einiger Arbeiten mit akademischer Zielsetzung hin, habe zunächst mit Yacy, der Open Source Suchmaschine experimentiert. Yacy ist sehr mächtig und es gibt bereits eine eingebaute Visualisierungsfunktion, leider aber nur auf Domainebene, nicht auf Dokumentebene. Das Extrahieren aus dem von Yacy erzeugten Index und der Solr Datenbank dürfte langwierig werden. Einen schnellen Weg habe ich mit den Exportoptionen von Yacy nicht gefunden.

Vielleicht ein Ansatz: Yacy zur Untersuchung, wie die eigene Site in einem begrenzten Feld vernetzt ist

Yacy wäre sicher phantastisch einzusetzen, wenn man sich die Vernetzung der eigenen Domain ansehen will. Natürlich kann man nicht das ganze Web abspidern, aber für einen wie auch immer abgegrenzten Bereich sollte das funktionieren. Hier könnte man nochmal ansetzen, indem man als Ausgangpunkt für ein Crawling eine Liste relevanter Domains vorgibt. Je nach dem wie die eigene Domain dann in das gefundene Netz eingebunden ist, könnte man dann Rückschlüsse darauf ziehen, welche Relevanz die eigene Domain in einer größeren Gruppe verwandter Site hat.

Finden der internen Verlinkungen mit Screaming Frog

Zielführender für die Visualisierung der internen Verlinkung einer Site ist, Screaming Frog zu verwenden. Wenn man mehr als 500 URIs crawlen will, kostet das 99 englische Pfund pro Jahr, denn dann braucht man eine kostenpflichtige Lizenz. Kleine Websites sind damit noch zu analysieren.

Man schickt also Screamingfrog los und wartet auf das Crawlergebnis. Die gefundenen Links werden in eine CVS-Textdatei exportiert.

Die exportierte Datei sollte man mit Excel bearbeiten und Verlinkungen zu CSS Dateien und so weiter entfernen, wenn dies nicht interessiert.

Visualisierung mit Gephi

Screamingfrog kann selbst nichts visualisieren, dafür eignet sich aber Gephi gut. Gephi ist ein Open Source Tool zur Graphenanalyse. Es gibt sicher viele andere Tools, u.a. wird oft Mathematica von Wolfram (ja, die Firma mit der Suchmaschine Wolfram Alpha) zitiert. Doch diese Software ist nicht unter einer Open Source Lizenz verfügbar.

Gephi kann eine CSV Datei importieren. In „Spalte eins“ sollte die Ursprungsseite stehen und in „Spalte zwei“ jeweils eine der auf dieser Seite gefundenen Links, die zu andere Seiten führen.

So werden die Links als gerichtete Graphen interpretiert.

Importiert man nun diese sehr einfache Graphendatei in Gephi kann man schon die Visualiserung starten.

Übersichtliche Darstellung gesucht

Im Overview Fenster kann man einige Layout Algorithmen auswählen. Welche die beste ist (wenn es überhaut eine beste gibt), ist von der Struktur der Website abhängig. Das Ziel dürfte hier sein, das gefundene Netz aus Graphen übersichtlich und aussagekräftig darzustellen.

screenshot_screaming-Gephi-graph-YiFanHuMultilevel

Dafür gibt es fertige Algorithmen, die alle etwas unterschiedlich funktionieren und die Knoten und Katen auf unterschiedlichste Weise darstellen.

screenshot_screaming-Gephi-graph-raw

In diesem Beispiel ist Yifan Hu Multilevel angewendet worden. Der Algorithmus ist von einem Graphen-Forscher entwickelt worden und in Gephi standardmäßig implementiert:

screenshot_screaming-Gephi-import

Mir ging es darum, die stärksten Knoten zu finden und ich wollte Seiten finden, die zu wenig integriert (nur an einem Link hängen). Zudem überlege ich mir, die Seitenhierarchie umzustrukturieren und wollte einen Blick aus der „Hubschrauberperspektive auf die Seite“. Um dies zu sehen, war dieser Darstellungsalgrothmus ganz gut.

„Geh doch lieber raus, Ball-Spielen!“

In dieser Woche hat sich die ARD Apple vorgeknöpft. Montag war Apple-Tag im Ersten. Weil ja auch das Erste möglichst guten Audience Flow zu generieren versucht, war auch das Thema der Talkrunde bei Plasberg, die auch auf SPON diskutiert wurde in die Richtung „was mit Internet“ gedrückt worden. Wenn ÖR-TV „was mit Internet“ macht, wird das entweder verboten („Mediathek“) oder es geht schief.

Die Pessimisten bekommen Beifall

Bei Plasberg wurden die Kulturpessimisten bemüht. Ein Gymnasiallehrer fordert, Kindern einen „asketischen Umgang“ mit Web und Mobile anzuerziehen und dominierte damit die Runde, bekam viel Beifall, vielleicht weil das ARD-Publikum insgeheim hofft, dass sich der Apple-, Google- und Facebook-Spuk bald erledigt und morgen jemand das Internet endlich wieder anschaltet.

Wie kann man sich als Lehrer ins Fernsehen setzen und mit fast religiösem Eifer im Internet und im Smartphone die Quelle alles Bösen verorten und eine Bewahrpädagogik proklamieren? Ein Einzelfall ist das nicht, viele im Bildungssystem ticken so.

Die Quelle alles Bösen

Das erinnert mich an die Frühzeit der PC, die eigentlich noch keine waren: Die Einplatinen-Computerchen von Commodore, Sinclair und Atari der späten 80er Jahre. Ein Aufschrei ging durch durchs Land („der sitzt immer nur vor’m Computer“) und Eltern forderten die Kinder auf, doch mal lieber ein bisschen raus zu gehen und Ball zu spielen.

Ich erinnere mich, dass seinerzeit im Fernsehen Berichte von Auslandsreportern liefen, in denen von Kindern in Japan die Rede war, die sich die PCs selber zusammenbauen. Die gingen in Tokyo einfach in Elektronikkaufhäuser und kauften sich die Bauteile zusammen. „Wo stehen wir da Deutschland?“ war eine frühe besorgte Fragestellung, wo die Kinder maximal mit Lego-Technik-Steinen spielten.  

Wo ist die Internetindustrie in Deutschland?

Das hat sich ausgewirkt. Deutschland hat im PC Bereich schnell den Anschluss verloren. Der PC Markt war von amerikanischen Unternehmen dominiert, die Marken kamen aus Fernost. Die deutschen Renommierunternehmen wie Siemens oder Grundig waren einfach nicht in der Lage, sowas wie einen Personal Computer zu entwickeln. Startups – auch wenn man die neuen Firmen nicht so genannt hat – übernahmen das  – aber im Ausland. Siemens hat in den 90ern noch versucht, Handies zu bauen und sich eine blutige Nase geholt. Zu spät, keine Kompetenz!

Im Web das Gleiche: Deutschland war das Land, in dem man anfangs bei der „Deutschen Bundespost“, die Modems verboten hat und Akustikkoppler nicht ganz verbieten konnte, um einen ISDN Anschluss betteln. In Frankreich hat man mit Minitel wenigstens versucht, ein Punkt-zu-Punk-Medium zu etablieren.

Als der große Internethype kam waren zwar einige deutsche Internetfirmen entstanden, nach der ersten Blase waren gefühlte 70% wieder verschwunden.

Heute gibt es noch eine Handvoll wichtige Internetunternehmen mit Sitz in Deutschland wie vielleicht 1 & 1 / United Internet. Sucht man nach einem zweiten, ähnlichen Anbieter muss man schon länger überlegen. Oft wird T-Online genannt, hervorgegangen aus dem ehemaligen Fernsprechmonopolisten. Die neuen Player mit innovativen Ideen fehlen.

Quelle: IDC 2010, WIk Consult

Geblieben sind ein paar Verlagsprojekte und Onlineshops (auch hier haben viele Unternehmen die Transversion Richtung Web nicht überlebt, siehe Neckermann und Quelle). Natürlich gibt es viele Spezialanbieter, dominierend sind aber – was uns ja aber auch nicht so gut gefällt – amerikanische Anbieter wie Apple und Google.

Land der Häuserverpixeler

Gibt es in Deutschland eine besondere Art Technikfeindlichkeit, einen starken Argwohn gegen alles Neue? Wir verstricken uns in Internet-Gesetzen, merken aber, dass die Rechtsprechung dennoch mit der Entwicklung nicht mithalten kann. Es herrscht der Glaube vor, es gäbe eine „virtuelle Welt“ als künstlicher Gegenentwurf zur „realen Welt“ und beide hätten nichts miteinander zu tun. Fatalerweise wird dabei offensichtlich das „Virtuelle“ für qualitativ minderwertiger gehalten als das „Echte“, „Wirkliche“, „Anfassbare“.

Das Anonymitätsbedürfnis wie der Hang zum Häuserverpixeln, der Zwang, sich bloß nicht in die Karten schauen zu lassen? Transparenz (die gegenüber Politikern, Banken, Unternehmen aber eingefordert wird) als der große kollektive Feind?

Tückische CMS Updates: Auf die URL-rewrites achten!

Typo3 Projekte sind sowieso nicht ganz ohne. Wer behält schon bei den vielen Konfigurationen und Extensions die Übersicht?

Vor kurzem kam das Update auf die Version 6.0.

Ich hatte eine Extension benutzt, die die URL umschreibt. Wenn man dieses Umschreiben nicht einsetzt, haben die URLS die Form http://meine-domain/index.php?id=seitenname (wie im Pageeditor eingegeben).

Verwendet hatte ich die Extension ODS SEO. Diese hatte ich jahrelang im Einsatz, aber offensichtlich gibt es Probleme mit der Version 6.0.x

Ich habe nicht aufgepasst und so ist die eh schon eher geringe Sichtbarkeit meiner „thin affiliate“ Seite wie Google sie nennen würde (www.dating-you.de) nach einem klaren Aufwärtstrend zurück gefallen.

In den Webmastertools siehts nicht besser aus: 
Von so etwa 1.000 Impressionen fiel nach dem Update von Typo3 die Seite auf 250 Impressionen pro Tag. 
Die Webmastertools meldeten da übrigens keinen kritischen Fehler als „News“, nur in de HTML-Verbesserungsvorschlägen werden jetzt mehr doppelte Metatags und Titel ausgewiesen (wird nun eine ziemliche Arbeit mit einem Canonical Tag und Redirects auf .htaccess-Ebene). 
Hier sieht man also, wie viel diese URL-Formung tatsächlich doch ausmacht.
Leider ist es gerade mit so großen CMS wie Typo3 bei Updates nicht immer ganz abzusehen, was eigentlich mit den eingepluggten Extensions passiert. Aber offensichtlich sollte man sich eine Art Checkliste zurechtlegen, um auch die SEO-Konformität nach einem Update zu bewahren. 
Dies wird vielleicht ohnehin immer kritischer nachdem die Updates von WordPress, Joomla, Drupal und Typo3 immer schneller folgen (auch wenn es oft Bugfix-Releases sind), aber gerade für Joomla und Typo3 stehen einige größere Versionssprünge mit neuer Codebasis an.
Zwar kann man mit Typo3 auf dem Workspace die Änderungen ausprobieren oder auch per Backup beim Hoster auf einen vorherigen Wiederherstellungspunkt zurück rollen, doch das ist keine Hilfe, wenn man Details wie diese übersieht und dann erst darauf aufmerksam wird, wenn der Traffic plötzlich fehlt (in meinem Fall kamen konfigurationsbedingt auch keine 401-Seiten). 
Mal sehen, ob die Sichtbarkeit jetzt wieder steigt. 

Nun gibt es Author Stats in den Webmaster Tools unter Labs

Das ist mir bisher entgangen.

Dass der Author Rank wichtig wird und als heißer Kandidat für einen Rankingfaktor bei der Googlesuche gehandelt wird, macht schon lange die Runde.

Was mir bis eben neu war, ist, dass die eigenen Author Stats nun sehr gut in den Webmaster Tools widergespiegelt werden (irgendwie habe die die News in all den vielen RSS Feeds und Blogs verpasst).

Man findet die Darstellung in den Webmaster Tools unter Labs. Das deutet darauf hin, dass das Ganze noch ein wenig experiementell sein dürfte.

Im Grund handelt es sich bei dieser Darstellung um die gleiche, die man von der Sektion „Search Queries“ kennt. Gezeigt wird der Beitrag, also eine Website oder ein Blogbeitrag und dazu die Werte für: 
  • Impressions
  • Clicks
  • CTR 
  • durchschnittliche Position
Diese Informationen sind natürlich sehr hilfreich, da man erfahren kann, welche Contents wie gefunden und wie geklickt werden. 
Wenn man mit verschiedenen Medien aktiv ist, kann man die Tabelle auch nach den Suchquellen filtern, und zwar nach: 
  • Web
  • Video
  • Mobile 
  • Image 

Komfortablerweise lassen sich Einträge mit weniger als 10 Clicks ausblenden. Ein Export in CSV oder Excel ist noch nicht vorgesehen.Dafür lässt sich der Zeitrahmen für die Statistik per Datepicker angeben.

Ist der Google PageRank noch wichtig für irgendetwas?

Welche Rolle spielt der PageRank – ein ursprüngliches Konzept für die Einschätzung der Wichtigkeit von Websites für die Google-Suche heute noch?

Von Experten hört man unterschiedliche Meinungen. Tatsache ist, dass Google immer noch PageRanks für jede Website ermittelt und diese auf Wunsch auch zur Verfügung stellt, zum Beispiel mit der Google Toolbar. In der Skriptgalierie bei Google Drive (früher Docs) gibt es einige Scripts, die für eine Domain den PageRank abfragen.

Der PageRank als Spiegel der „Wichtigkeit“ einer Domain? 

Der PageRank, den Google für Webseiten ermittelt basiert auf einem Algorithmus, der die Verlinkung von Webseiten untereinander bewertet. Grundlage dafür ist das theoretische Modell eines zufälligen Surfers („random walk plus teleport“ gemäß einer Markov-Kette) , das mit Hilfe des Web-Graphs operationalisiert wird. Der Web Graph enthält die Verbindungen der  verschiedenen Seiten untereinander. Der PageRank spiegelt dann in einem numerischen Wert das „Gewicht“ einer Site wider und dient bei der Entscheidung dazu. welche Seite auf der Suchergebnisseite wie angezeigt werden soll, als Kriterium, um die „Wichtigkeit“ der in Frage kommenden Seiten abzuschätzen.

Entsprechen sich PageRank und Sichtbarkeitsindex? 

In wie weit hängt der PageRank nun mit der konkreten Suchmaschinenergebnisseitenposition zusammen? Dafür müsste man ein anderes Kriterium haben.

Ich vergleiche das mal mit einem Sichtbarkeitsindex. Der Sichtbarkeitsindex wird mit einer anderen Methode berechnet und dient vor allem Suchmaschinenoptimierern dazu, Sites konkret hinsichtlich der Auftretenswahrscheinlichkeit in den Sucherergebnisseiten bei der Eingabe vieler verschiedener Keywords einzuschätzen.

Praktisch läuft die Ermittlung so: Man schickt viele Hunderttausend häufig verwendete Suchkeywords als Suchanfrage an Google und ermittelt aus den Ergebnisseiten die Sites, die jeweils für ein Keyword ausgegeben werden. Das liefert einen Sichtbarkeitsindex für eine Domain.

Für die Untersuchung habe ich den SVR (Seolytics Visibility Rank) der Firma Seolytics verwendet. Die Daten stammen aus der zweiten Kalenderwoche des Jahres 2013. Die PageRank-Werte stammen aus einer Schnittstelle von Google.

PageRank-Werte von 5 und 6 dominieren in der Spitzengruppe der Webseiten in Deutschland

Wenn man sich die PageRank-Wert-Verteilung (die ganzen Zahlen dafür, die Google bereitstellt) mal ansieht, erkennt man, dass unter den 1000 „sichtbarsten“ Sites die meisten Sites einen PageRank von 5 oder 6 haben (etwas über die Hälfte). Ich persönlich hätte erwartet, dass in den Top 1000 Websites nach Sichtbarkeit 7er, 8er und 9er PageRank-Werte dominieren, während 1er gar nicht und 2er so gut wie nicht auftreten. Das war meine Annahme. Dem ist nicht so.

Hier die Ausgabe in Zahlen:

FREQUENCIES
/VARIABLES= PR
/FORMAT=AVALUE TABLE
/HISTOGRAM=NONORMAL PERCENT.

PR
+———–+—–+———+——-+————-+———–+
|Value Label|Value|Frequency|Percent|Valid Percent|Cum Percent|
#===========#=====#=========#=======#=============#===========#
|           |    0|        9|    ,90|          ,90|        ,90|
|           |    1|        5|    ,50|          ,50|       1,40|
|           |    2|        8|    ,80|          ,80|       2,20|
|           |    3|       65|   6,50|         6,50|       8,70|
|           |    4|      169|  16,90|        16,90|      25,60|
|           |    5|      237|  23,70|        23,70|      49,30|
|           |    6|      274|  27,40|        27,40|      76,70|
|           |    7|      150|  15,00|        15,00|      91,70|
|           |    8|       63|   6,30|         6,30|      98,00|
|           |    9|       19|   1,90|         1,90|      99,90|
|           |   10|        1|    ,10|          ,10|     100,00|
#===========#=====#=========#=======#=============#===========#
|            Total|     1000|  100,0|        100,0|           |
+—————–+———+——-+————-+———–+

Nun fand ich es spannend zu sehen, ob es einen Zusammenhang zwischen PageRank und Sichtbarkeitsindex gibt.

Gibt es einen linearen Zusammenhang von PageRank und Sichtbarkeitsindex? 

Ich fand keinen. Ich habe eine lineare Regression von Sichtbarkeitsindex auf PageRank ermittelt und einen Zusammenhang von r = .13 ermittelt. R hoch 2 ist also noch nicht mal .02. Der Sichtbarkeitsindex erklärt also nur knapp 2 Prozent der gemeinsamen Varianz von Sichtbarkeitsindex und PageRank – und das ist wenig! Mit anderen Worten: Der PageRank sagt also nicht die Sichtbarkeit in Google voraus.

Das zeigt sich auch ganz augenscheinlich, wenn man die Tabelle mit den Werten durchsieht. Es gibt in der Spitzengruppe der sichtbarsten Seiten (Top 20) nicht nur hohe PageRanks. Der schlechteste war 5, der höchste 9.

Auch im Mittelfeld um Platz 500 herum tummeln sich 5er, 6er, 7er und 8er Pageranks. Und auch am Tabellenende von Platz 950 bis 1000 findet man gar nicht selten hohe PageRank-Werte.

Hier ist die Ausgabe aus PSPP (einer OS-Alternative von SPSS)

REGRESSION
/VARIABLES= SVR
/DEPENDENT= PR
/STATISTICS=COEFF R ANOVA.

Model Summary
#====#========#=================#==========================#
#  R #R Square|Adjusted R Square|Std. Error of the Estimate#
##===#========#=================#==========================#
#|,13#     ,02|              ,02|                      1,53#
##===#========#=================#==========================#

ANOVA
#===========#==============#===#===========#=====#============#
#           #Sum of Squares| df|Mean Square|  F  |Significance#
##==========#==============#===#===========#=====#============#
#|Regression#         39,00|  1|      39,00|16,71|         ,00#
#|Residual  #       2329,06|998|       2,33|     |            #
#|Total     #       2368,06|999|           |     |            #
##==========#==============#===#===========#=====#============#

Coefficients
#===========#====#==========#====#======#============#
#           #  B |Std. Error|Beta|   t  |Significance#
##==========#====#==========#====#======#============#
#|(Constant)#5,43|       ,05| ,00|111,21|         ,00#
#|    SVR   # ,00|       ,00| ,13|  4,09|         ,00#
##==========#====#==========#====#======#============#

Hat der PageRank also keinen praktischen Wert (mehr)?  

Die PageRank Idee scheint mir dennoch ein Qualitätsmerkmal zu sein und kann offensichtlich das sehr gut abbilden, was er modellhaft abbilden soll: Die Wahrscheinlichkeit, mit der ein zufälliger Surfer über die Site kommt oder anders ausgedrückt, wie „beliebt“ im Sinne von nutzwertig, notwendig und allgegenwärtig eine Domain ist. Wie reliablel das abgesehen vom Augenschein ist, weiß ich nicht. Dafür bräuchte man noch ein anderes Kriterium.  

Einige Arbeiten versuchen PageRank mit dem Webseiten-Qualitätsaspekt „Verlässlichkeit“ in Verbindung zu bringen, wie zum Beispiel diese Studie von Sondhi et al an der Universität Illinois, USA.Die Wissenschaftler nahmen dafür Websites aus dem Themenbereich Medizin ins Visier, weil sich auf solche Seiten der etablierte  HONcode anwenden lässt, mit dem sich medizinische Publikationen qualitativ bewerten lassen. Die Autoren haben das Konstrukt der Akkuratheit entwickelt (und ein formelmäßiges Maß dafür gefunden als Angabe der Größe einer Abweichung zwischen Website-Beurteilung nach HON und Google PageRank), um zu bemessen, wie gut sich aus dem PageRank Algorithmus die Verlässlichkeit von Informationen auf medizinischen Webseiten voraussagen lässt. Die Autoren sprechen von einer Akkuratheit von 80 Prozent. Anders ausgedrückt: Google PageRank-Wert und der Evaluierung einer Website nach HON konvergieren deutlich.

Hoher PageRank – Website mit zuverlässiger Information

Daher würde ich mich zu der Meinungsaussage hinreißen lassen: Für informationssuchende Webuser ist der PageRank auch heute noch ein verlässlicher Indikator: Hoher PageRank heißt verlässliche Informationen auf der Seite.

Socialbakers für das Tracken von Social Media Aktivitäten

Komfortable Social Media Analye

Ich habe gestern ein Webinar von Socialbakers verfolgt. Socialbakers produziert ein Tool zur Analyse von Social Media Aktivitäten auf einer Reihe von Plattformen. Dazu gehören natürlich Google Plus, facebook und Twitter, aber auch Linkedin und Youtube.

Socialbakers wertet die Aktivitäten vieler Seiten aus. Die bekanntesten und naheliegendsten Brands sind inzwischen wohl vertreten. Als User kann man aber auch neue Seiten oder Profile vorschlagen. Diese Vorschläge werden dann geprüft.

Kategorien erleichtern Vergleiche 

Die einzelnen Seiten und Profile werden von Socialbakers in diverse Kategorien unterteilt. Dies macht ein spezifisches Vergleichen leichter.

Für Facebook werden Fans und inzwischen auch Local Fans gezählt. In der kostenlosen Version errechnet Social Bakers eine „Engagement Rate“, mit der die Aktivität dargestellt werden soll. Etwa 30 Parameter fließen in einen eigenen Scorewert ein, der prozentual dargestellt ist. Zusätzlich gibt es noch ein Userrating als Skala von 0 bis 10.

Bei den Statistiken für Twitter werden die Follower und die Anzahl der selbst gefolgten Profile erfasst und im Ranking dargestellt. Ähnlich ist das bei Google Plus, wo die Statistiken gerade noch sehr übersichtlich sind.

Was bringt das eigentlich das Tracken von Social Media? 

Online Markteting Mitarbeiter, die sich im Social Media Kanäle kümmern, erhalten eine schnell und aggregierte Übersicht über die augenblicklichen Aktivitäten in den verschiedenen Communities. So kann man die Aktivitäten der eigenen Firma zunächst einmal einordenen, aber auch besser steuern.

Man sieht, welche Aktivitäten bei der Konkurrenz gut laufen und kann Trend beobachten.  In der Abbidung sieht man zum Beispiel, dass BMW offensichtlich gerade anfängt, seine Aktivtäten in Google Plus zu verstärken. Für die Agenturen, die für andere Autohersteller arbeiten, kann das ein Argument werden, sich mehr Budget beim Kunden für Google Plus zu holen.

Neue Ansichten

Socialbakers ist neu und die Entwicklung bleibt nicht stehen. Das sieht man an der neuen City-Ansicht, zum Beispiel „Facebook Statistics for Cities“. Die Stadt mit den meisten Facebook Usern ist demnach Bangkok mit 12,8 Millionen Usern, gefolgt von Jakarta mit 11,7 Millionen Facebook-Usern. Die erste europäische Stadt ist London, zur Zeit auf Platz 7 mit 6,8 Millionen Usern, die Facebook-Profile haben.

In dieser Liste sieht Socialbakers die größte deutsche Stadt, Berlin erst auf Platz 49 mit rund 1,4 Millionen Facebook Usern und einer Durchdringung von etwa 40 Prozent. Soll heißt: 40 Prozent der Berliner nutzen Facebook, offensichtlich gemessen an der Einwohnerzahl. Dieser Durchdringungswert scheint noch nicht ganz ausbalanciert zu sein (City-View ist nich beta), denn viele Städte, so auch Paris schaffen es auf eine Durchdringung bis auf über 180 Prozent.

Bald soll man auch seine eigenen Profile direkt analysieren lassen können. Die Funktion ist aber noch nicht aktiv.

Kostenpflichtige Pro-Version

Es gibt eine Pro-Version des Analysedienstes, die wesentlich mehr Kennzahlen zeigt und Vergleichsmöglichkeiten bietet, so zum Beispiel auch die durchschnittliche Response – Rate auf Fragen von Usern.

Im SEO-Bereich gibt es mittlerweile sehr viele Tools, deren Service man in Abomodellen sich mittlerweile auch im KMU Umfeld leisten kann. Mit Socialbakers ist nun eine Entsprechung für Social Media auf dem Markt, das helfen wird, die eigenen Aktivitäten und Kampagnen zu professionalisieren und effizienter zu gestalten.

Kosten: ab 50 Dollar im Monat 

Ganz billig ist dies aber nicht. Ein einziges Profil mit der Pro-Version zu tracken, kostet 50 Dollar im Monat. Für eine gezielte Steuerung der Social Media Kanäle wird man aber um die Ausgaben für dieses oder ähnliche Tools nicht herumkommen.