Die interne Vernetzung der eigenen Webseite darstellen

Es ist ja manchmal interessant, sich die interne Verlinkung der eigenen Website anzusehen. Wenn man das Funktionieren externer Links überprüfen will, gibt es einige Linkcheck – Tools.

Wer aber wissen will, welche Webseite (HTML Dokument) welche Links enthalten, braucht einen Spider, der die Seiten abcrawlt und die enthaltenen Links zurückliefert. Das ist die Voraussetzung, um eine visuelle Darstellung vornehmen zu können. Diese Liste sollte man dann auch in ein möglichst flaches Dateiformat wie csv exportieren können.

Auf Anregung einiger Arbeiten mit akademischer Zielsetzung hin, habe zunächst mit Yacy, der Open Source Suchmaschine experimentiert. Yacy ist sehr mächtig und es gibt bereits eine eingebaute Visualisierungsfunktion, leider aber nur auf Domainebene, nicht auf Dokumentebene. Das Extrahieren aus dem von Yacy erzeugten Index und der Solr Datenbank dürfte langwierig werden. Einen schnellen Weg habe ich mit den Exportoptionen von Yacy nicht gefunden.

Vielleicht ein Ansatz: Yacy zur Untersuchung, wie die eigene Site in einem begrenzten Feld vernetzt ist

Yacy wäre sicher phantastisch einzusetzen, wenn man sich die Vernetzung der eigenen Domain ansehen will. Natürlich kann man nicht das ganze Web abspidern, aber für einen wie auch immer abgegrenzten Bereich sollte das funktionieren. Hier könnte man nochmal ansetzen, indem man als Ausgangpunkt für ein Crawling eine Liste relevanter Domains vorgibt. Je nach dem wie die eigene Domain dann in das gefundene Netz eingebunden ist, könnte man dann Rückschlüsse darauf ziehen, welche Relevanz die eigene Domain in einer größeren Gruppe verwandter Site hat.

Finden der internen Verlinkungen mit Screaming Frog

Zielführender für die Visualisierung der internen Verlinkung einer Site ist, Screaming Frog zu verwenden. Wenn man mehr als 500 URIs crawlen will, kostet das 99 englische Pfund pro Jahr, denn dann braucht man eine kostenpflichtige Lizenz. Kleine Websites sind damit noch zu analysieren.

Man schickt also Screamingfrog los und wartet auf das Crawlergebnis. Die gefundenen Links werden in eine CVS-Textdatei exportiert.

Die exportierte Datei sollte man mit Excel bearbeiten und Verlinkungen zu CSS Dateien und so weiter entfernen, wenn dies nicht interessiert.

Visualisierung mit Gephi

Screamingfrog kann selbst nichts visualisieren, dafür eignet sich aber Gephi gut. Gephi ist ein Open Source Tool zur Graphenanalyse. Es gibt sicher viele andere Tools, u.a. wird oft Mathematica von Wolfram (ja, die Firma mit der Suchmaschine Wolfram Alpha) zitiert. Doch diese Software ist nicht unter einer Open Source Lizenz verfügbar.

Gephi kann eine CSV Datei importieren. In „Spalte eins“ sollte die Ursprungsseite stehen und in „Spalte zwei“ jeweils eine der auf dieser Seite gefundenen Links, die zu andere Seiten führen.

So werden die Links als gerichtete Graphen interpretiert.

Importiert man nun diese sehr einfache Graphendatei in Gephi kann man schon die Visualiserung starten.

Übersichtliche Darstellung gesucht

Im Overview Fenster kann man einige Layout Algorithmen auswählen. Welche die beste ist (wenn es überhaut eine beste gibt), ist von der Struktur der Website abhängig. Das Ziel dürfte hier sein, das gefundene Netz aus Graphen übersichtlich und aussagekräftig darzustellen.

screenshot_screaming-Gephi-graph-YiFanHuMultilevel

Dafür gibt es fertige Algorithmen, die alle etwas unterschiedlich funktionieren und die Knoten und Katen auf unterschiedlichste Weise darstellen.

screenshot_screaming-Gephi-graph-raw

In diesem Beispiel ist Yifan Hu Multilevel angewendet worden. Der Algorithmus ist von einem Graphen-Forscher entwickelt worden und in Gephi standardmäßig implementiert:

screenshot_screaming-Gephi-import

Mir ging es darum, die stärksten Knoten zu finden und ich wollte Seiten finden, die zu wenig integriert (nur an einem Link hängen). Zudem überlege ich mir, die Seitenhierarchie umzustrukturieren und wollte einen Blick aus der „Hubschrauberperspektive auf die Seite“. Um dies zu sehen, war dieser Darstellungsalgrothmus ganz gut.

„Geh doch lieber raus, Ball-Spielen!“

In dieser Woche hat sich die ARD Apple vorgeknöpft. Montag war Apple-Tag im Ersten. Weil ja auch das Erste möglichst guten Audience Flow zu generieren versucht, war auch das Thema der Talkrunde bei Plasberg, die auch auf SPON diskutiert wurde in die Richtung „was mit Internet“ gedrückt worden. Wenn ÖR-TV „was mit Internet“ macht, wird das entweder verboten („Mediathek“) oder es geht schief.

Die Pessimisten bekommen Beifall

Bei Plasberg wurden die Kulturpessimisten bemüht. Ein Gymnasiallehrer fordert, Kindern einen „asketischen Umgang“ mit Web und Mobile anzuerziehen und dominierte damit die Runde, bekam viel Beifall, vielleicht weil das ARD-Publikum insgeheim hofft, dass sich der Apple-, Google- und Facebook-Spuk bald erledigt und morgen jemand das Internet endlich wieder anschaltet.

Wie kann man sich als Lehrer ins Fernsehen setzen und mit fast religiösem Eifer im Internet und im Smartphone die Quelle alles Bösen verorten und eine Bewahrpädagogik proklamieren? Ein Einzelfall ist das nicht, viele im Bildungssystem ticken so.

Die Quelle alles Bösen

Das erinnert mich an die Frühzeit der PC, die eigentlich noch keine waren: Die Einplatinen-Computerchen von Commodore, Sinclair und Atari der späten 80er Jahre. Ein Aufschrei ging durch durchs Land („der sitzt immer nur vor’m Computer“) und Eltern forderten die Kinder auf, doch mal lieber ein bisschen raus zu gehen und Ball zu spielen.

Ich erinnere mich, dass seinerzeit im Fernsehen Berichte von Auslandsreportern liefen, in denen von Kindern in Japan die Rede war, die sich die PCs selber zusammenbauen. Die gingen in Tokyo einfach in Elektronikkaufhäuser und kauften sich die Bauteile zusammen. „Wo stehen wir da Deutschland?“ war eine frühe besorgte Fragestellung, wo die Kinder maximal mit Lego-Technik-Steinen spielten.  

Wo ist die Internetindustrie in Deutschland?

Das hat sich ausgewirkt. Deutschland hat im PC Bereich schnell den Anschluss verloren. Der PC Markt war von amerikanischen Unternehmen dominiert, die Marken kamen aus Fernost. Die deutschen Renommierunternehmen wie Siemens oder Grundig waren einfach nicht in der Lage, sowas wie einen Personal Computer zu entwickeln. Startups – auch wenn man die neuen Firmen nicht so genannt hat – übernahmen das  – aber im Ausland. Siemens hat in den 90ern noch versucht, Handies zu bauen und sich eine blutige Nase geholt. Zu spät, keine Kompetenz!

Im Web das Gleiche: Deutschland war das Land, in dem man anfangs bei der „Deutschen Bundespost“, die Modems verboten hat und Akustikkoppler nicht ganz verbieten konnte, um einen ISDN Anschluss betteln. In Frankreich hat man mit Minitel wenigstens versucht, ein Punkt-zu-Punk-Medium zu etablieren.

Als der große Internethype kam waren zwar einige deutsche Internetfirmen entstanden, nach der ersten Blase waren gefühlte 70% wieder verschwunden.

Heute gibt es noch eine Handvoll wichtige Internetunternehmen mit Sitz in Deutschland wie vielleicht 1 & 1 / United Internet. Sucht man nach einem zweiten, ähnlichen Anbieter muss man schon länger überlegen. Oft wird T-Online genannt, hervorgegangen aus dem ehemaligen Fernsprechmonopolisten. Die neuen Player mit innovativen Ideen fehlen.

Quelle: IDC 2010, WIk Consult

Geblieben sind ein paar Verlagsprojekte und Onlineshops (auch hier haben viele Unternehmen die Transversion Richtung Web nicht überlebt, siehe Neckermann und Quelle). Natürlich gibt es viele Spezialanbieter, dominierend sind aber – was uns ja aber auch nicht so gut gefällt – amerikanische Anbieter wie Apple und Google.

Land der Häuserverpixeler

Gibt es in Deutschland eine besondere Art Technikfeindlichkeit, einen starken Argwohn gegen alles Neue? Wir verstricken uns in Internet-Gesetzen, merken aber, dass die Rechtsprechung dennoch mit der Entwicklung nicht mithalten kann. Es herrscht der Glaube vor, es gäbe eine „virtuelle Welt“ als künstlicher Gegenentwurf zur „realen Welt“ und beide hätten nichts miteinander zu tun. Fatalerweise wird dabei offensichtlich das „Virtuelle“ für qualitativ minderwertiger gehalten als das „Echte“, „Wirkliche“, „Anfassbare“.

Das Anonymitätsbedürfnis wie der Hang zum Häuserverpixeln, der Zwang, sich bloß nicht in die Karten schauen zu lassen? Transparenz (die gegenüber Politikern, Banken, Unternehmen aber eingefordert wird) als der große kollektive Feind?

Tückische CMS Updates: Auf die URL-rewrites achten!

Typo3 Projekte sind sowieso nicht ganz ohne. Wer behält schon bei den vielen Konfigurationen und Extensions die Übersicht?

Vor kurzem kam das Update auf die Version 6.0.

Ich hatte eine Extension benutzt, die die URL umschreibt. Wenn man dieses Umschreiben nicht einsetzt, haben die URLS die Form http://meine-domain/index.php?id=seitenname (wie im Pageeditor eingegeben).

Verwendet hatte ich die Extension ODS SEO. Diese hatte ich jahrelang im Einsatz, aber offensichtlich gibt es Probleme mit der Version 6.0.x

Ich habe nicht aufgepasst und so ist die eh schon eher geringe Sichtbarkeit meiner „thin affiliate“ Seite wie Google sie nennen würde (www.dating-you.de) nach einem klaren Aufwärtstrend zurück gefallen.

In den Webmastertools siehts nicht besser aus: 
Von so etwa 1.000 Impressionen fiel nach dem Update von Typo3 die Seite auf 250 Impressionen pro Tag. 
Die Webmastertools meldeten da übrigens keinen kritischen Fehler als „News“, nur in de HTML-Verbesserungsvorschlägen werden jetzt mehr doppelte Metatags und Titel ausgewiesen (wird nun eine ziemliche Arbeit mit einem Canonical Tag und Redirects auf .htaccess-Ebene). 
Hier sieht man also, wie viel diese URL-Formung tatsächlich doch ausmacht.
Leider ist es gerade mit so großen CMS wie Typo3 bei Updates nicht immer ganz abzusehen, was eigentlich mit den eingepluggten Extensions passiert. Aber offensichtlich sollte man sich eine Art Checkliste zurechtlegen, um auch die SEO-Konformität nach einem Update zu bewahren. 
Dies wird vielleicht ohnehin immer kritischer nachdem die Updates von WordPress, Joomla, Drupal und Typo3 immer schneller folgen (auch wenn es oft Bugfix-Releases sind), aber gerade für Joomla und Typo3 stehen einige größere Versionssprünge mit neuer Codebasis an.
Zwar kann man mit Typo3 auf dem Workspace die Änderungen ausprobieren oder auch per Backup beim Hoster auf einen vorherigen Wiederherstellungspunkt zurück rollen, doch das ist keine Hilfe, wenn man Details wie diese übersieht und dann erst darauf aufmerksam wird, wenn der Traffic plötzlich fehlt (in meinem Fall kamen konfigurationsbedingt auch keine 401-Seiten). 
Mal sehen, ob die Sichtbarkeit jetzt wieder steigt. 

Nun gibt es Author Stats in den Webmaster Tools unter Labs

Das ist mir bisher entgangen.

Dass der Author Rank wichtig wird und als heißer Kandidat für einen Rankingfaktor bei der Googlesuche gehandelt wird, macht schon lange die Runde.

Was mir bis eben neu war, ist, dass die eigenen Author Stats nun sehr gut in den Webmaster Tools widergespiegelt werden (irgendwie habe die die News in all den vielen RSS Feeds und Blogs verpasst).

Man findet die Darstellung in den Webmaster Tools unter Labs. Das deutet darauf hin, dass das Ganze noch ein wenig experiementell sein dürfte.

Im Grund handelt es sich bei dieser Darstellung um die gleiche, die man von der Sektion „Search Queries“ kennt. Gezeigt wird der Beitrag, also eine Website oder ein Blogbeitrag und dazu die Werte für: 
  • Impressions
  • Clicks
  • CTR 
  • durchschnittliche Position
Diese Informationen sind natürlich sehr hilfreich, da man erfahren kann, welche Contents wie gefunden und wie geklickt werden. 
Wenn man mit verschiedenen Medien aktiv ist, kann man die Tabelle auch nach den Suchquellen filtern, und zwar nach: 
  • Web
  • Video
  • Mobile 
  • Image 

Komfortablerweise lassen sich Einträge mit weniger als 10 Clicks ausblenden. Ein Export in CSV oder Excel ist noch nicht vorgesehen.Dafür lässt sich der Zeitrahmen für die Statistik per Datepicker angeben.

Ist der Google PageRank noch wichtig für irgendetwas?

Welche Rolle spielt der PageRank – ein ursprüngliches Konzept für die Einschätzung der Wichtigkeit von Websites für die Google-Suche heute noch?

Von Experten hört man unterschiedliche Meinungen. Tatsache ist, dass Google immer noch PageRanks für jede Website ermittelt und diese auf Wunsch auch zur Verfügung stellt, zum Beispiel mit der Google Toolbar. In der Skriptgalierie bei Google Drive (früher Docs) gibt es einige Scripts, die für eine Domain den PageRank abfragen.

Der PageRank als Spiegel der „Wichtigkeit“ einer Domain? 

Der PageRank, den Google für Webseiten ermittelt basiert auf einem Algorithmus, der die Verlinkung von Webseiten untereinander bewertet. Grundlage dafür ist das theoretische Modell eines zufälligen Surfers („random walk plus teleport“ gemäß einer Markov-Kette) , das mit Hilfe des Web-Graphs operationalisiert wird. Der Web Graph enthält die Verbindungen der  verschiedenen Seiten untereinander. Der PageRank spiegelt dann in einem numerischen Wert das „Gewicht“ einer Site wider und dient bei der Entscheidung dazu. welche Seite auf der Suchergebnisseite wie angezeigt werden soll, als Kriterium, um die „Wichtigkeit“ der in Frage kommenden Seiten abzuschätzen.

Entsprechen sich PageRank und Sichtbarkeitsindex? 

In wie weit hängt der PageRank nun mit der konkreten Suchmaschinenergebnisseitenposition zusammen? Dafür müsste man ein anderes Kriterium haben.

Ich vergleiche das mal mit einem Sichtbarkeitsindex. Der Sichtbarkeitsindex wird mit einer anderen Methode berechnet und dient vor allem Suchmaschinenoptimierern dazu, Sites konkret hinsichtlich der Auftretenswahrscheinlichkeit in den Sucherergebnisseiten bei der Eingabe vieler verschiedener Keywords einzuschätzen.

Praktisch läuft die Ermittlung so: Man schickt viele Hunderttausend häufig verwendete Suchkeywords als Suchanfrage an Google und ermittelt aus den Ergebnisseiten die Sites, die jeweils für ein Keyword ausgegeben werden. Das liefert einen Sichtbarkeitsindex für eine Domain.

Für die Untersuchung habe ich den SVR (Seolytics Visibility Rank) der Firma Seolytics verwendet. Die Daten stammen aus der zweiten Kalenderwoche des Jahres 2013. Die PageRank-Werte stammen aus einer Schnittstelle von Google.

PageRank-Werte von 5 und 6 dominieren in der Spitzengruppe der Webseiten in Deutschland

Wenn man sich die PageRank-Wert-Verteilung (die ganzen Zahlen dafür, die Google bereitstellt) mal ansieht, erkennt man, dass unter den 1000 „sichtbarsten“ Sites die meisten Sites einen PageRank von 5 oder 6 haben (etwas über die Hälfte). Ich persönlich hätte erwartet, dass in den Top 1000 Websites nach Sichtbarkeit 7er, 8er und 9er PageRank-Werte dominieren, während 1er gar nicht und 2er so gut wie nicht auftreten. Das war meine Annahme. Dem ist nicht so.

Hier die Ausgabe in Zahlen:

FREQUENCIES
/VARIABLES= PR
/FORMAT=AVALUE TABLE
/HISTOGRAM=NONORMAL PERCENT.

PR
+———–+—–+———+——-+————-+———–+
|Value Label|Value|Frequency|Percent|Valid Percent|Cum Percent|
#===========#=====#=========#=======#=============#===========#
|           |    0|        9|    ,90|          ,90|        ,90|
|           |    1|        5|    ,50|          ,50|       1,40|
|           |    2|        8|    ,80|          ,80|       2,20|
|           |    3|       65|   6,50|         6,50|       8,70|
|           |    4|      169|  16,90|        16,90|      25,60|
|           |    5|      237|  23,70|        23,70|      49,30|
|           |    6|      274|  27,40|        27,40|      76,70|
|           |    7|      150|  15,00|        15,00|      91,70|
|           |    8|       63|   6,30|         6,30|      98,00|
|           |    9|       19|   1,90|         1,90|      99,90|
|           |   10|        1|    ,10|          ,10|     100,00|
#===========#=====#=========#=======#=============#===========#
|            Total|     1000|  100,0|        100,0|           |
+—————–+———+——-+————-+———–+

Nun fand ich es spannend zu sehen, ob es einen Zusammenhang zwischen PageRank und Sichtbarkeitsindex gibt.

Gibt es einen linearen Zusammenhang von PageRank und Sichtbarkeitsindex? 

Ich fand keinen. Ich habe eine lineare Regression von Sichtbarkeitsindex auf PageRank ermittelt und einen Zusammenhang von r = .13 ermittelt. R hoch 2 ist also noch nicht mal .02. Der Sichtbarkeitsindex erklärt also nur knapp 2 Prozent der gemeinsamen Varianz von Sichtbarkeitsindex und PageRank – und das ist wenig! Mit anderen Worten: Der PageRank sagt also nicht die Sichtbarkeit in Google voraus.

Das zeigt sich auch ganz augenscheinlich, wenn man die Tabelle mit den Werten durchsieht. Es gibt in der Spitzengruppe der sichtbarsten Seiten (Top 20) nicht nur hohe PageRanks. Der schlechteste war 5, der höchste 9.

Auch im Mittelfeld um Platz 500 herum tummeln sich 5er, 6er, 7er und 8er Pageranks. Und auch am Tabellenende von Platz 950 bis 1000 findet man gar nicht selten hohe PageRank-Werte.

Hier ist die Ausgabe aus PSPP (einer OS-Alternative von SPSS)

REGRESSION
/VARIABLES= SVR
/DEPENDENT= PR
/STATISTICS=COEFF R ANOVA.

Model Summary
#====#========#=================#==========================#
#  R #R Square|Adjusted R Square|Std. Error of the Estimate#
##===#========#=================#==========================#
#|,13#     ,02|              ,02|                      1,53#
##===#========#=================#==========================#

ANOVA
#===========#==============#===#===========#=====#============#
#           #Sum of Squares| df|Mean Square|  F  |Significance#
##==========#==============#===#===========#=====#============#
#|Regression#         39,00|  1|      39,00|16,71|         ,00#
#|Residual  #       2329,06|998|       2,33|     |            #
#|Total     #       2368,06|999|           |     |            #
##==========#==============#===#===========#=====#============#

Coefficients
#===========#====#==========#====#======#============#
#           #  B |Std. Error|Beta|   t  |Significance#
##==========#====#==========#====#======#============#
#|(Constant)#5,43|       ,05| ,00|111,21|         ,00#
#|    SVR   # ,00|       ,00| ,13|  4,09|         ,00#
##==========#====#==========#====#======#============#

Hat der PageRank also keinen praktischen Wert (mehr)?  

Die PageRank Idee scheint mir dennoch ein Qualitätsmerkmal zu sein und kann offensichtlich das sehr gut abbilden, was er modellhaft abbilden soll: Die Wahrscheinlichkeit, mit der ein zufälliger Surfer über die Site kommt oder anders ausgedrückt, wie „beliebt“ im Sinne von nutzwertig, notwendig und allgegenwärtig eine Domain ist. Wie reliablel das abgesehen vom Augenschein ist, weiß ich nicht. Dafür bräuchte man noch ein anderes Kriterium.  

Einige Arbeiten versuchen PageRank mit dem Webseiten-Qualitätsaspekt „Verlässlichkeit“ in Verbindung zu bringen, wie zum Beispiel diese Studie von Sondhi et al an der Universität Illinois, USA.Die Wissenschaftler nahmen dafür Websites aus dem Themenbereich Medizin ins Visier, weil sich auf solche Seiten der etablierte  HONcode anwenden lässt, mit dem sich medizinische Publikationen qualitativ bewerten lassen. Die Autoren haben das Konstrukt der Akkuratheit entwickelt (und ein formelmäßiges Maß dafür gefunden als Angabe der Größe einer Abweichung zwischen Website-Beurteilung nach HON und Google PageRank), um zu bemessen, wie gut sich aus dem PageRank Algorithmus die Verlässlichkeit von Informationen auf medizinischen Webseiten voraussagen lässt. Die Autoren sprechen von einer Akkuratheit von 80 Prozent. Anders ausgedrückt: Google PageRank-Wert und der Evaluierung einer Website nach HON konvergieren deutlich.

Hoher PageRank – Website mit zuverlässiger Information

Daher würde ich mich zu der Meinungsaussage hinreißen lassen: Für informationssuchende Webuser ist der PageRank auch heute noch ein verlässlicher Indikator: Hoher PageRank heißt verlässliche Informationen auf der Seite.

Socialbakers für das Tracken von Social Media Aktivitäten

Komfortable Social Media Analye

Ich habe gestern ein Webinar von Socialbakers verfolgt. Socialbakers produziert ein Tool zur Analyse von Social Media Aktivitäten auf einer Reihe von Plattformen. Dazu gehören natürlich Google Plus, facebook und Twitter, aber auch Linkedin und Youtube.

Socialbakers wertet die Aktivitäten vieler Seiten aus. Die bekanntesten und naheliegendsten Brands sind inzwischen wohl vertreten. Als User kann man aber auch neue Seiten oder Profile vorschlagen. Diese Vorschläge werden dann geprüft.

Kategorien erleichtern Vergleiche 

Die einzelnen Seiten und Profile werden von Socialbakers in diverse Kategorien unterteilt. Dies macht ein spezifisches Vergleichen leichter.

Für Facebook werden Fans und inzwischen auch Local Fans gezählt. In der kostenlosen Version errechnet Social Bakers eine „Engagement Rate“, mit der die Aktivität dargestellt werden soll. Etwa 30 Parameter fließen in einen eigenen Scorewert ein, der prozentual dargestellt ist. Zusätzlich gibt es noch ein Userrating als Skala von 0 bis 10.

Bei den Statistiken für Twitter werden die Follower und die Anzahl der selbst gefolgten Profile erfasst und im Ranking dargestellt. Ähnlich ist das bei Google Plus, wo die Statistiken gerade noch sehr übersichtlich sind.

Was bringt das eigentlich das Tracken von Social Media? 

Online Markteting Mitarbeiter, die sich im Social Media Kanäle kümmern, erhalten eine schnell und aggregierte Übersicht über die augenblicklichen Aktivitäten in den verschiedenen Communities. So kann man die Aktivitäten der eigenen Firma zunächst einmal einordenen, aber auch besser steuern.

Man sieht, welche Aktivitäten bei der Konkurrenz gut laufen und kann Trend beobachten.  In der Abbidung sieht man zum Beispiel, dass BMW offensichtlich gerade anfängt, seine Aktivtäten in Google Plus zu verstärken. Für die Agenturen, die für andere Autohersteller arbeiten, kann das ein Argument werden, sich mehr Budget beim Kunden für Google Plus zu holen.

Neue Ansichten

Socialbakers ist neu und die Entwicklung bleibt nicht stehen. Das sieht man an der neuen City-Ansicht, zum Beispiel „Facebook Statistics for Cities“. Die Stadt mit den meisten Facebook Usern ist demnach Bangkok mit 12,8 Millionen Usern, gefolgt von Jakarta mit 11,7 Millionen Facebook-Usern. Die erste europäische Stadt ist London, zur Zeit auf Platz 7 mit 6,8 Millionen Usern, die Facebook-Profile haben.

In dieser Liste sieht Socialbakers die größte deutsche Stadt, Berlin erst auf Platz 49 mit rund 1,4 Millionen Facebook Usern und einer Durchdringung von etwa 40 Prozent. Soll heißt: 40 Prozent der Berliner nutzen Facebook, offensichtlich gemessen an der Einwohnerzahl. Dieser Durchdringungswert scheint noch nicht ganz ausbalanciert zu sein (City-View ist nich beta), denn viele Städte, so auch Paris schaffen es auf eine Durchdringung bis auf über 180 Prozent.

Bald soll man auch seine eigenen Profile direkt analysieren lassen können. Die Funktion ist aber noch nicht aktiv.

Kostenpflichtige Pro-Version

Es gibt eine Pro-Version des Analysedienstes, die wesentlich mehr Kennzahlen zeigt und Vergleichsmöglichkeiten bietet, so zum Beispiel auch die durchschnittliche Response – Rate auf Fragen von Usern.

Im SEO-Bereich gibt es mittlerweile sehr viele Tools, deren Service man in Abomodellen sich mittlerweile auch im KMU Umfeld leisten kann. Mit Socialbakers ist nun eine Entsprechung für Social Media auf dem Markt, das helfen wird, die eigenen Aktivitäten und Kampagnen zu professionalisieren und effizienter zu gestalten.

Kosten: ab 50 Dollar im Monat 

Ganz billig ist dies aber nicht. Ein einziges Profil mit der Pro-Version zu tracken, kostet 50 Dollar im Monat. Für eine gezielte Steuerung der Social Media Kanäle wird man aber um die Ausgaben für dieses oder ähnliche Tools nicht herumkommen.

Neues aus dem Land der Häuserverpixeler und Abmahnanwälte

Vermutlich ist das nur im Land der Häuserverpixeler und Abmahnanwälten möglich: Die Post soll 2000 Euro an einen Kläger in Bremen bezahlen, der einmal zuviel die Wurfsendung „Einkauf aktuell“ erhalten hat und in der Vergangenheit sich eine Unterlassungserklärung an Land ziehen konnte. Hier ist der Artikel in der Online-Welt

Immer wieder erfährt man von Urteilen hochinstanzlicher Gerichte, die solchen juristischen Tricks Vorschub leisten. In diesem Fall muss die Post nun, wenn sie wieder Einkauf aktuell einwirft, satte 250.000 Euro zahlen, weil das Recht auf informationelle Selbstdarstellung verletzt wird. Verkauft wird dies nun als origineller Sieg für den Vebraucherschutz. Endlich ein positives Urteil für die „Werbegeschädigten“. Ohne ein ausgesprochener Post-Fan zu sein, vermisse ich hier aber jede Verhältnismäßigkeit. Da will jemand, dass keine Werbung in seinen Briefkasten geworfen wird, erwirkt eine Unterlassungserklärung und weil Einzelwünsche bei Massensendungen schwer zu realisieren sind, passiert es eben doch einmal, dass wieder eine Werbebotschaft eingeworfen wird. Folglich werden 2.000 Euro fällig und wenn es nochmal passiert dann eine Viertel Million. Eigentlich toll, wenn man so ein lukratives Geschäftsmodell gefunden hat.

Zeitungsterben: Wer produziert demnächst noch Content im Web?

Wenige Wochen vor Jahresende kommt das Aus für die Frankfurter Rundschau, die Financial Times Deutschland und aus der Hauptstadt hört man, dass auch beim Berliner Verlag Entlassungen im redaktionellen Bereich anstehen. Die Meinungen, woran das liegt, sind vielfältig.

Sascha Lobo glaubt, die Darstellungsform Artikel hat damit zu tun. Klassische Artikel wie in der Zeitung sind statisch und werden dem dynamischen Nachrichtenfluss nicht gerecht. Schon gar nicht, wenn sie auf Papier gedruckt werden, aber das Papier kann nichts dafür. Andere meinen, das Zeitungsterben liegt an nachwachsenden Generationen, die kein lineares Papier mehr vor sich haben wollen und es auch viele qualitativ hochwertige Information werbefinanziert im Web existiert. Da ist der Konsument eben nicht mehr bereit, zu bezahlen.

Als jemand, der das journalistische Handwerk in den 1990er Jahren ganz klassisch als Volontär, Zeitungspraktikant und freier schreibender Mitarbeiter erlernt und erlebt hat, stellt sich mir der Eindruck, dass die Verlegern zwar immer mal nach neuen publizistischen Wegen für ihr Geschäftsmodell gesucht haben, aber in das Brot- und Buttergeschäft Zeitung nicht so viel investiert haben. Praktisch alle deutschen Verlage haben sich in den 80ern an den neuen Privatradios beteiligt, zumindest die großen auch am kapitalintensiveren Privatfernsehen. Sat.1 war einmal das Velegerfernsehen schlechthin.

Die Zeitungsredaktionen haben sich aus meiner (zugegebenermaßen etwas eingeschränkten) Sicht wenig weiterentwickeln können. Immer wieder las man von schwierigen Tarifverhandlungen für die festangestellten Redakteure. Die Printhäuser wollten nicht so viel bezahlen, die Redakteure fanden die Einführung von PC-gestütztem Layout, das sie selber anfertigen sollten, nicht besonders gut.

Die globale Strategie war offensichtlich, regional oder medienspezifisch das Monopol zu behalten, also über die Leserschaft bzw. das Publikum im regionalen Markt oder durch geschickte Beteiligungen an den Trägergesellschaften von Fernsehsendern und Rundfunkanbietern. Mit dem erstarkendem Internet Ende der 1990er wurde diese Strategie immer wirkungsloser. Die Gatekeeperrolle ging auf andere Konstrukte über, zunächst auf Portale und Trafficaggregatoren, die durch Verlinkung Userströme kontrollieren konnten, später auf die Suchmaschine Google.

Das Fernsehen kämpft noch. Noch ist TV das Leitmedium und von pleite gehenden Programmen hört man zumindest in Deutschland selten, auch wenn am Programm gespart werden muss. Doch es ist nicht unwahrscheinlich, dass auch bald TV den Weg gehen, den Print und andere Werbeträger schon beschritten haben, nämlich den Weg in die zweite und dritte Reihe.

Das werbefinanzierte Mediengeschäft mit Fokus auf qualifizierte Inhalte ist heftig unter Attacke. In den vergangenen Jahren wurden massive Budgets von Print und TV hin zu online verschoben. Große Gewinner waren Suchmaschinen, große E-Commerce-Player und nicht zuletzt soziale Netzwerke. Als Positivbeispiel wird immer Spiegel Online genannt, als Beispiel dafür, dass ein Printflaggschiff auch online gut weitersegeln kann. Ich bin mir aber nicht sicher, ob Spiegel Online ohne die gedruckte Mutter auf Dauer existieren kann. Dann ist die Abhängigkeit zu den Suchmaschinen oder den Mobilplattformen extrem hoch. Die Online Gatekeeper haben schon öfter mal demonstriert, welche Auswirkungen ein Nichtberücksichtigen eines Veröffentlichungsmediums auf das Geschäftsmodell der Onlineableger von Zeitungen und Zeitschriften hat.

Das Geschäft mit Inhalten (sprich: die Generierung von journalistisch-redaktionell betreuten Texten) reduziert sich zunehmend mehr darauf, Suchmaschinen Futter zu liefern, zum Beispiel als Füllstoff für die „DKZ“, die de-kommerzialisierte Zone eines Onlineshops, die Suchmaschinenusermagnet sein soll und die vielleicht freiwillig verlinkt wird. Denn: Internetuser suchen auch nach Informationen, nicht nur nach Produkten, die sie online bestellen könnten. Dem versuchen die Suchmaschinen zwar Rechnung zu tragen. Die Wahrscheinlichkeit ist groß, dass man auf den vordersten Plätzen der Suchmaschinenergebnisseiten Links zu Shops findet – oder gut getarnt – Links zu Inhalten, die alleine deswegen geschaffen worden sind, um diesen Traffic aus Suchmaschinen einzufangen.Das läuft unter dem Stichwort Content Curation. Journalistisches Arbeiten ist das aber nur bedingt.

Wenn nun aber nach und nach Zeitungen eingestellt werden und die Onlineableger sich nicht mehr alleine halten können, wer produziert dann noch Nachrichtentexte, die Google News finden könnte, die per RSS verbreitet werden und die von Bloggern zitiert werden könnten? Wer schreibt die Texte, filtert, aggregiert, bewertet, kommentiert, glossiert? Es könnte zur Contentkrise kommen. Wer meint, Blogger könnten in die Bresche springen, übersieht, dass viele die Blogger entnervt ausgegeben haben, da sie ebenfalls für eine schwindende Leserschaft geschrieben haben. Blogs wurden und werden von den Suchmaschinen immer weiter abgewertet.

Adwords: Wie um alles in der Welt kommt die Landeseitenqualität zustande?

Einer der Mysterien bei Google Adwords ist für mich immer noch der Qualitätsfaktor und hier insbesondere die Landeseitenqualität. Selten kann man Seiten generieren, die in diesem Aspekt von Adwords als „überdurchschnittlich“ eingestuft werden. Das scheint recht schwierig zu sein. Ich frage mich, welche Faktoren der Bewertung durch Google zugrunde liegen können bzw. wie die algorithmische Bewertung funktionieren kann. Im Grunde dürften es Faktoren sein wie Seitenladegeschwindigkeit, Bounce-Rate (insbesondere die Rückkehr auf die Google SERP durch den Zurückbutton des Browsers). Unklar ist mir, wie stark sich formale Kriterien wie die W3C-Korrektheit des HTML-Gerüsts oder der CSS-Vorschriften auswirken.

Hoch bewertet, würde man vermuten, sind vielleicht inhaltliche Kriterien wie auch sonst im Seo – Bereich, also Kriterien wie die Keyworddichte (ich benutze das „böse Wort“ nochmal, gerne können wir das auch mit Termfrequenz bzw. WDF (within-document frequency) und IDF (inverse-document frequency ersetzen). Ich habe das gelegentlich ausprobiert, auf die Landeseitenqualität hat sich das nicht ausgewirkt. Mir wurde auch gesagt, irgendwo in den Richtlinen von Adwords steht explizit, dass der Suchbegriff (das Keyword) nicht auf der Landeseite vorzukommen braucht. Wenn dem so ist, bleibt als wichtigstes Bewertungskriterium, das sich maschinell leicht erfassen lässt, die Bouncerate und die Verweildauer auf der Seite, was für Google Adwords nur messbar ist, wenn der User in dieser Session wieder zur Suchergebnisseite zurückspringt.

Das Thema Navigation sollte sich auf einer schlanken und schmalen Landeseite nicht so sehr auswirken, offensichtlich zahlt dies auf  die „Nutzererfahrung“ ein, auch wenn dies ein immer noch sehr wolkiger und theoretischer Begriff ist. Nutzererfahrung hat natürlich mit der Navigation im weitesten Sinne auch zu tun: Findet der User auf der Landeseite, was er sucht und was er aufgrund seines Klicks auf die Anzeige erwartet? Kann der User mit der Seite interagieren? In den meisten Fälle heißt das für Landeseiten wohl, sich durch weitere Informationsangebote hangeln, sei es Text, Video oder ein PDF-Download. Die Bestandteile müssen gut zusammenpassen. Nicht zuletzt muss die Seite ästhetischen Vorstellungen des Users entsprechen, was ein sehr schwieriger Punkt für algorithmische Bewertungen per Bot sein wird. Zwar kann man Farbschema und Aufteilung der Seite etwas bewerten, doch der Gesamteindruck, gegeben durch die – wie die Gestaltpsychologen sagen würden – Übersummativität („Die Gesamtheit ist mehr als die Summe der Teile“) wird schwer zu bemessen sein. Es gibt gut konstruierte Skalen mit sehr guter Validität, um die die Ästhetik einer Webseite zu prüfen, aber man braucht dafür menschliche Rater. Angeblich sollen ja in Dublin ein großes Google-Rater-Team für die Adwords-Anzeigen und die dazugehörigen Zielseiten.