Persönliches

Ich wohne in Gütersloh, Nordrhein- Westfalen, allerdings komme ich nicht aus der Gegend. Ich bin in Bayern, nämlich in Hof an der Saale (Oberfranken), geboren und dort auch zur Schule gegangen.

Nachdem ich nach dem Abitur eine Ausbildung als Rundfunkjournalist absolviert hatte und in Berlin an der Freien Universität Berlin Politologie studiert hatte, arbeitete ich bei verschiedenen Print- und elektronischen Medien, hauptsächlich im Radio.

Im Jahre 2000 bin ich auf den Sektor Internet umgestiegen und arbeite seither – beruflich- als Internet Consultant und Online Marketing Manager für Produkte wie Hosting, Dating, Contentportale.


Ausbildung

Politikwissenschaften
Studium an der Freien Universität Berlin

Psychologie
Fernuniversität Hagen

Abitur am Schillergymnasium in Hof


Lebenslauf

goneo Internet GmbH, seit 2012

Productmanagement
Marketing

feropluris, Zeitraum 12/2009 – 04/2012

Startup, das sich das Ziel gesetzt hat, JAVA-Webrojekte zu entwickeln und Entwicklungsressourcen für andere Unternehmen bereit zu stellen.

Lycos Europe GmbH Zeitraum 05/2008 – 11/2009
Senior Product Manager

P/L-Verantwortung über die in sieben europäischen Ländern ausgerollte Dating-Community
Budgetplanung und -verantwortung
Schnittstellenfunktion zu benachbarten Abteilungen wie Sales, Marketing, Development
Steuerung des Developments
Konzeption und Spezifikation neuer Features
Optimierung der Neuusergewinnung, Konversionsraten und Churnraten
Planung und Umsetzung von Antichurn-Aktivitäten

Senior Product Manager, Portal Deutschland, Produkt Websuche

Planung, Umsetzung von Dialogmarketing-Konzepten zur Kundenneugewinnung, -bindung und -rückgewinnung
Marktbeobachtung, Forecasting, Budgetplanung, Erfolgskontrolle
Evaluierung, Steuerung, Briefing externer Dienstleister – Ausetzen und Optimierung von Prozessen zwischen den Abteilungen Marketing, Design und Development
Konzeptionierung und Umsetzung von Marktforschungsprojekten mit Auswertung und Ergebnispräsentation Unternehmen

Senior Product Manager, Tripod und Lycos Webcenter

Verantwortung der Produkte Homepagebuilding und Customer Care
Entwicklung und Umsetzung der Produktstrategie für Homepagebuilding sowie für Customer Care
Durchführung von Markt- und Wettbewerbsanalysen – Erstellung von Businessplänen und Überwachung der Planeinhaltung
Entwicklung von Produktfeatures, Sonderaktionen und Internetformaten sowie Koordination der Umsetzung
Planung und Durchführung von Launches
Akquise und Verhandlungsführung mit Kooperationspartnern
Koordination der Einbindung der Contentkooperationen – Erstellung und Auswertung von Traffic-, Advertising- sowie Umsatzstatistiken
Entwicklung und Etablierung von Workflows zwischen den verschiedenen internen Schnittstellen Projektplanung in Zusammenarbeit mit dem Development
Steuerung der Arbeitsaufgaben und -abläufe des Developments
Unterstützung von Sales-Aktivitäten Koordination der Informationsflüsse zwischen Sales, Technik, Marketing und Endabnehmer –
Führen des Homepagebuilding und Customer Care Teams

Leiter Content Tripod Deutschland

Inhalteverantwortlich für eine deutsche Community-Plattform
Lokalisierung des Produkts für den Markt Deutschland

01/1997 – 08/2000
Programmdirektor Radio Energy (NRJ)

Verantwortlich für die Strategie zur Erhöhung der Hörerzahlen
Koordination des kompletten Programms

01/1995 – 09/1996
Wortchef bei Radio Energy

Koordination des gesamten Wortprogramms Moderation (Musikmoderation, Talkshow)

07/1991 – 11/1995
Freier Programmmitarbeiter, Moderator bei MDR Life (Hörfunk)

09/1989 – 09/1990 Position: Moderator und Redakteur, Lokalfunk

Livepräsentation tagesaktueller Sendung einschließlich vorbereitender Recherche.


Interessen

Wie testet man Interessen?

Wofür interessieren sich Menschen?

Im Bereich der Arbeits- und Organisationspsychologie hat man es oft mit dem RIASEC Test zu tun. John L. Holland hat das zugrundeliegende Interessensmodell 1977 entwickelt. Interessen werden von ihm als Persönlichkeitsorientierungen angesehen.

Das Akronym RIASEC steht für Realistic, Investigative, Artistic, Social, Enterprising und Conventional. Auf der amerikanischen Website www.mynextmove.org ist der Test frei zugänglich (O*net Interest Profiler). Man bekommt eine Auswertung wie diese:

Computer
Sinclair ZX81

Irgendwann in den frühen 80ern tauchten in Zeitschriften überall kleine Anzeigen von Vobis auf. Nach dem Selbstbaucomputer ZX80 gab es einen Nachfolger namens ZX81, der wie der Vorgänger auf dem Chip Z80 der Firma Zilog aufgebaut war.

Der Einplatinencomputer hat ein paar Hundert D-Mark gekostet und einfach zum Ausprobieren hatte ich mir einen bestellt. Man musste einen normalen Fernseher als Monitor verwenden.

Massenspeicher war das handelsübliche Kassettengerät. Die Spezialität von Sinclair war damals schon die mehrfach belegte Tastatur. Die BASIC Befehle waren alle als ein Begriff auf einer Taste untergebracht. Daher musste man über SHIFT und andere Kombinationen die Ebene oft umschalten. Ebene 1 waren normale Befehle, Ebene 2 dann die Funktionen. Die Tastatur hatte gar keine Tasten. Es war eigentlich eine Folientastatur mit unklarem Druckpunkt.

Arbeits- und Bildschirmspeicher mit 1 K Byte waren eine Einheit, d.h. je mehr Programmcode und Daten zu speichern war, desto weniger Zeichen konnten am Bildschirm angezeigt werden.
Sinclair ZX Spectrum

Mein nächster Homecomputer – diese Bezeichnung war damals üblich – war ein Sinclair ZX Spectrum, der dann auch eine Art Gummitastatur hatte, 16 Farben darstellen konnte und über 16 KB Ram verfügte, die man auf 48 K erweitern konnte.

Wie beim ZX80 lief im inneren ein Z80 Prozessor. Als Massenspeicher gab es Magnetbänder in kleinen Cartridges. Der Spectrum ließ schon etwas mehr Programmcode zu, es gab sogar richtige Spiele wie Raid over Moscow. Die Sinclair Computer waren in England viel populärer. In Deutschland dominierten die VC20 und C64 von Commodore.

Das Schöne an den Homepcomputern von Sinclair war, dass man sich recht schnell dem Maschinencode nähern konnte und mit den Befehlen Peek und Poke ein bisschen in den Speichern herumstochern konnte. Auch kleine Routinen habe ich selbst noch hinbekommen.

Es gab erstaunlich viele Tools und Software, zum Beispiel auch einen LISP-Editor und Interpreter. Ich erinnere mich an ein Buch „Künstliche Intelligenz mit dem ZX Spektrum“ mit einigen Programmierroutinen, die das Prinzip rekursiver Programmierung und selbstlernenden Systemen verdeutlichen sollten.

Dies war schließlich die Zeit des Optimismus, was künstliche Intelligenz anbetrifft. Heute ist der Blick auf Künstliche Intelligenz ja viel, viel nüchterner.
Atari 800 XL

Der nächste Homecomputer, mit dem ich zu tun hatte, war der Atari 800XL, der allerdings meinem Bruder gehörte. Die Ataris verwendeten andere Chips und ich konnte mit meinen Kenntnissen in Z80 Maschinencode nichts anfangen.

Irgendwie kam es mir immer so vor, dass die Atari Computer als Spieleplattform konzipiert waren, obwohl eine vernünftige Tastatur und auch ein Diskettenlaufwerk den Atari für nützliche Dinge brauchbar gemacht hat.
Atari 260 ST

Die Atari Computer waren mir dennoch ziemlich sympathisch, so dass ich meine Eltern überredet habe, einen 260ST mit Diskettenlaufwerk zu kaufen. Wir haben dann dazu einen Oki-Nadeldrucker angeschafft, so dass wir ein paar Office-Probleme nun per PC gelöst haben.

Es gab kommerzielle Anwendungen für Firmen, aber das Lohnverarbeitungsprogramm habe ich damals in GFA Basic selbst geschrieben. Das GFA-BASIC-Handbuch habe ich immer noch zuhause. Wir haben den 260ST später mit dem 520 ST ersetzt.

Das Revolutionäre an diesen Geräten war das Betriebssystem TOS, eine Konkurrenzentwicklung zu Microsoft’s DOS mit einer fensterartigen Grafischen Benutzeroberfläche namens GEM. Mit GFA-Basic ließ sich diese Fensterdarstellung ganz gut nutzen.

Als Massenspeicher hatten wir dann auch eine Festplatte mit ein paar Megabyte Kapazität und einen SW-Monitor, der die Zeichen schwarz auf weiß darstelle und nicht wie damals übluch in der DOS-Welt grün auf schwarz.

Ich weiß noch, dass Musiker und Studios den Atari gerne eingesetzt haben, da MIDi-Schnittstellen standardmäßig vorhanden waren. Die Ataris liefen auch mit Motorola Chips der 68000er Baureihe. Damit war die Software inkompatibel zur aufziehenden Wintel Welt. Atari hat leider wie Sinclair auch nicht überlebt.


Was ist Hosting und was hat das mit Cloud-Computing zu tun?

Traditionell beschreibt man die Dienstleistung, die technischen Voraussetzungen zu liefern, um eine Website, einen Onlineshop oder auch andere Webprojekte im Internet verfügbar zu machen als „Hosting“. Fast gleichbedeutend damit ist der Begriff „Webhosting“.

Im Kern geht es bei diesem technischen Service darum, einem Kunden Platz auf einem Server einzuräumen, damit dieser dort die Dokumente ablegen kann, die er im Web veröffentlichen will. Typischerweise sind dies Text – Dokumente im HTML-Format, die auch auf Grafiken, Bilder, Formulare und andere Elemenete verweisen können. Die Firmen, die Hosting anbieten, sind sozusagen der Motor des Word Wide Web.

Früher, in den späten 1990ern bis in die Nuller Jahre waren recht große mainframeartige Hostsysteme üblich, um solche Dienstleistungen zu realisieren. Die Speichersysteme waren von den Frontendservern auch physikalisch getrennt. Später wurde Clustersysteme üblich, die viele kleine mehr oder weniger handelsübliche Stanandardserver zu einem Verbund bündelten. Die Möglichkeiten, die die Virtualisierungstechnologie mit sich brachten, befügelten diesen Trend weiter, sorgten aber auch dafür, dass die virtualisierte Hardware wieder „größer“ wurde: Mehr Prozessorleistung in einem Gehäuse ist ein durchaus feststellbarer Trend.

So um 2007 herum wurde der Begriff „Cloud Computing“ populär. Wirklich beschreibend und trennscharf ist der Begriff aber nicht. Im Grunde meint er nur die Ablösung von Applikationen von der konkreten Server- oder PC-Hardware. Die Rechengeschwindigkeit, aber auch die Verfügbarkeit breitbandiger Zugänge ins Internet machte es möglich, Anwendungen nicht mehr auf dem Office-PC zu realisieren, sondern „in der Wolke“, also auf einem entfernten System, von dem man als Anwender nicht weiß, wo es sich befindet.

Markosweb / Smartviper

Markosweb hilft bei der Analyse der Website, besonders wenn es um die Einschätzung grundsätzlicher SEO-Massnahmen geht. Das Tool zeigt die indizierten Seiten, die Anzahl der Backlinks und versucht, einen Score zu berechnen, basierend u.a. auf Metatag-Verwendung sowie der Qualität der eingehenden Links. Für den Anfang ist das ein recht grober, aber vielleicht helfender Gradmesser.

Der größere Informationswert bei Markosweb liegt aus meiner Sicht (und aus meinem Interesse heraus) in der Zuordnung von Websites zu Hosting-Firmen.

Markosweb versucht, die Top Hoster zu identtifizieren und ähnlich wie Netcraft nachzuverfolgen, welche Anbieter gewinnen und welche gerade Kunden (Webistes) verlieren.

Die Methode basiert vermutlich auf der Abfrage der Whoisdaten von etw 4 Millionen Websites weltweit mit Schwerpunkt USA und Europa. Dabei ergeben sich zumindest für Insider recht interessante Rankings.

Ob die Zahlen valide ist, müsste man mit dem Vergleich anderer Quellen feststellen, doch kaum ein Hoster veröffentlicht vernünftige Daten. Zumindest halte ich die Top 100 Liste von Markosweb nicht für unplausibel.

Entsprechend interessant – viellecht unter Mafo-Gesichtpunkten – ist die Liste der neuen Seiten, die in einem Kalender einsortiert sind.

So könnte man inhaltsanalytisch versuchen herauszufinden, zu welchen Themen Websites erstellt werden. Dabei fällt auf, dass es kaum noch wirkliche „private Homepages“ gibt. Dies ist auch nicht verwunderlich, denn ein Einzelkämpfer hat kaum mehr eine Chance, eine Website durch die Integration von Affiliateprogrammen oder Adwords zu refinanzieren.

Einige Blogger schaffen das natürlich noch, aber die Masse kommt einfach nicht mehr sehr weit und fliegt weit unter den Radarschirmen der Suchmaschinen.


Online Marketing

Wenn man sich beruflich mit der Suchmaschinenfreundlichkeit von Webseiten beschäftigt, kommen natürlich Leute aus dem Bekanntenkreis oft auf einen zu mit der Frage, wie man denn die eigene Seite besser auf den Suchergebnisseiten platzieren könnte.

Was muss man tun, damit Google die Seite liebt? Es ist absolut verständlich, dass man Optimierung betreiben will – und muss: Google besitzt soetwas wie das Monopol in der Websuche. Was daraus aber resultiert ist, dass jeder, der versucht, das Internet so einzusetzen, um mit den so abgebildeten Geschäftsprozessen Geld zu verdienen, ist ganz direkt davon abhängig, mit der wichtigsten Suchmaschine gefunden zu werden.

Also muss man sich um die Funktionsweise der Suche und der Zusammenstellung der Ergebnislisten Gedanken machen und sich überlegen, wie man es schafft, dort aufzutauchen. Immer noch – und das wundert mich – würden Seitenbetreiber viel Geld ausgeben, um an dem einen großen Hebel zu ziehen und die eigene Domain auf Platz 1 zu katapultieren.

Wenn es aber darum geht, die Inhalte der Webseite in Frage zu stellen, machen viele dicht. Das finde ich seltsam. Links auf die Domain organisieren – „früher“ war das vielleicht ausreichend.

Es mag schon sein: „Früher“ ging das womöglich dadurch, dass man viele Links von externen Webseiten auf wichtige Seiten unter der Zieldomain organisiert hat. Der PageRank Algorithmus baut ja auf diesem Prinzip auf und funktioniert trotz aller Unkenrufe erstaunlich gut, um für dieses Keyword nützliche Seiten von unnützen Seiten zu unterscheiden. Doch es gab eine Zeit, da hat die Anzahl und Wertigkeit eingehender Links oft keine verlässliche Vorhersage mehr erlaubt, eine schlechte Seite von einer guten Seite zu unterscheiden.

Entsprechend „spammy“ waren die Suchergebnisse. Also: Weitere Kriterien mussten herangezogen werden. Heute ist der Stand der Dinge, dass man die Qualität des Contents stärker ins Kalkül zieht, auch wenn man von einer „verstehenden“ Suchmaschine, die die Bedeutung, also die Semantik, erfassen kann, noch ein gutes Stück entfernt ist.

Mein Beruf: Productmanager, Online Marketing Manager, Online Vertrieb Ich arbeite entlange eines Berufsbildes, das es noch gar nicht so lange gibt. Die Bezeichnung Produktmanager ist wenig eindeutig.

In der klassischen FMCG-Industrie hat der Produktmanager sicher eine andere Rolle als im Internetbereich, was ja meine Branche ist. Angefangen habe ich als Journalist, doch von der reinen journalistischen Laufbahn, die ich durchaus einmal einschlagen wollte, habe ich mich seit 1990 immer weiter entfernt.

Sicher hat auch die Entwicklung neuer Medienformen dazu beigetragen. Lernwissen aus meinem Politologiestudium konnte ich eigentlich nur wenig anwenden. Das wäre sicher anders geworden, wenn ich die Laufbahn Diplomatie oder Assistent eines Bundestagsabgebordneten eingeschlagen hätte. Doch im Regierungsapparat waren eigentlich nur Juristen gefragt (vielleicht eine deutsche Besonderheit) und den Bereich Politikberatung gibt es ja in Deutschland kaum. Zumindest war das damals so.

Sogar die Studienberater haben uns Politologiestudenten nahegelegt, schnell was Geldbringendes zu suchen, denn – Begründung wörtlich – „das Politologiestudium führt direkt in die Arbeitslosigkeit“. Gerne zitiert wurden auch Beispiele von Politologiestudenten, die zur Studienfinanzierung den Taxischein gemacht haben und anschließend ihr eigenes Taxiunternehmen aufgezogen haben.


Meine Zeit bei diversen Radiosendern

Nach der Zivildienstzeit ging ich nach Berlin. Ich hatte mich für Politologie eingeschrieben. Damals dachte ich, für eine weitere journalistische Karriere könnte man einen akademischen Grad ganz gut gebrauchen.

Ich habe schnell versucht, noch einen Job neben dem Studium zu finden und hatte einen Kontakt aus Zivildienstzeiten reaktivieren können. Als ich noch beim LBV war, rief die Nachrichtenagentur ddp an, die damals eine ernsthafte Konkurrenz für die DPA werden wollte. Ich schreib einige kurze Texte im Agenturstil über Tourismus und Umweltschutz für ein lächerlich geringes Zeilenhonorar (auch damals ist journalistische Arbeit schon mickrig bezahlt worden).

Ich bewarb mich außerdem bei einer Reihe von Radiosendern in Berlin, unter anderem auch bei neu gestarteten Radio NRJ nahe der Kurfürstenstraße.

Die Arbeitsbedingungen waren relativ schlecht, ich hatte sowieso nur Spätabend- und Nachtschichten und die Bezahlung war minimal. Daher habe ich versucht, einen besseren Arbeitgeber für einen Studentenjob zu finden und bewarb mich beim Mitteldeutschen Rundfunk in Leipzig für das Programm MDR Life in Leipzig, was entfernungsmäßig nicht so weit weg war.
Was war MDR Life?

MDR Life war ein typisches Pop-Programm mit ein paar Nachrichtenelementen und einer der ersten Fast-Nur-Musikradio öffentlich-rechtlicher Prägung im Osten. Die Reichweite war anfangs immens (sicher auch, weil die Frequenzen des populären DDR-Jugendfunks DT64 belegt worden sind), die Charakteristik des Programms eher betulich.

Leider hat sich der Druck angesichts der durch die neue Privatradiokonkurrenz im Team sehr verstärkt, das Management hat wahnwitzige Kontrollstrukturen eingezogen und selbst für freie Mitarbeiter wurde die Atmosphäre immer unerträglicher.

Die Ausweichmöglichkeiten waren begrenzt. Die Wessi-Ossi-Spannungen in der Bevölkerung haben auch zugenommen, so dass man als Wessi nicht unbedingt bei einem ostdeutschen Sender arbeiten konnte. Ich hatte später die Möglichkeit, beim Sachsen-Ableger von NRJ in Leipzig einzusteigen. Ich bekam die Position Wortschef, eine Art Chefredakteur. Dies war der Versuch dieses Konstrukts, das Programm ein wenig zu professionalisieren.
Mein Engagement bei Radio Energy (NRJ)

Nach meinem Engagement beim Öffentlich-Rechtlichen wechselt ich, nachdem das Programm gegen die aufkommenden Privatsender nur wenig Chancen hatte und kaum Innovationen zu erwarten waren, begab ich mich wieder auf Jobsuche.

Ich studierte ja nun schon einige Jahre und so langsam musste ich auch einmal an einen festen Job denken. Ich bekam ein Angebot bei der Leipziger NRJ-Station.

Erst nachdem ich da eingestiegen war, wusste ich wirklich worauf ich mich eingelassen habe. Probleme wohin man nur sah. Ein Programmformat aus dem zwar viele Mitarbeiter ihre Motivation bezogen, für fast nichts zu arbeiten, für das aber zuwenige Hörer zu finden waren, marode, ausrangierte Technik, kaum Budget für Promotion oder Investitionen ins Programm. Dennoch war das Team natürlich stark miteinander verbunden, hoch idealistisch, Freunde findet man in so einem Kontext natürlich nicht.

Es gab ständige Krisen, denn die Finanzierung war sehr wackelig, persönliche Verwicklungen haben alle Entscheidungen beeinflusst, operativ schwarze Zahlen waren lange nicht in Sicht, das eher kleine Gehalt kam oft zu spät. In den ersten Monaten und Jahren sind wir nicht sehr weit gekommen. Die Qualität unseres Programms war schlecht, die Hörerzahlen fehlten, so dass die Refinanzierungsgrundlage nicht gegeben war.

Eine Investition in neue Sendetechnik war geplant aber wegen Querelen unter den Eigentümern kam dieses Projekt nur schwer voran. Die Investition musste vorgezogen werden, da durch einen Brand in der Vorweihnachtszeit durch eine Kerze das Leipziger Studio ausgebrannt war. Der Sendebetrieb war kaum aufrecht zu erhalten, die Bedingungen waren alles andere als professionell.

Der Turnaround dauerte immerhin drei Jahre und hat wirklich viele Nerven und Energie gekostet. Drei Jahre klingt lange, doch in dem hochregelementierten, interessensbestimmten Geschäft drehen sich die Mühlen etwas langsamer. Nach vier bis fünf Jahren hatte das Produkt inzwischen eine gewisse Flughöhe errreicht, so dass ein konkurrierender Medienkonzern aufmerksam wurde und sozusagen über bestimmte Schlüsselgesellschafter eine feindliche Übernahme vorbereitet und umgesetzt hat.

Es war also Zeit, sich erneut umzusehen und neu zu orientieren.