Content Management 2.0 bis 4.0 - eine Zeitreise

23. Juli 2015
von Börsenblatt
Das Internet hat unsere Kommunikation und unsere Erwartungen an Informationssysteme grundlegend verändert. Trotzdem könnte man mit Blick auf das Enterprise Content (wirklich?) Management manchmal meinen, wir befänden uns in der Computer-Steinzeit, meint PAUX-Chef Michael Dreusicke.
Immer öfter hört man z.B. von Facebook- und Twitter-Nutzern: „E-Mails sind sooo Neunziger ...“, weil sie inzwischen die Effizienz und Geschwindigkeit neuer Technologien kennengelernt haben und nicht mehr missen möchten.

Begreifen wir das Internet als das größte uns bekannte Content-Management-System, bietet sich ein Blick auf dessen Entwicklung an, um diese Prinzipien auf den Bereich der Enterprise Content Management-Systeme zu übertragen. Natürlich ist das für den einen oder anderen weit hergeholt. Aber die Lebenswirklichkeit der Nutzer ist ja auch nicht wegzuleugnen. Wenn wir uns diesen Blick erlaubten  (Konjunktiv), würde dabei vermutlich deutlich werden, dass sich das heutige Enterprise Content Management in zentralen Bereichen noch auf einer Entwicklungsstufe von vor 20 Jahren befindet, also, nett gesagt, noch erhebliches Verbesserungspotenzial aufweist, oder, etwas näher an der Sache, in der jetzigen Form keine allzu langdauernde Daseinsberechtigung mehr haben und bald von anderen Informationssystemen abgelöst werden dürfte.

Die Entwicklung des Internets wird herkömmlich in vier Stufen beschrieben. Alle haben ihre Berechtigung.  Als ECM-Anbieter in der ersten festzuhängen, ist dennoch uncool. So uncool, wie in vielen Fällen die Realität.

Web 1.0


Das „Web 1.0“ ist geprägt von HTML-Seiten, deren Inhalt überwiegend festgelegt ist. „Fest“ im Sinne von „immer gleich“. Egal wann, egal wer darauf mit welchem Interesse zugreift – immer dasselbe. Zwar ermöglichen so genannte (!) Content Management-Systeme in gewisser Hinsicht dynamische Seiten, indem Bestandteile der Seiten aus Quellen wie Datenbanken eingebunden werden können, der Inhalt einer Seite sich also permanent ändern kann. Dieses Prinzip wurde aber bislang nur halbherzig auf die eigentlichen Inhalte übertragen: Texte beispielsweise als wichtigste Informationsträger werden fast ausnahmslos als „Container“ gespeichert, also als Dokumente, Seiten oder Absätze. Die in diesen Text-Containern enthaltenen Informationen, um die es *eigentlich* geht, wie einzelne Sätze/Aussagen, werden in der Regel nicht als solche von einer Datenbank verwaltet, sondern nur der sie umfassende Container. Ähm, hat da jemand die Idee von einer Datenbank nicht verstanden? Geht es nicht gerade darum, das, was wichtig ist, als Objekt zu speichern und damit handhabbar zu machen?

Da die Text-Informationen selbst nicht in einer Datenbank verwaltet werden, lassen sie sich auch nicht steuern oder „managen“. Insofern greift der Begriff „Content Management“ selbstüberschätzend zu weit, passender wäre die ehrlichere Formulierung „Container Management“. Auf dem Weg zum tatsächlichen Management des Contents, also dem der einzelnen Informationen und Informationsbestandteile, ergibt sich damit die erste und fundamentale Anforderung, nämlich eine höhere Feingliedrigkeit der zu speichernden Objekte (höhere „Granularität“). Erst diese ermöglicht eine größere Steuerungsmöglichkeit der Content-Zusammensetzung und damit mehr Management in eigentlichen Sinn.

Web 2.0


Unter dem Web 2.0 wird, wie wir alle wissen, das so genannte Mitmach-Web verstanden: Nutzer verlassen ihre Rolle als reine Informationsempfänger und bringen sich aktiv in die Informationsherstellung oder -gestaltung mit ein. Ok. Aber was heißt das? Dadurch wird eine zweite Anforderung deutlich: Es geht nicht mehr nur um den Content, den es zu managen gilt, sondern zunehmend auch um Dienste, die z.B. die Kommunikation oder Zusammenarbeit der Nutzer ermöglichen. Spätestens hier verlassen wir den Scope des herkömmlichen (und herzlich altbackenen) Content Management. Auf einmal geht es auch um die Nutzer. Und den Nutzen. Huch!

Voraussetzungen
Hilfreich für eine Zusammenarbeit unterschiedlichster Nutzer ist zum einen der Einsatz von Open Source- Lösungen, am ehesten in Form einer Browseranwendung. Bitte kein proprietärer Quatsch. Die Einrichtungs- und Wartungskosten sind einfach anstrengend. Besser, die Teilnehmer einigen sich auf den kleinsten gemeinsamen Nenner: Außer einem Internetbrowser braucht keine weitere Software installiert zu sein. Weiterhin hilfreich, aber heute noch aufgrund durchweg hoher Paranoia-Level selten, ist die Möglichkeit, ein bereits vorhandenes Nutzerkonto verwenden zu können. Um vielen Menschen einen Zugang zu ermöglichen, bietet sich zum Beispiel der Pakt mit dem Bösen, aka Facebook-Connect an: Der Nutzer braucht kein neues Profil einzurichten, sondern setzt sein Facebook-Nutzerkonto ein, um sich einzuloggen. Kontrollverlustangst ist vorprogrammiert, schon klar. Aber was taugt ein System ohne Nutzer? Und die sind mit ihren Herzen bei Facebook. Nicht in irgendeinem super-fancy LDAP-Irgendwas. Menschen menscheln. Das ernst zu nehmen bringt uns einen ganzen Schritt weiter.

Nutzer erwarten zunehmend, „immer und überall“ auf ihre Daten zugreifen zu können. Schließlich können sie das bei anderen Diensten auch. Und sogar mobil, und zwar sowohl um Informationen abzurufen als auch um sie zu verändern oder herzustellen. Diese schrecklich anspruchsvollen Nutzer. Aber aus ihrer Sicht sollten Daten in einer von überall aus erreichbaren zentralen Datenbank („Cloud“) bereitstehen. Und zwar als selbstverständliches Grundprinzip. Nicht als super-angekündigtes Mega-Feature, das auf Messen mit riesigen Plakaten und dem Hinweis ausgestellt wird: „Das können wir jetzt auch!“

Möglichkeiten eigener Beiträge
Manche Nutzer möchten sich einbringen, indem sie mit anderen Nutzern über den Content kommunizieren. Alarmglocken läuten: Was? Wir sollen die Kontrolle aus der Hand geben und die Nutzer reden lassen? Naja, sie reden ja ohnehin. Wir können es nur zulassen und unterstützend moderieren, oder wir können sie wie Drogenabhängige in die Subkultur drängen. Aus der Erfahrung heraus wissen wir: Ans Licht damit! Immer heraus mit den Anliegen! Offene Kommunikation ist eine wunderbare Möglichkeit, echte Kundenbindung aufzubauen und sich ein bisschen von dem aufzubauen, worum es in unserer immer stärker digitalen Welt im Kern geht: Vertrauen.

Kommunikation beginnt damit, dass ein Nutzer ein beliebiges Content-Element (kleinteilig bis auf Satzebene, s.o., und nicht den ganzen Artikel) in eine zentrale Plattform oder an anderer Stelle einbetten, mit einem Kommentar oder einer Bewertung versehen und damit die Kommunikation eröffnen, also etwas mit anderen „teilen“ kann. Hier beginnt also das Risiko, das Abenteuer. Und die Chance.

Das setzt voraus, dass Content-Elemente zitierfähig sind, also "Adressen“ haben. Adressen wie die Häuser und Wohnungen in einer Straße: Wenn ich die kenne, kommt ein Päckchen sehr wahrscheinlich an. Idealerweise geschieht das, denn glücklicherweise haben sich brave Leute hierüber schon viele Gedanken gemacht, durch so genannte Uniform Resource Identifier („URIs“), also durch Internetadressen für Dinge aller Art, wie sie vom World Wide Web Consortium (W3C), der für die Standards im Internet zuständigen Behörde, vorgeschlagen werden.

Um aus dem initialen Posting eine lebendige Diskussion entstehen zu lassen, müssen andere Nutzer auf dieses Posting durch Bewertung und/oder Kommentare öffentlich antworten können. Und um Schwung in die Sache zu bringen (Reichweite und Viralität), werden diese Antworten auf Wunsch auch in ihrem sozialen Netzwerk angezeigt, also z.B. auf ihrer Facebook-Pinwand. Dort können auch ihre Facebook-Kontakte antworten (und herrlich lästern). Diese Antworten der Facebook-Kontakte sollten dann im Ausgangswerk wieder angezeigt werden („Rückkanal“), damit dort das kommunikative Zentrum entstehen kann „Community Building“). Wer seinen Content zum Magneten für Nutzer macht, hat gewonnen. Egal, ob gute oder schlechte Kommentare: Hier ist Masse King. Denn Aufmerksamkeit ist eine der neuen Leitwährungen.

Andere Nutzer möchten den Content, so verwegen es auch klingt, an ihre individuellen Bedürfnisse anpassen, („customizen“), also Inhalt oder Aussehen verändern. Und wieder andere Nutzer kommen auf die irrwitzige Idee, den Content komplett selbst erstellen zu wollen („User Generated Content“; prominentestes Beispiel ist Wikipedia) oder bringen sich in die Content- oder Produktentwicklung ein („Customer Co-Creation“), was F&E-Kosten sparen kann. Herkömmliche Systeme sagen dennoch: Raus mit Euch! Wir sind ja hier kein Spielplatz, sondern seriös. Und tschüss.

Egal ob Teilhabe durch Kommunikation, Individualisierung oder Herstellung: Die Rolle des Nutzers kann sich vielfältig ändern. Chefs werden zu Zuarbeitern, Pförtner zu Experten. Alles ist im Fluss, Kompetenz beweist sich nicht durch Amt, sondern durch Beitrag und Wert. Letztlich bedeutet dies die Integration von Customer Relationship Management (CRM) in das Content Management-System, weil damit die Kundenbeziehung (genauer: die unterschiedlichen Rollen von Menschen) ebenfalls zu einer steuerbaren Größe wird, zu einer Eigenschaft und einer zusätzlichen Schicht des Contents … und damit Mehrwerte schafft und Kontrolle ermöglicht. Kontrolle durch Kenntnis und Transparenz.

Incentivierung
Da nicht alle Nutzer gleichermaßen und ausreichend für eine Teilhabe motiviert sind (die Altforderen der ECM-Fraktion allen voran), sollten Spielelemente mit dem Content verknüpft sein („Gamifcation“), und zwar sowohl durch Auszeichnungen („Badges“) als auch durch ein Punktesystem, dessen Stand in die sozialen Netzwerke gepostet werden kann, um eine Wettbewerbssituation zu ermöglichen. Jaaa, schon klar. Spiele sind was für Kinder. Nicht für große Jungs. Ok. Aber ein Blick auf die Autos dieser großen Jungs verrät: Sie sind (glücklicherweise) Kind geblieben. Und erfreuen sich an allem, was funkelt, blinkt, leuchtet und tutet. Und genau so geht es jedem Nutzer eines drögen Informations-Dings: Er hat Lebenszeit und möchte sie mit Freude füllen.

Eine zweite (die erste ist Foursquare) Manifestation des Prinzips „Zeig mir deine Punkte und ich sage dir, was es kostet“ ist z.B. der Klout-Score, eine Maßeinheit für Erfolg (Reichweite und Einfluss) in sozialen Medien. Mit an Sicherheit grenzender Wahrscheinlichkeit kennt der Leser dieses Artikels weder Klout noch dessen faktische Bedeutung, geschweige denn dessen Zukunftsrelevanz. Dieser Score hat aber inzwischen Auswirkungen auf „reale“ Geschäfte des täglichen Lebens, indem Nutzer mit einer höheren Punktzahl günstigere Hotelmieten, Versicherungsbeiträge, kostenlose Produkte zum Test etc. bekommen, weil deren öffentliches (!) Urteil für wirksamer gehalten wird als herkömmliche Werbung. Diese Entwicklung zu verschlafen ist ein bisschen wie Winterschlaf im Hochsommer: Cool, aber nicht allzu aussichtsreich.

Digitale Identität ist also nicht nur Spielerei, sondern handfeste Münze. Hier entsteht in gewisser Weise eine weitere neue Währung, die z.B. auch Anwendung bei Lizenzkosten finden könnte (hoher Klout-Score: geringer Preis bzw. kostenlose Lizenz).

Konsequenz
Zusammenfassend wird Content, der keine umfangreichen Interaktionsmöglichkeiten zulässt, immer weniger Gegenstand digitaler Wertschöpfungsketten sein können, was eine grundsätzliche Änderung der Informationsarchitektur von Content Management-Systemen erforderlich macht. „Grundsätzliche Änderung“ meint hier: Entlassung (Weg-Lobung oder Versetzung) etablierter aber altbackener Uralt-Hirne, Freimachung für jungsche Chaoten. Nicht Anarchie, aber Neo-Kompetenz.

Web 3.0

Maschinenlesbarkeit
Beim Web 3.0 geht es bekanntermaßen um die Verbesserung der Verständlichkeit des Contents für Maschinen, um eine Unterstützung durch sie zu ermöglichen. Da für die tumben Maschinen insb. Text genauso unverständlich ist wie für uns Menschen die Schriftzeichen einer unbekannten Sprache, sind eine gemeinsame Grammatik und ein gemeinsamer Wortschatz schon mal ein erster Schritt. Hierfür hat das W3C ein Format namens Resource Description Framework (RDF) entwickelt. Wenn ein Content Management- System seine Informationen als RDF speichert oder ausgibt, können andere Systeme diese Informationen besonders gut verarbeiten. Verspricht die Theorie. Und was zeigt die Praxis?

Findability
Der Vorteil besteht der Lehre nach darin, dass über RDF die Beziehungen zwischen Objekten beschrieben werden: Statt z.B. einem Dokument nur „Tags“ (Schlagwörter) zuzuordnen, können durch RDF andere Objekte mit einem Dokument verknüpft werden. Das können z.B. Personen sein (etwa in der Rolle als abgebildete Striptease-Tänzerin), die wieder einen eigenen Kontext haben (z.B. ein Passfoto und praktikablerweise eine Adresse). Wird dieses Prinzip nicht nur auf Container wie Dokumente oder Seiten, sondern auf die Informationen (zur Erklärung, was das ist, braucht man mindestens eine Flasche exzellenten Rotweins) selbst angewendet, entsteht ein Netzwerk (Semantic Web), das von Maschinen sehr gut durchsuch- und steuerbar wird. So gut wie nichts anderes, was wir aus der alten Welt kennen.

Aber nicht nur für die silikonbeladenen Maschinen (oder Stripstease-Tänzerinnen), auch für den Nutzer wird alles einfacher: Suchergebnisse können anhand von Eigenschaften der mit den gesuchten Objekten verknüpften Objekte eingeschränkt werden, z.B. die Bildersuche durch den Zusatz, dass das Bild mit einem Satz verknüpft sein soll, der ein bestimmtes Wort enthält (z.B. „polyamorös“). So bekommt der Nutzer die Möglichkeit, Gesuchtes anhand von Kontextinformationen einzugrenzen („Facettierung“). Wir kennen das von ebay: Zeige mir Socken, nur Herrensocken, nur aus Baumwolle, nur schwarz, nur unter 12 Cent das Paar. Über facettierte Checkboxen, die brav die Anzahl der übrigen Treffer anzeigen, können wir munter drauflosfiltern.

Personalisierung
Anders als bei einer Verknüpfung durch bloße Hyperlinks ermöglicht die Verknüpfung von modularem Text durch semantische Technologien mehr Komplexität und eine höhere Ausdrucksmächtigkeit. Ist das nun ein Grund zur Freude oder zur Besorgnis? Textbestandteile können auf einmal mehrfach verknüpft, die Verknüpfungen können typisiert und beschrieben werden. Aber wozu soll das gut sein?

In diesem Netzwerk lassen sich für gewiefte Autoren auch Informationen unterbringen, für welche Nutzergruppe welche Content-Bestandteile wie wichtig und wie schwierig zu verstehen sind. Ah, jetzt wird ein Schuh draus: Auf diese Weise lässt sich Content also gezielt für unterschiedlichste Nutzergruppen zusammenstellen, etwa für Mitarbeiter vs. Kunden, Einsteiger vs. Fortgeschrittene, Techniker vs. Manager, zahlender Kunde vs. Interessent. Na gut. Dann werden vermutlich Kosten gespart, weil Informationen nicht stumpfsinnig kopiert, sondern einfach durch unterschiedliche „Views“ (Ansichten) zugänglich gemacht werden. Das verbessert dann, wenn es klappt, nicht nur die Navigation, indem der Nutzer die für ihn relevanten Inhalte schneller findet, sondern eröffnet auch neue Geschäftsmodelle (kostenloser Teaser-Content, Cross- und Upselling durch die Empfehlung verknüpfter Produkte).

Web 4.0

Im so genannten Internet der Dinge haben Gegenstände (körperliche und virtuelle, die Juristen unterscheiden ja sorgfältig zwischen körperlichen Gegenständen = Sachen, und Rechten) eigene Adressen, können also prinzipiell an der Kommunikation teilnehmen.

Auch hier stellt sich natürlich sofort die Frage: Warum denn der Quatsch? Überzeugende Beispiele sind aber der Wecker, der heute früher klingelt, weil er vom Navigationssystem (Handy) mitgeteilt bekommt, dass auf der Straße zu meinem Termin gerade Stau ist. Oder der Drucker, der zum richtigen Zeitpunkt selbstständig Toner beim günstigsten Anbieter heraussucht und bestellt (und damit in großen Betrieben die eine oder andere Hilfskraft überflüssig macht).

Die hier denkbaren Szenarien sind praktisch unbegrenzt und bislang kaum zu realisieren. Gewissheit wird erst die Zukunft bringen. Klar ist aber schon heute, dass Content ein Teil dieser Welt werden (genauer: als solcher anerkannt werden) wird. Klar ist auch, dass das sich hierdurch ergebende Datenaufkommen um mehrere Dimensionen (damit sind Nullen vor dem Komma gemeint) über dem bisherigen liegen wird („Big Data“). Tatsächlich stehen wir vor einer echten, großen, bedrohlichen Aufgabe: Die schiere Menge an Daten wird das Problem des Information Overload weiter bis zu einem Punkt verschärfen, an dem nützliche von unnützer Information bis zur Unauffindbarkeit überlagert wird. In herkömmlichen Content Management- Systemen ohne eine passende Informationsarchitektur wird Content mangels geeigneter Such- und Filtermöglichkeiten unnutzbar und damit wertlos werden.

Fazit

Das Internet hat durch die Erhöhung der Vernetzungsdichte zu einer Entwicklungsbeschleunigung auf vielen Ebenen beigetragen. Wohin das führen wird, kann vermutlich niemand mit Sicherheit sagen. Klar ist aber jetzt schon, dass Informationssysteme bei Weitem granularer, flexibler und kommunikativer sein müssen, als das heute der Fall ist. Nicht, weil neue Knöpfe und Schalter die Augen technikverliebter Entwickler zum Leuchten bringen, sondern weil zum einen die Nutzer bestimmte Komfortmerkmale als normal voraussetzen und zum anderen das exponentiell wachsende Datenaufkommen zu besserer Informationsarchitektur drängt.

Die Frage, ob herkömmliche Systeme an künftige Anforderungen angepasst oder von Grund auf neu programmiert werden müssen, liegt für denjenigen, der Softwareprojekterfahrung gesammelt hat, vermutlich zugunsten der letzteren Alternative auf der Hand. Neu machen ist besser und billiger. Wie ist Ihre Meinung zu dem Thema?

Michael Dreusicke ist Geschäftsführer der PAUX Technologies GmbH. Das Berliner Unternehmen entwickelt Technologien für semantisch angereichertes Content Management. 

Der Text wurde zuerst im "DOK.magazin" Ausgabe 4 / 2012 veröffentlicht.