MVB Data Summit 2018

Metadaten brauchen Monitoring

12. November 2018
von Börsenblatt
Der MVB Data Summit, die Jahreskonferenz (durchaus nicht nur für) Datenmanager, findet in diesem Jahr am 28. November statt. bookbytes-Autor Harald Henzler skizziert hier die Themen Sichtbarkeit und Monitoring und die Fragestellungen der Konferenz.

Früher war ein Buch wie die Bibel unumstößlich. Es galt. Und es sollte so geschrieben werden, dass es für immer Bedeutung habe: eine Familie gründen, einen Baum pflanzen, ein Buch schreiben. Das ist eine Hinterlassenschaft.
Und dem folgend sollten auch die Metadaten zu einem Buch unumstößlich sein. Der Autor ist einmalig und seine Rechte sind geschützt, die ISBN bezeichnet eindeutig einen Titel, der Verlag ist der verlässliche und bekannte Absender und der Preis festgeschrieben und gebunden. Und in einer Bibliothek hat das Buch seinen festen Platz, alphabetisch geordnet nach Autorennamen und Titeln.

Heute heißt die große Herausforderung »discoverability«, zu Deutsch: Wie werde ich im Netz überhaupt in der Fülle der Informationen gefunden? Denn die Herausforderung lautet nicht, überhaupt an wertvolle Informationen zu kommen (wie in Diktaturen), sondern die jetzt passende zu erhalten. Der Weg zur Lösung führt über Google und das Suchverhalten der Kunden. Will ich gefunden werden, muss ich die richtigen Schlagwörter belegen, so dass mein Titel so weit oben wie möglich erscheint. 
Da das Netz lebt, da sich die Kunden ändern, müssen sich auch diese Schlagwörter ändern. Das heißt, dass sich die Metadaten an das Suchverhalten des Kunden anpassen müssen.
Und wenn sie sich dauernd anpassen müssen, dann geht das nur, wenn man über einen längeren Zeitraum Erfahrungen sammelt und diese dokumentiert. Man muss lernen, welche Metadaten gut funktionieren, welche nicht und wann und wo man sie einsetzt: Metadaten brauchen Monitoring.

Am Beispiel 
Amazon wird hier gezeigt, wie man Metadaten variabel einsetzt und immer wieder neu mit Kategorien spielt. Die verkaufsfördernde Nutzung von Metadaten im Amazon-Shop sind bekannt: Wer dies gekauft hat, dem wird noch Ähnliches, Verwandtes angeboten. Durch die Masse an Daten kann Amazon relativ stabil Cluster von Käufern bilden und verwandte Kaufvorgänge abbilden. Hier sind noch keine inhaltlichen Beschreibungen nötig. Aber in den Präsenzbuchhandlungen spielt Amazon mit den eigenen Analysen und probiert neue Kategorien aus, die die möglichen Käufer auf Entdeckungstour schicken. Durch neue Kategorien wie »in drei Tagen ausgelesen«, »mehr als 10.000 Rezensionen«, »bestverkauft an Ihrem Ort« u.a. wird die Lust am Stöbern weiter angeregt.

Um ein gutes Monitoring aufzubauen muss man sich im Klaren sein, was man überhaupt wissen will. Nach den Regeln guter A/B-Tests müssen die KPIs formuliert werden. 
Drei Prozessschritte sollten dabei vor allem im Blick sein.
1.    Wer legt welche Metadaten fest und passen diese zum Produkt?
2.    Wer spielt welche Metadaten an wen aus und wo funktionieren die Schnittstellen nicht?
3.    Wie sucht der Kunde und wie werden die Informationen über ihn zurückgespielt?
In der Regel werden die Metadaten von dem vergeben, der das Produkt am besten kennt, meist dem Lektor, Redakteur oder Produktmanager. Hinzu kommen noch die Einschätzungen vom Marketing und dem Vertrieb, d.h. den vermuteten Metadaten zur Positionierung des Werkes. Das stellt sicher, dass das, was in der Vermarktung versprochen wird, auch eingehalten werden kann und das Produkt so angezeigt wird, wie man es positionieren wollte.
 Soweit so gut – das hat man immer schon gemacht. Heute hat man eben mit Google Trends, Analytics und den Werkzeugen zur Analyse der Metadaten im Netz zahlreiche Helfer, die man hierfür geschickt einsetzen kann.

Die Herausforderung beginnt jetzt aber mit einer Analyse des Gebrauchs der Metadaten im folgenden Prozess.
 Die erste Schwachstelle sind die Händler, Bibliotheken, eigenen Portale usw., d.h. die Schnittstellen zum Kunden. Jede Schnittstelle birgt Gefahren, denn bei allen Standards wie ONIX 3.0 ist nicht immer sichergestellt, dass alles so verarbeitet wurde wie erwartet. Zudem warten die Partner oft gerne mit eigenen Vorstellungen auf, wie man Daten clustert und ob man gar einen eigenen Thesaurus pflegt.
Die zentrale Schwachstelle sind jedoch die Kunden. Sie suchen meist je nach Kontext anders als gedacht. Hierfür braucht es ein Qualitätsmanagement, das erkennt, wie wirklich gesucht wurde. Wie man das macht ist im Onlinemarketing schon lange bekannt. Dort gehört es zum Handwerk, keywords zu optimieren und dem folgend die Produktbeschreibungen, Texte auf den Webseiten oder die Zielgruppensegmentierung anzupassen.

Der MVB Data Summit im November wird sich vor allem mit dem Thema Monitoring befassen. Es wird Vorträge aus den Häusern Springer Nature und Holtzbrinck geben, die schon ein paar Jahre Erfahrung haben in der Optimierung ihrer Metadaten und der Verbesserung des Prozesses. Und es wird Vorträge zum Einsatz von KI bei IBM, der Zeit oder tolino geben, die zeigen, dass wir in der Branche in manchen Bereichen schon deutlich über die ersten Versuche hinausgekommen sind und jetzt die Optimierung und Weiterentwicklung in den Blick bekommen müssen. Metadaten sind kein Selbstläufer. Sie müssen gepflegt und entwickelt werden und eine Voraussetzung dafür sind die die Festlegung der Ziele und die kontinuierliche Beobachtung.
 Die zentralen Fragen sind:
 Wie entwickle ich mein Wissen über meine Zielgruppen weiter? Björn Wagner von »Die Zeit« zeigt, wie man mit den vielen Daten das eigene Angebot besser entwickelt.
 Wie können wir unsere Metadaten zu unseren Produkten optimal auch in anderen Bereichen einsetzen? So können wir z.B. neue Portale so entwickeln, indem wir auch hier thema und das Raster anwenden wie bei den Büchern. So ist sichergestellt, dass wir die Sichtbarkeit nachhaltig verbessern. Tobias Streitferdt von Holtzbrinck wird ein neu gelaunchtes Portal vorstellen, bei dem die thema-Kategorien genutzt wurden.
 Wie können wir die Verwendung der Metadaten in den verschiedenen Shops und anderen Systemen erfassen, über die unsere Kunden nach uns suchen? Und wie sollte ein Dashboard aussehen, das die Steuerung ermöglicht? Henning Schönenberger von Springer Nature stellt ein soeben fertiggestelltes Monitoring-Tool vor.
 Wie sieht die Zukunft von Standards aus und wie sind die Pläne bei editeur und anderen? Graham Bell von editeur wird in einer round-table-Session darüber berichten.
 Wie wird künftig KI eingesetzt und welche Potenziale ergeben sich hierbei? Stefan Herbert von IBM berichtet zum Stand von Watson und der Industrie und Hermann Eckel von tolino und Dmitry Nedovis von summarizebot stellen die Zusammenarbeit eines start-ups mit einem etablierten Unternehmen dar.
 Wie können wir aus den Erfahrungen lernen und die Veränderungen so gut wie möglich umsetzen? Siehe hierzu vor allem die round table-Sessions und Vorträge von Karin Schmidt-Friderichs, Verlag Hermann Schmidt, sowie Sandra Schüssel, mvb, und der Sprecher der IG Produktmetadaten, Dr. Detlef Bauer, libri, und Marion Seelig, Ullstein.

Hier finden Sie Informationen zum Programm des MVB Data Summit 2018.