Data Driven Publishing

Do Androids Dream of Electric Literature?

6. November 2016
von Börsenblatt
Datenbasiertes Publizieren und schreibende Algorithmen: Der Untergang des Abendlandes? bookbytes-Blogger Steffen Meier ist der Meinung, dass Ersteres gar nicht so neu ist und Zweiteres in der Genre-Literatur wohl in absehbarer Zeit kommen wird.

»The End of the Human Publisher?« titelte vor geraumer Zeit etwas plakativ Flavorwire. Dem vermeintlichen Untergang des Abendlandes lag eine Meldung des Berliner Startups Inkitt zugrunde, die auf der Grundlage von Lesevorlieben ihrer Community einen Titel mit hohem Absatzpotential identifiziert hatten (auf der Plattform reichen Autoren ihre Texte ein, die dann von der Community gelesen werden können), der bei Tor Books, einer Tochter von Macmillan, nächstes Jahr in gedruckter Form erscheinen soll. Data Driven Publishing also.

Daraufhin ging ein Grummeln durch die Branche, so etwa ein Hamburger Verleger: »Das hat die Welt gebraucht: Bücher, die mit einem ähnlichen Verfahren kompiliert werden, wie der Facebook-Newsfeed. Spannend! Innovativ! Bullcrap!« Hier liegen schlicht Missverständnisse darüber vor, was Maschinenlogik für den Verlagsbetrieb bedeutet - Grund genug, einmal die Hintergründe genauer zu beleuchten. Unterschieden werden muss hier nämlich grundsätzlich zwischen zwei Bereichen: Auf Datenanalyse beruhende Programmplanung und Maschinelles Schreiben.

Auf Datenanalyse beruhende Programmplanung

Auch wenn die Berichterstattung um Inkitt sehr missverständlich war: es geht im Kern nur (!) darum, aufgrund einer Zielgruppenanalyse ein passendes Produkt, eine passende Produktform zu generieren. Das ist seit Bestehen der Branche täglich Brot des Verlegers: ein Produkt (i.d.R gedruckt) für eine bestimmte Zielgruppe zu publizieren, und zwar auf einer wirtschaftlich möglichst ertragreichen Basis. Auch die vielgerühmte »Überraschungs-Literatur« mit dem Impetus, den Leser mit etwas in Erstaunen zu versetzen, das er eigentlich im ersten Moment gar nicht gesucht hat, unterliegt diesem Prozess. Auch hier kann man jemand nur überraschen wenn man möglichst viel von ihm weiß. Und es darf auch nicht vergessen werden, dass die Diskussion um ach so böse Algorithmen gerne stimmgewaltig von Verlegern autorengetriebener Belletristik geführt wird. Tatsächlich stehen diese nur für einen Bruchteil der Verlagsbranche – Diskussionen um analysegestützte Programmplanung werden mit einem Fachbuch- oder gar Fachzeitschriftenverleger anders oder gar nicht geführt.

»Predictive data analysis is the way of the future« sagt folgerichtig Ali Albazaz, Inkitts Gründer und CEO, und er meint damit eine mit heutigen technologischen softwaregestützen Mitteln mögliche Sammlung an Markt- und Kundenwissen, die in dieser Form in der Vergangenheit nicht möglich war. Man mag dies »Big Data« oder »Small Data« nennen, am Ende ist es entscheidend, die relevanten Daten für Management- oder Produktentwicklungsprozesse zur Verfügung zu haben. Welche Inhalte für welche Zielgruppe in welcher Produktform in welchen Quantitäten? Diese Fragen müssen valide beantwortbar sein.
Gleichzeitig kommt ein weiterer Punkt zum Tragen: relevante Daten müssen schnell zur Verfügung stehen. Nicht, weil Software-Analysesysteme dies können – sondern weil Märkte, Zielgruppen, Leser heute viel fragmentierter, viel schneller, auch »sprunghafter« in ihren Lese- und Kaufentscheidungen sind. Und, genauso wichtig: die angeschlossenen Prozesse müssen ähnlich schnell sein. Das auf der Basis der Zahlen von Inkitt ermittelte »optimale« Buch wird gedruckt erscheinen – irgendwann 2017. Ob der Leser von heute ein Jahr auf sein Wunschprodukt warten will? Eher unwahrscheinlich. Und schlimmer: Was, wenn ein Mitbewerber mit schlankeren Prozessen ein adäquates Produkt nicht 2017, sondern noch rechtzeitig zum Weihnachtsgeschäft 2016 veröffentlicht?

Maschinelles Schreiben

»Dieses Schreiben wurde maschinell erstellt und ist ohne Unterschrift gültig« – wer schon einmal mit bundesrepublikanischen Finanzämtern oder anderen Behörden zu tun hatte kennt diesen Satz nur zu gut. So weit, so harmlos. Was aber, wenn es zu einem Zweikampf kommt, sozusagen Künstlerische vs. Künstliche Intelligenz? Roboter-Journalismus beschäftigt die Kollegen aus der Zeitungsbranche schon länger, aber da geht es zunächst »nur« um Sport- oder Aktienberichte, die per se sehr Daten- oder Statistikbasiert sind. »Auch nach dem neunten Spieltag der Saison muss das Liga-Schlusslicht weiter auf einen Erfolg warten. Beim 1. FC Köln unterlag der Klub 0:3 (0:0). Anthony Modeste gelang beim fünften Saisonsieg des FC ein Hattrick. Für ihn waren es im laufenden Spieljahr bereits die Tore neun, zehn und elf.« Das bekommt, mit Verlaub, auch heute schon ein entsprechendes Computergrogramm hin (nicht so bei Spiegel online, von dem das Zitat stammt, hier arbeitet noch ein »echter« Redakteur).

Anderes Beispiel gefällig? Bitteschön: »Benjamin«, ein Algorithmus, der ein Drehbuch für einen Science-Fiction-Film schrieb, »Sunspring«, von dem es sogar einen Youtube-Kurzfilm gibt.

André Westphal, bekannter Tech-Blogger, hatte seinen Spaß damit: »Ein wenig mutet ›Sunspring‹ so an, als hätten sich Stanley Kubrick, David Lynch und ein Indie-Dadaist auf einen Kaffee getroffen, LSD eingeworfen und dann einfach gemeinsam einen Film fabriziert.« Interessant ist aber seine Feststellung: »… im Grunde basiert es [das Drehbuch] gerade auf sehr festen, eingefahrenen Strukturen, an welchen sich die K.I. entlang gehangelt hat. Zudem wurde Regisseur Sharp durch die Arbeit mit der K.I. bewusst, welche Klischees und Muster in Science-Fiction-Filmen immer wieder auftauchen. Etwa die Desorientierung der Charaktere, welche in Benjamins Drehbuch immer wieder zu fragen scheinen, was eigentlich vor sich geht. Genau das zeichnet auch die meisten Sci-Fi-Filme aus.«

Und nicht nur Science-Fiction-Filme. Die in unterschiedlichen Variationen verwandte stereotypische Erzählstruktur ist in vielen belletristischen Bereichen, Hand aufs Herz, nichts Neues. Daran ist auch nichts Verwerfliches, nur muss man sich eben im Klaren sein, dass die Lücke zwischen literarischem Mainstream und Algorithmen mit steigender Lernfähigkeit der Maschinen immer kleiner wird.

»Das Licht, das doppelt so hell brennt, brennt nur halb so lange«

Datenanalysen zur Programmplanung sind also weder neu noch verwerflich, im Gegenteil. Und es steht auch nirgendwo geschrieben, dass ein Verleger sich diesen Erkentnissen unterwerfen muss. Wer für Zielgruppen publiziert, sollte dies tun, wer sein Publikum überraschen möchte, sollte sich auf sein verlegerisches Gespür verlassen.

Ebenso muss heute niemand befürchten, dass Maschinenlogik hinter dem nächsten Preisträger oder der Preisträgerin des Friedenspreis des Deutschen Buchhandels stecken könnte. Heute. Aber über den Weg des Roboterjournalismus ist es absolut denkbar, dass einige »Nackenbeisser« des Jahres 2030 nichtmenschlicher Kunst entspringen. Auf die Honorarverhandlungen zwischen Mensch und Maschine kann man schon jetzt gespannt sein.

Fussnote: Der Titel »Do Androids Dream of Electric literature?« ist dem Schriftsteller Philip K. Dick zu verdanken, der 1968 unter dem Titel »Do Androids Dream of Electric Sheep?« einen Roman schrieb, der sich dem Thema Künstliche Intelligenz und Menschlichkeit widmete und als Vorlage für den Film »Blade Runner« von Ridley Scott diente.