Nina George über Künstliche Intelligenz

Wer denkt denn da?

26. März 2019
von Börsenblatt
Künstliche Intelligenz kennt keine Moral. "Vielleicht sollte man es Poeten, Poetinnen und non-binären poetischen Menschen überlassen, ihre Werte zu bestimmen?", fragt die Autorin Nina George. Das Ziel: KI Werte mitzugeben, die für eine integere Gesellschaft essentiell sind.

Wir reisen mit selbstfahrenden U-Bahnen, fragen Alexa nach dem Wetter und Siri nach einem Geschenk für die Schwiegermutter, scrollen uns durch die Nachrichten der Facebook-Timeline, sorgsam kuratiert von Algorithmen. Wenn wir nicht weiter wissen mit unserem Latein gehen wir zum Übersetzungs-Programm Deep L, das Auto leitet uns vorwurfsvoll fiepsend in die kleinste Parklücke, und unser Gesundheitsarmband mahnt uns täglich, 10.000 Schritte zu tun.

Durchaus: wir nutzen sie gerne, die praktischen Ergebnisse künstlicher Intelligenz, die, mal mehr, mal weniger offensichtlich, ganz nah an uns lebt und lernt.

In der Buchbranche ist Künstliche Intelligenz zu einem wesentlichen Faktor geworden: Die algorithmischen Empfehlungen der Online-Händler wie Amazon empfehlen Bücher auf Basis von errechneten Vorlieben, die Auslese-Programme von E-Books analysieren intime Lesegewohnheiten; aus diesen Daten werden Leitfäden verfasst, wie von der Firma Coliloquy, wie Autoren und Autorinnen ein marktgleitfähiges Buch schreiben. Welche schwierigen Wörter weggelassen werden sollten, der erste Sex bitte auf Seite 28 (na, gut, das ist vielleicht ein wenig übertrieben), und dass der Protagonist unbedingt groß, grünäugig und dunkelhaarig sein muss, und, ganz wichtig: Haare auf dem Kopf: ja, Haare auf der Brust: nein.  – Was macht das eigentlich mit der Literatur?

Seit zwei Jahren prüft eine Künstliche Intelligenz wie QualiFiction Manuskripte auf das Bestseller-Potential, und tut so, als ob es einen Erfolgs-Plot gibt. Warum dann nicht gleich von KI Texte schreiben lassen? Dann hat man auch weniger Ärger mit diesen anstrengenden, launischen Autoren und Autorinnen!

Die schlechte Nachricht: das ist bereits möglich. Textgeneratoren und Robototerjournalistik, wie die KI der Firma uNaice, werden zum Erstellen von Kurztexten auf Online-Shop-Seiten eingesetzt, um keinen kreativen menschlichen Geist mehr zu zwingen, sich Sätze aus den Fingern zu saugen wie:  „Sie sind routinierter Semi-Profi und daher regelmäßig handwerklich im Einsatz? Mit der Akkustichsäge Bosch PST 18 Li meistern Sie jede Aufgabe mit links“. In China stellen KI-Bots – kleine Programme, die sich durchs Internet crawlen und Material sammeln – zum Beispiel aus Wikipediaeinträgen Sachbücher zusammen. Chatbots – also Unterhaltungs-Roboter – führen auf Webseiten von Banken Unterhaltungen mit Kunden. Chatbots reagieren in sozialen Medien auf Reizworte, und sondern je nach Wahl Begeisterungs- oder Hass-Tweets ab – und in der Bibliothek oder des Buchhandels der Zukunft kann ein Chatbot auf die Frage antworten: „welches Buch ist für mich interessant?“ Da staunt der Bibliothekar, die Buchhändlerin gruselt sich.

Vielleicht empfiehlt der Bot ja ein Werk seinesgleichen, zum Beispiel eine von einer KI übersetzten Ausgabe, so, wie es Amazon seit einigen Jahren mit gemeinfreien Werken tut, um sich Übersetzungshonorar zu sparen. Ein Fan von Game of Thrones entwickelte ein Programm, dass die ersten Bände analysierte, um dann die fehlenden Bände von George R R Martins großer Saga von einem Textgenerator zu Ende schreiben zu lassen. Die gute Nachricht: Es las sich einigermaßen scheußlich. Die schlechte Nachricht: Es gibt KI-Programme, die können das längst besser.

Mit GPT2, der artifical intelligence von OpenAI, soll es möglich sein, dass KI einen Roman schreibt; es reichen die Anfangssätze, dann legt GPT2 los, von Schreibblockade keine Spur. Füttert man GPT2 mit den ersten Sätzen von George Orwells Roman „1984“, die lauten: „Es war ein strahlend kalter Apriltag, und die Uhren schlugen dreizehn", – so schrieb das Autor aus Bits und Bytes weiter (NG: Ich habe gekürzt): „Ich war in meinem Wagen auf dem Weg zu meinem neuen Job in Seattle. Ich stellte mir nur vor, wie der Tag werden könnte. In einhundert Jahren von heute aus.“

Ja, wie kann die Welt in 100 Jahren von heute aus aussehen?

„Wer in dem Bereich der Künstlichen Intelligenz die Führung übernimmt, wird Herrscher der Welt“ – das sagte Russlands Präsident Vladimir Putin. Vielleicht dachte er an Robotersoldaten, die in einen endlosen Krieg ziehen. Oder an Hautsensoren, die unser Wohlbefinden zärtlich überwachen – und biologische Daten sammeln, die eine Regierung von Übermorgen dazu nutzen könnte, Menschen in werte und unwerte Kasten einzuteilen. Vielleicht dachte Putin an die „vorhersagende Polizeiarbeit“, deren KI errechnet, wo und vom wem ein Verbrechen ausgeübt werden könnte, um diejenigen vorsichtshalber schon mal in Verwahrung zu nehmen.

Dabei hat KI selbst keinerlei moralische Seiten, die man ihr vorwerfen könnte. Jede künstliche Intelligenz ist nur so gerecht, wie wir es sind.

Dazu ein kurzes Gedankenspiel.

Bereits jetzt bewegen sich Autos halb­automatisiert. So sammeln Kraftfahrzeuge Daten, um die KI zum selbstfahrenden Auto auszubilden. Mercedes nennt diese Daten-Kollektion „deep learning“.

2035 soll es – spätestens – soweit sein: Selbstfahrende Autos rollen in vereinheitlichtem Tempo über die Straßen; sobald ein Tempolimit morgens im Bundestag beschlossen wird, erhält das System Nachmittags ein Update. Die Zahl der Unfälle sinkt, autonom fahrende Autos werden die Todesrate um 90 % senken, zu diesem Schluss kam optimistisch das IEEE World Forum on Internet of Things.

Wer aber programmiert selbstfahrende Autos auf welches Verhalten?

Situation: Ein Mädchen stolpert auf der Jagd nach einem Pokemon auf die Straße. Was tut das selbstfahrende Auto? Ausweichen? Da links ist eine Mauer, die wird den Besitzer des Wagens zum pflegebedürftigem Invaliden machen. Rechts ist eine Gruppe von Menschen. Der Bordcomputer weiß durch Gesichts­erkennung und Data Mining, dass die Frau eine schlechte Gesundheitsratifizierung hat und in zwei Jahren sterben wird, dass der Mann alleinerziehender Vater ist, der Besitzer des Wagens ist ein mittelalter Mann mit Hang zu Schnaps.

Wen töten, wen retten? Utilitarismus oder Pflichtethik, Mill oder Kant?

Das stolpernde Mädchen ist im Übrigen von dunkler Hautpigmentierung, und bereits jetzt ist erwiesen, dass die Software von selbstfahrenden Autos bei Menschen mit dunkler Hautfarbe öfter nicht ausweicht. Aber wer entscheidet über den Algorithmus, der über Leben und Tod entscheidet? Die Hausjuristin von Mercedes? Der Programmierer? Die Käuferin des Wagens, die anklicken kann: prosozial – antisozial? Soll der Staat entscheiden? Was ist, wenn der Staat 2035 von politischen Kräften gelenkt wird, die eine bestimmte Menschengruppe ablehnen? Die eine Volksabstimmung für eleganter halten, und die ergibt, dass alle über 70 Jahren über den Haufen gefahren werden, weil das Rentensystem auch nicht mehr funktioniert?

Heute morgen fragte ich Siri, was denn ihre Meinung zur Digitalisierung sei.

Die Künstliche Intelligenz aus der Apple-Werkstatt antwortete mir:

„Ich bin nicht so sehr politisch, sondern vielmehr poetisch.“

Vielleicht sollte man die Haltung der KI von morgen tatsächlich uns Poetinnen, Poeten und non-binären poetischen Menschen überlassen, ihre Werte zu bestimmen? Um ihren Wert für die Gesellschaft zu bemessen und ebenfalls nicht zu gering zu schätzen (!), und ihr jene Werte mitzugeben, die für eine integre Gesellschaft essentiell sind.

Falls dies ein anwesender IT-Ingenieur hört: wir sind bereit.


Impulsvortrag zur Diskussion "Künstliche Intelligenz - ein Wegweiser für die Kultur- und Buchbranche" auf der Leipziger Buchmesse.

MEHR LESEN

Interview mit Nina George zum Thema gendergerechte Sprache

Porträt der Bestsellerautorin Nina George