In eigener Sache: in der aktuellen Ausgabe der Andromeda Nachrichten Nr. 291 des SFCD ist mein Text „Der Traum von digitaler Assistenz“ (S. 44–45) erschienen. Die komplette Ausgabe gibt es hier als PDF.
Der Traum von digitaler Assistenz. Science Fiction oder schon Realität?
Egal, wohin man auch schaut – überall begegnet einem Artificial Intelligence (AI), ob gewollt oder nicht. Das suggeriert, das bald Realität sein könnte, was heute noch Motiv der Science Fiction ist: eine allzeit verfügbare, allwissende digitale Assistenz.
Wäre schön – aber mich gruselt es dabei. Denkbar wären auch ganz andere Trajektorien gewesen. Immerhin bin ich mit der ersten Generation persönlicher Computer aufgewachsen, habe Teile meiner Jugend in Mailboxen verbracht und war live dabei, als aus dem World Wide Web der Dot-Com-Boom wurde – und platzte. Computer als Universalmaschinen, das Netz als universelles Kommunikationsmedium übten eine intensive Faszination auf mich aus. Und mitten im Winter der Künstlichen Intelligenz Anfang des Jahrhunderts malte ich mir aus, wie hilfreich ein Programm sein könnte, das logische Entscheidungen begründet fällt, dabei hilft, Mails sinnvoll zu sortieren oder Texte von der einen in die andere Sprache übersetzt. (Meine diesbezüglichen Gehversuche in Turbo Pascal blieben dies – naive Ansätze, und nicht von Erfolg gekrönt.)
Trotzdem finde ich mich jetzt recht fest im Lager der AI-Kritiker*innen wieder. Und wundere mich, wie generative Algorithmen und große Sprachmodelle (LLMs) trotz aller wohlbegründeter Kritikpunkte innerhalb weniger Jahre Teil des Alltags vieler Menschen werden konnte. Am Mittagstisch diskutieren wir darüber, wie eigentlich das Geschäftsmodell von OpenAI aussieht und wann die AI-Blase platzt (oder wann sie genügend Menschen so in Abhängigkeit gebracht hat, dass ein monopolistisches Abo-Modell unausweichlich scheint.) Ich ärgere mich darüber, dass jede Software irgendwelche AI-Features mitbringt, die abzuschalten eher kompliziert gemacht wird. Und ich wundere mich, wie Menschen einer Software vertrauen können, die nicht weiß, was sie nicht weiß – sondern dann halt plausiblen Bullshit zusammenreimt. Was auf den ersten Blick beeindruckend wirkt, fällt schnell zusammen, wenn es um Themengebiete geht, in denen man sich tatsächlich auskennt. Zwischen »klingt plausibel« und »stimmt« gibt es keinen Zusammenhang – vielen scheint aber ersteres zu reichen.
Die FDP will ihr Grundsatzprogramm mit Hilfe von LLMs erstellen. Viel Vergnügen an Politik aus der Kopiermaschine! Menschen glauben, dass Chatbot-Ratschläge stimmen, und kochen nicht essbare Rezepte, folgen fatalen Gesundheitstipps oder fallen auf schlechte Zusammenfassungen werbefinanzierter Suchergebnisse herein. Magazine leiden genauso wie die Amazon-Selbstverlags-Sparte an Haufen schlechter Texte. Manche glauben sogar, die maschinengenerierte mittelmäßige Instant-Novelle sei der Markt der Zukunft.
Schulen und Hochschulen diskutieren, was passiert, wenn junge Menschen nur noch prompten können (und dann nicht einmal diskutieren können, was ihr eigenes Essay behauptet). Und die Wikipedia ächzt unter gut gemeinten AI-Verbesserungen, die leider fehlerhaft sind. Wenn überhaupt, dann vielleicht deswegen, weil die Copyrightklagen der Contentindustrie erfolgreich sein werden.
Synthetische Texte und Bilder dürften uns als »AI Slop« genauso erhalten bleiben, wie Tiefkühlpizzen und Instantkaffee nicht wieder verschwunden sind. Es muss nicht original sein, es muss nicht originell sein, wenn sich nur quadratmeterweise billigst Content erstellen lässt. Den zu umgehen immer schwieriger wird. Die Plastiksprache der Chatbots ist, um das pessimistische Zeitenbild zu vollenden, inzwischen allgegenwärtig. Und ob sie jemals wieder verschwinden wird, bleibt kaum vorhersehbar.
Faszination und Voraussetzung digitaler Agenten
Was ich verstehen kann, ist die Faszination, einen persönlichen Assistenten zu haben. Wie das sein könnte, kennen wir aus der Science Fiction. Egal, ob es der StarTrek-Computer, der Young Lady‘s Primer von Neal Stephenson (um nur einen Cyberpunk-Roman zu nennen), Asimovs Roboter oder Softwareagenten als Gehirnimplantat sind – wir erzählen uns schon lange Geschichten über gute digitale Geister.
Parallel zu diesen Geschichten hat sich die Technik weiterentwickelt. Mit dem Aufkommen des PCs, des Internet, des Mobiltelefons ist immer mehr an menschlichen Assistenzfunktionen in Technik gewandert. Die Möglichkeitsräume haben sich enorm erweitert. Das Reisebüro ist eine Website oder eine App. Ebenso das Kaufhaus, die Bank oder der Buchladen. Die Bibliothek und das Lexikon wurden durch Suchmaschinen ersetzt. Und getippt wird selbst.
Dass der nächste logische Schritt hier digitale Agenten sein könnten, die den besten Preis, das genau passende Produkt oder den gemeinsamen Termin finden – und damit weitere menschliche Kompetenz in Technik gießen – wird seit den 2000er Jahren heiß diskutiert. Dass es dennoch kaum derartige Agenten gibt, liegt an drei Gründen.
Erstens ist oft gar nicht so genau klar, was »genau passend« bedeutet. Das billigste Produkt, aber von einem Händler mit miserablen Bewertungen? Oder etwas teurer, aber dafür mit mehr Garantien? Und: welcher Farbton passt? Hier braucht es also ein gewisses Verständnis der Sache. Und dabei versprechen große Sprachmodelle einen Mehrwert, zumindest eine Simulation von Verständnis.
Zweitens braucht es Vertrauen. Je nahtloser und bequemer ein z.B. Bezahlvorgang sein soll, desto mehr an menschlicher Handlungsfähigkeit muss an Technik abgegeben werden. Das heißt zum einen, das Vertrauen in konkrete Personen (die freundliche und kompetente Verkäufer*in hinter der Theke) in weitgehend anonyme Institutionen verschoben wird. Und zum anderen wandern Entscheidungsbefugnisse in Technik. Gedankenexperiment dazu: bis zu wie vielen Euro würden wir einem Agenten Zugriff auf unser Konto geben, um ein Produkt zu kaufen, eine Reise zu buchen oder eine Wohnung anzumieten? Das Ganze wird m.E. nicht einfacher dadurch, wenn ein Agent auf ein Sprachmodell samt inhärenter Tendenz zum Unsinnerzählen zurückgreift. Dass ein deterministischer Algorithmus den besten Preis finden kann, ist nachvollziehbar. Ein Sprachmodell mit algorithmischer Black box – eher nicht.
Drittens verdienen Internetfirmen daran, dass Menschen Werbung sehen. Technisch wären standardisierte Schnittstellen für Agenten zwischen Websites und Apps kein Problem. Dass es sie nicht gibt, liegt zu einem großen Teil am Geschäftsmodell. Chatbots, die mit Websites interagieren, würden dies ebenso umgehen. Nicht gut fürs Geschäft …
Science-Fiction diskutiert AI
Dahinter liegen allerdings zwei philosophische Fragen, die ebenfalls schon einige Science-Fiction-Geschichten angeregt haben: Zentralität/Dezentralität zum einen und Menschenähnlichkeit zum anderen.
ChatGPT, Gemini und Co. sind alle Beispiele für zentrale Systeme, die Zugriff auf ein einmal mit sehr, sehr großen Datenmengen trainiertes Modell bieten. Das ist in gewisser Weise eine Schleife zurück zu den Anfängen der elektronischen Datenverarbeitung mit Großrechnern und Terminals. Und literarisch hat sich das Großrechnermodell aus den 1960ern lange gehalten. Der Star-Trek-Computer ist schiffsweit aktiv (und braucht unermessliche Ressourcen), HAL aus 2001 ebenso, und wer möchte, kann jetzt noch »Erde« aus Douglas Adams Anhalter (oder den zentralen Computer aus dem Schockwellenreiter von John Brunner) in diese Ahnenreihe einfügen. Das geht bis hin zu Wintermute aus William Gibsons Neuromancer – das ganze Netz, eine AI.
Die tatsächliche technische Entwicklung lief eine Zeitlang ganz anders. Die simplen Prozessoren heutiger Handys überschreiten die Rechenkapazitäten der alten Großrechner um ein Mehrfaches. Erst mit »Software as a Service«, Cloud Computing und nochmal verstärkt mit den großen Sprachmodellen schlug das Pendel wieder in die andere Richtung aus. Bisher jedenfalls ist die imaginierte Assistentin nichts anderes als ein Zugang zu einem großen Sprachmodell – da wird es mit dem »persönlich« schwierig.
Und das Feinschmeckerargument, dass austrainierte Modelle ja »on premise« laufen können, bzw. dass selbst damit gebastelt werden kann, zieht nicht wirklich. Das teure – und »persönlichkeitsprägende« – an einem Sprachmodell ist das Training auf riesigen Datenmengen. Das lässt sich nicht mal eben zuhause nachholen.
Kommen wir abschließend zur Menschenähnlichkeit. Sprachmodelle werden gerne vermenschlicht – »ChatGPT sagt …«. Eigentlich handelt es sich hier aber um Algorithmen, die aufgrund von Trainingsdaten plausible »Antworten« erbringen können. Das hindert uns nicht daran, diese Algorithmen wie Menschen zu behandeln – als Therapeutinnen, Freunde, Bibliothekarinnen oder eben als Assistenten. Diese menschliche Fähigkeit zur Vermenschlichung ist bekannt und schlug bereits bei der Urmutter aller Chatbots, bei Joseph Weizenbaums ELIZA, zu, die wirklich nur simple Ersetzungen in Fragen und Antworten vorgenommen hat – und von einigen Nutzenden als echte Gesprächspartnerin missverstanden wurde.
Aber weitergedacht: was wäre, wenn der Traum von der »AGI« Wirklichkeit würde, wenn also in der Weiterentwicklung der Sprachmodelle eines Tages tatsächlich ein Wesen mit echtem Symbolverstehen, vielleicht sogar mit Erfahrungen und Gefühlen entstehen würde? Das wären sicherlich hervorragende Voraussetzungen, um einen echten persönlichen Assistenten zu schaffen, der vage umrissene Probleme versteht und dem Vertrauen und Handlungsfähigkeit entgegengebracht werden könnten.
Aber: Wäre es – und da sind wir wieder fest im Bereich der Science-Fiction-Philosophie – dann angebracht, ein solches Wesen mit Intelligenz, Erfahrungen und Gefühlen als Assistent*in zu beschäftigen? Oder weniger freundlich ausgedrückt: zu versklaven?
Bisher sind Chatbots Zugänge zu großen Sprachmodellen, denen ich aus mehreren Gründen eher kein Vertrauen entgegenbringen möchte – weder den anbietenden Firmen, noch deren Datengrundlagen, noch einer Software, die prinzipienbedingt Fehler machen muss. Ein vertrauenswürdiger persönlicher Assistent wäre dagegen schnell an der Grenze zu einer echten Person. Welche Rechte ein solches digitales – oder möglicherweise auch verkörpertes – Wesen haben müsste, um daraus nicht die nächste Ausbeutungsrunde zu machen, wird in der Science Fiction intensiv diskutiert, zuletzt etwa in Annalee Newitz‘ Automatic Noodle, ist gesellschaftlich aber noch komplett ungelöst.
Ob diese Frage tatsächlich einmal relevant werden wird, ist aus meiner Sicht heute völlig offen. Möglicherweise platzt die LLM-Blase, und der nächste AI-Winter kommt. Oder es gibt unerwartete Fortschritte – die dann auch die Frage neu stellen, was überhaupt einen Menschen ausmacht – dann sollten wir darauf vorbereitet sein. Auch mit und durch breit rezipierte Science Fiction.

