Der Traum von digitaler Assistenz

Desk cat

In eige­ner Sache: in der aktu­el­len Aus­ga­be der Andro­me­da Nach­rich­ten Nr. 291 des SFCD ist mein Text „Der Traum von digi­ta­ler Assis­tenz“ (S. 44–45) erschie­nen. Die kom­plet­te Aus­ga­be gibt es hier als PDF.

Der Traum von digitaler Assistenz. Science Fiction oder schon Realität?

Egal, wohin man auch schaut – über­all begeg­net einem Arti­fi­ci­al Intel­li­gence (AI), ob gewollt oder nicht. Das sug­ge­riert, das bald Rea­li­tät sein könn­te, was heu­te noch Motiv der Sci­ence Fic­tion ist: eine all­zeit ver­füg­ba­re, all­wis­sen­de digi­ta­le Assistenz.

Wäre schön – aber mich gru­selt es dabei. Denk­bar wären auch ganz ande­re Tra­jek­to­ri­en gewe­sen. Immer­hin bin ich mit der ers­ten Gene­ra­ti­on per­sön­li­cher Com­pu­ter auf­ge­wach­sen, habe Tei­le mei­ner Jugend in Mail­bo­xen ver­bracht und war live dabei, als aus dem World Wide Web der Dot-Com-Boom wur­de – und platz­te. Com­pu­ter als Uni­ver­sal­ma­schi­nen, das Netz als uni­ver­sel­les Kom­mu­ni­ka­ti­ons­me­di­um übten eine inten­si­ve Fas­zi­na­ti­on auf mich aus. Und mit­ten im Win­ter der Künst­li­chen Intel­li­genz Anfang des Jahr­hun­derts mal­te ich mir aus, wie hilf­reich ein Pro­gramm sein könn­te, das logi­sche Ent­schei­dun­gen begrün­det fällt, dabei hilft, Mails sinn­voll zu sor­tie­ren oder Tex­te von der einen in die ande­re Spra­che über­setzt. (Mei­ne dies­be­züg­li­chen Geh­ver­su­che in Tur­bo Pas­cal blie­ben dies – nai­ve Ansät­ze, und nicht von Erfolg gekrönt.)

Trotz­dem fin­de ich mich jetzt recht fest im Lager der AI-Kritiker*innen wie­der. Und wun­de­re mich, wie gene­ra­ti­ve Algo­rith­men und gro­ße Sprach­mo­del­le (LLMs) trotz aller wohl­be­grün­de­ter Kri­tik­punk­te inner­halb weni­ger Jah­re Teil des All­tags vie­ler Men­schen wer­den konn­te. Am Mit­tags­tisch dis­ku­tie­ren wir dar­über, wie eigent­lich das Geschäfts­mo­dell von Ope­nAI aus­sieht und wann die AI-Bla­se platzt (oder wann sie genü­gend Men­schen so in Abhän­gig­keit gebracht hat, dass ein mono­po­lis­ti­sches Abo-Modell unaus­weich­lich scheint.) Ich ärge­re mich dar­über, dass jede Soft­ware irgend­wel­che AI-Fea­tures mit­bringt, die abzu­schal­ten eher kom­pli­ziert gemacht wird. Und ich wun­de­re mich, wie Men­schen einer Soft­ware ver­trau­en kön­nen, die nicht weiß, was sie nicht weiß – son­dern dann halt plau­si­blen Bull­shit zusam­men­reimt. Was auf den ers­ten Blick beein­dru­ckend wirkt, fällt schnell zusam­men, wenn es um The­men­ge­bie­te geht, in denen man sich tat­säch­lich aus­kennt. Zwi­schen »klingt plau­si­bel« und »stimmt« gibt es kei­nen Zusam­men­hang – vie­len scheint aber ers­te­res zu reichen.

Die FDP will ihr Grund­satz­pro­gramm mit Hil­fe von LLMs erstel­len. Viel Ver­gnü­gen an Poli­tik aus der Kopier­ma­schi­ne! Men­schen glau­ben, dass Chat­bot-Rat­schlä­ge stim­men, und kochen nicht ess­ba­re Rezep­te, fol­gen fata­len Gesund­heits­tipps oder fal­len auf schlech­te Zusam­men­fas­sun­gen wer­be­fi­nan­zier­ter Such­ergeb­nis­se her­ein. Maga­zi­ne lei­den genau­so wie die Ama­zon-Selbst­ver­lags-Spar­te an Hau­fen schlech­ter Tex­te. Man­che glau­ben sogar, die maschi­nen­ge­ne­rier­te mit­tel­mä­ßi­ge Instant-Novel­le sei der Markt der Zukunft.

Schu­len und Hoch­schu­len dis­ku­tie­ren, was pas­siert, wenn jun­ge Men­schen nur noch promp­ten kön­nen (und dann nicht ein­mal dis­ku­tie­ren kön­nen, was ihr eige­nes Essay behaup­tet). Und die Wiki­pe­dia ächzt unter gut gemein­ten AI-Ver­bes­se­run­gen, die lei­der feh­ler­haft sind. Wenn über­haupt, dann viel­leicht des­we­gen, weil die Copy­right­kla­gen der Con­tent­in­dus­trie erfolg­reich sein werden.

Syn­the­ti­sche Tex­te und Bil­der dürf­ten uns als »AI Slop« genau­so erhal­ten blei­ben, wie Tief­kühl­piz­zen und Instant­kaf­fee nicht wie­der ver­schwun­den sind. Es muss nicht ori­gi­nal sein, es muss nicht ori­gi­nell sein, wenn sich nur qua­drat­me­ter­wei­se bil­ligst Con­tent erstel­len lässt. Den zu umge­hen immer schwie­ri­ger wird. Die Plas­tik­spra­che der Chat­bots ist, um das pes­si­mis­ti­sche Zei­ten­bild zu voll­enden, inzwi­schen all­ge­gen­wär­tig. Und ob sie jemals wie­der ver­schwin­den wird, bleibt kaum vorhersehbar.

Faszination und Voraussetzung digitaler Agenten

Was ich ver­ste­hen kann, ist die Fas­zi­na­ti­on, einen per­sön­li­chen Assis­ten­ten zu haben. Wie das sein könn­te, ken­nen wir aus der Sci­ence Fic­tion. Egal, ob es der StarT­rek-Com­pu­ter, der Young Lady‘s Pri­mer von Neal Ste­phen­son (um nur einen Cyber­punk-Roman zu nen­nen), Asi­movs Robo­ter oder Soft­ware­agen­ten als Gehirn­im­plan­tat sind – wir erzäh­len uns schon lan­ge Geschich­ten über gute digi­ta­le Geister.

Par­al­lel zu die­sen Geschich­ten hat sich die Tech­nik wei­ter­ent­wi­ckelt. Mit dem Auf­kom­men des PCs, des Inter­net, des Mobil­te­le­fons ist immer mehr an mensch­li­chen Assis­tenz­funk­tio­nen in Tech­nik gewan­dert. Die Mög­lich­keits­räu­me haben sich enorm erwei­tert. Das Rei­se­bü­ro ist eine Web­site oder eine App. Eben­so das Kauf­haus, die Bank oder der Buch­la­den. Die Biblio­thek und das Lexi­kon wur­den durch Such­ma­schi­nen ersetzt. Und getippt wird selbst.

Dass der nächs­te logi­sche Schritt hier digi­ta­le Agen­ten sein könn­ten, die den bes­ten Preis, das genau pas­sen­de Pro­dukt oder den gemein­sa­men Ter­min fin­den – und damit wei­te­re mensch­li­che Kom­pe­tenz in Tech­nik gie­ßen – wird seit den 2000er Jah­ren heiß dis­ku­tiert. Dass es den­noch kaum der­ar­ti­ge Agen­ten gibt, liegt an drei Gründen. 

Ers­tens ist oft gar nicht so genau klar, was »genau pas­send« bedeu­tet. Das bil­ligs­te Pro­dukt, aber von einem Händ­ler mit mise­ra­blen Bewer­tun­gen? Oder etwas teu­rer, aber dafür mit mehr Garan­tien? Und: wel­cher Farb­ton passt? Hier braucht es also ein gewis­ses Ver­ständ­nis der Sache. Und dabei ver­spre­chen gro­ße Sprach­mo­del­le einen Mehr­wert, zumin­dest eine Simu­la­ti­on von Verständnis.

Zwei­tens braucht es Ver­trau­en. Je naht­lo­ser und beque­mer ein z.B. Bezahl­vor­gang sein soll, des­to mehr an mensch­li­cher Hand­lungs­fä­hig­keit muss an Tech­nik abge­ge­ben wer­den. Das heißt zum einen, das Ver­trau­en in kon­kre­te Per­so­nen (die freund­li­che und kom­pe­ten­te Verkäufer*in hin­ter der The­ke) in weit­ge­hend anony­me Insti­tu­tio­nen ver­scho­ben wird. Und zum ande­ren wan­dern Ent­schei­dungs­be­fug­nis­se in Tech­nik. Gedan­ken­ex­pe­ri­ment dazu: bis zu wie vie­len Euro wür­den wir einem Agen­ten Zugriff auf unser Kon­to geben, um ein Pro­dukt zu kau­fen, eine Rei­se zu buchen oder eine Woh­nung anzu­mie­ten? Das Gan­ze wird m.E. nicht ein­fa­cher dadurch, wenn ein Agent auf ein Sprach­mo­dell samt inhä­ren­ter Ten­denz zum Uns­inn­erzäh­len zurück­greift. Dass ein deter­mi­nis­ti­scher Algo­rith­mus den bes­ten Preis fin­den kann, ist nach­voll­zieh­bar. Ein Sprach­mo­dell mit algo­rith­mi­scher Black box – eher nicht.

Drit­tens ver­die­nen Inter­net­fir­men dar­an, dass Men­schen Wer­bung sehen. Tech­nisch wären stan­dar­di­sier­te Schnitt­stel­len für Agen­ten zwi­schen Web­sites und Apps kein Pro­blem. Dass es sie nicht gibt, liegt zu einem gro­ßen Teil am Geschäfts­mo­dell. Chat­bots, die mit Web­sites inter­agie­ren, wür­den dies eben­so umge­hen. Nicht gut fürs Geschäft …

Science-Fiction diskutiert AI

Dahin­ter lie­gen aller­dings zwei phi­lo­so­phi­sche Fra­gen, die eben­falls schon eini­ge Sci­ence-Fic­tion-Geschich­ten ange­regt haben: Zentralität/Dezentralität zum einen und Men­schen­ähn­lich­keit zum anderen.

ChatGPT, Gemi­ni und Co. sind alle Bei­spie­le für zen­tra­le Sys­te­me, die Zugriff auf ein ein­mal mit sehr, sehr gro­ßen Daten­men­gen trai­nier­tes Modell bie­ten. Das ist in gewis­ser Wei­se eine Schlei­fe zurück zu den Anfän­gen der elek­tro­ni­schen Daten­ver­ar­bei­tung mit Groß­rech­nern und Ter­mi­nals. Und lite­ra­risch hat sich das Groß­rech­ner­mo­dell aus den 1960ern lan­ge gehal­ten. Der Star-Trek-Com­pu­ter ist schiffs­weit aktiv (und braucht uner­mess­li­che Res­sour­cen), HAL aus 2001 eben­so, und wer möch­te, kann jetzt noch »Erde« aus Dou­glas Adams Anhal­ter (oder den zen­tra­len Com­pu­ter aus dem Schock­wel­len­rei­ter von John Brun­ner) in die­se Ahnen­rei­he ein­fü­gen. Das geht bis hin zu Win­ter­mu­te aus Wil­liam Gib­sons Neu­ro­man­cer – das gan­ze Netz, eine AI.

Die tat­säch­li­che tech­ni­sche Ent­wick­lung lief eine Zeit­lang ganz anders. Die simp­len Pro­zes­so­ren heu­ti­ger Han­dys über­schrei­ten die Rechen­ka­pa­zi­tä­ten der alten Groß­rech­ner um ein Mehr­fa­ches. Erst mit »Soft­ware as a Ser­vice«, Cloud Com­pu­ting und noch­mal ver­stärkt mit den gro­ßen Sprach­mo­del­len schlug das Pen­del wie­der in die ande­re Rich­tung aus. Bis­her jeden­falls ist die ima­gi­nier­te Assis­ten­tin nichts ande­res als ein Zugang zu einem gro­ßen Sprach­mo­dell – da wird es mit dem »per­sön­lich« schwierig.

Und das Fein­schme­cker­ar­gu­ment, dass aus­trai­nier­te Model­le ja »on pre­mi­se« lau­fen kön­nen, bzw. dass selbst damit gebas­telt wer­den kann, zieht nicht wirk­lich. Das teu­re – und »per­sön­lich­keits­prä­gen­de« – an einem Sprach­mo­dell ist das Trai­ning auf rie­si­gen Daten­men­gen. Das lässt sich nicht mal eben zuhau­se nachholen.

Kom­men wir abschlie­ßend zur Men­schen­ähn­lich­keit. Sprach­mo­del­le wer­den ger­ne ver­mensch­licht – »ChatGPT sagt …«. Eigent­lich han­delt es sich hier aber um Algo­rith­men, die auf­grund von Trai­nings­da­ten plau­si­ble »Ant­wor­ten« erbrin­gen kön­nen. Das hin­dert uns nicht dar­an, die­se Algo­rith­men wie Men­schen zu behan­deln – als The­ra­peu­tin­nen, Freun­de, Biblio­the­ka­rin­nen oder eben als Assis­ten­ten. Die­se mensch­li­che Fähig­keit zur Ver­mensch­li­chung ist bekannt und schlug bereits bei der Urmut­ter aller Chat­bots, bei Joseph Wei­zen­baums ELIZA, zu, die wirk­lich nur simp­le Erset­zun­gen in Fra­gen und Ant­wor­ten vor­ge­nom­men hat – und von eini­gen Nut­zen­den als ech­te Gesprächs­part­ne­rin miss­ver­stan­den wurde.

Aber wei­ter­ge­dacht: was wäre, wenn der Traum von der »AGI« Wirk­lich­keit wür­de, wenn also in der Wei­ter­ent­wick­lung der Sprach­mo­del­le eines Tages tat­säch­lich ein Wesen mit ech­tem Sym­bol­ver­ste­hen, viel­leicht sogar mit Erfah­run­gen und Gefüh­len ent­ste­hen wür­de? Das wären sicher­lich her­vor­ra­gen­de Vor­aus­set­zun­gen, um einen ech­ten per­sön­li­chen Assis­ten­ten zu schaf­fen, der vage umris­se­ne Pro­ble­me ver­steht und dem Ver­trau­en und Hand­lungs­fä­hig­keit ent­ge­gen­ge­bracht wer­den könnten.

Aber: Wäre es – und da sind wir wie­der fest im Bereich der Sci­ence-Fic­tion-Phi­lo­so­phie – dann ange­bracht, ein sol­ches Wesen mit Intel­li­genz, Erfah­run­gen und Gefüh­len als Assistent*in zu beschäf­ti­gen? Oder weni­ger freund­lich aus­ge­drückt: zu versklaven?

Bis­her sind Chat­bots Zugän­ge zu gro­ßen Sprach­mo­del­len, denen ich aus meh­re­ren Grün­den eher kein Ver­trau­en ent­ge­gen­brin­gen möch­te – weder den anbie­ten­den Fir­men, noch deren Daten­grund­la­gen, noch einer Soft­ware, die prin­zi­pi­en­be­dingt Feh­ler machen muss. Ein ver­trau­ens­wür­di­ger per­sön­li­cher Assis­tent wäre dage­gen schnell an der Gren­ze zu einer ech­ten Per­son. Wel­che Rech­te ein sol­ches digi­ta­les – oder mög­li­cher­wei­se auch ver­kör­per­tes – Wesen haben müss­te, um dar­aus nicht die nächs­te Aus­beu­tungs­run­de zu machen, wird in der Sci­ence Fic­tion inten­siv dis­ku­tiert, zuletzt etwa in Anna­lee Newitz‘ Auto­ma­tic Nood­le, ist gesell­schaft­lich aber noch kom­plett ungelöst. 

Ob die­se Fra­ge tat­säch­lich ein­mal rele­vant wer­den wird, ist aus mei­ner Sicht heu­te völ­lig offen. Mög­li­cher­wei­se platzt die LLM-Bla­se, und der nächs­te AI-Win­ter kommt. Oder es gibt uner­war­te­te Fort­schrit­te – die dann auch die Fra­ge neu stel­len, was über­haupt einen Men­schen aus­macht – dann soll­ten wir dar­auf vor­be­rei­tet sein. Auch mit und durch breit rezi­pier­te Sci­ence Fiction.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert