2025 im Blog

Reflection

Neben den Pho­tos der Woche und mei­nen fast monat­li­chen Sci­ence-Fic­tion-Rezen­sio­nen dient mein Blog ja auch dazu, fest­zu­hal­ten, was mir bedenkens‑, erin­ne­rungs- oder sonst­wie auf­he­bens­wert erscheint.

Der Traum von digitaler Assistenz

Desk cat

In eige­ner Sache: in der aktu­el­len Aus­ga­be der Andro­me­da Nach­rich­ten Nr. 291 des SFCD ist mein Text „Der Traum von digi­ta­ler Assis­tenz“ (S. 44–45) erschie­nen. Die kom­plet­te Aus­ga­be gibt es hier als PDF.

Der Traum von digitaler Assistenz. Science Fiction oder schon Realität?

Egal, wohin man auch schaut – über­all begeg­net einem Arti­fi­ci­al Intel­li­gence (AI), ob gewollt oder nicht. Das sug­ge­riert, das bald Rea­li­tät sein könn­te, was heu­te noch Motiv der Sci­ence Fic­tion ist: eine all­zeit ver­füg­ba­re, all­wis­sen­de digi­ta­le Assistenz.

Wäre schön – aber mich gru­selt es dabei. Denk­bar wären auch ganz ande­re Tra­jek­to­ri­en gewe­sen. Immer­hin bin ich mit der ers­ten Gene­ra­ti­on per­sön­li­cher Com­pu­ter auf­ge­wach­sen, habe Tei­le mei­ner Jugend in Mail­bo­xen ver­bracht und war live dabei, als aus dem World Wide Web der Dot-Com-Boom wur­de – und platz­te. Com­pu­ter als Uni­ver­sal­ma­schi­nen, das Netz als uni­ver­sel­les Kom­mu­ni­ka­ti­ons­me­di­um übten eine inten­si­ve Fas­zi­na­ti­on auf mich aus. Und mit­ten im Win­ter der Künst­li­chen Intel­li­genz Anfang des Jahr­hun­derts mal­te ich mir aus, wie hilf­reich ein Pro­gramm sein könn­te, das logi­sche Ent­schei­dun­gen begrün­det fällt, dabei hilft, Mails sinn­voll zu sor­tie­ren oder Tex­te von der einen in die ande­re Spra­che über­setzt. (Mei­ne dies­be­züg­li­chen Geh­ver­su­che in Tur­bo Pas­cal blie­ben dies – nai­ve Ansät­ze, und nicht von Erfolg gekrönt.)

Trotz­dem fin­de ich mich jetzt recht fest im Lager der AI-Kritiker*innen wie­der. Und wun­de­re mich, wie gene­ra­ti­ve Algo­rith­men und gro­ße Sprach­mo­del­le (LLMs) trotz aller wohl­be­grün­de­ter Kri­tik­punk­te inner­halb weni­ger Jah­re Teil des All­tags vie­ler Men­schen wer­den konn­te. Am Mit­tags­tisch dis­ku­tie­ren wir dar­über, wie eigent­lich das Geschäfts­mo­dell von Ope­nAI aus­sieht und wann die AI-Bla­se platzt (oder wann sie genü­gend Men­schen so in Abhän­gig­keit gebracht hat, dass ein mono­po­lis­ti­sches Abo-Modell unaus­weich­lich scheint.) Ich ärge­re mich dar­über, dass jede Soft­ware irgend­wel­che AI-Fea­tures mit­bringt, die abzu­schal­ten eher kom­pli­ziert gemacht wird. Und ich wun­de­re mich, wie Men­schen einer Soft­ware ver­trau­en kön­nen, die nicht weiß, was sie nicht weiß – son­dern dann halt plau­si­blen Bull­shit zusam­men­reimt. Was auf den ers­ten Blick beein­dru­ckend wirkt, fällt schnell zusam­men, wenn es um The­men­ge­bie­te geht, in denen man sich tat­säch­lich aus­kennt. Zwi­schen »klingt plau­si­bel« und »stimmt« gibt es kei­nen Zusam­men­hang – vie­len scheint aber ers­te­res zu reichen.

„Der Traum von digi­ta­ler Assis­tenz“ weiterlesen

Sprachverwirrung

Die 1978 aus­ge­strahl­te BBC-Hör­spiel­se­rie The Hitch Hiker’s Gui­de to the Gala­xy von Dou­glas Adams hat uns nicht nur die Idee eines freund­li­chen, von über­all aus zugreif­ba­ren Lexi­kons in die Welt gesetzt – sehr viel bes­ser als die galak­ti­sche Enzy­klo­pä­die, das sicher­lich eines der Vor­bil­der für die Wiki­pe­dia wur­de, son­dern auch den Babel­fisch. Das ist ein klei­ner gel­ber Fisch, der ins Ohr gestopft wird und über­setzt. Oder, um aus dem Buch zu zitieren:

‚What’s this fish doing in my ear?‘
‚It’s trans­la­ting for you. It’s a Babel fish. Look it up in the book if you like.‘
He tos­sed over The Hitch Hiker’s Gui­de to the Gala­xy […]
‚The Babel fish,‘ said The Hitch Hiker’s Gui­de to the Gala­xy quiet­ly, ‚is small, yel­low and leach-like, and pro­ba­b­ly the oddest thing in the Uni­ver­se. It feeds on brain­wa­ve ener­gy recei­ved not from its own car­ri­er but from tho­se around it. It absorbs all uncon­scious men­tal fre­quen­ci­es from this brain­wa­ve ener­gy to nou­rish its­elf with. It the excre­tes into the mind of its car­ri­er a tele­pa­thic matrix […] The prac­ti­cal upshot of all this is that if you stick a Babel fish in your ear you can instant­ly under­stand any­thing said to you in any form of language. […]

Dank „AI“ sind wir jetzt unge­fähr da. Goog­le Trans­la­te und Goog­le Lens, DeepL etc. etc. machen es mög­lich: Tex­te und inzwi­schen auch gespro­che­ne Spra­che las­sen sich weit­ge­hend belie­big von einer Spra­che in eine ande­re über­set­zen, jeden­falls dann, wenn genü­gend Mate­ri­al zur Ver­fü­gung steht. Das Ergeb­nis ist nicht immer opti­mal, reicht aber für vie­le Zwe­cke aus. 

Dou­glas Adams setzt sei­ne Beschrei­bung des Babel­fischs nicht nur mit einem Beweis der Nicht-Exis­tenz Got­tes fort, son­dern kommt auch zum Schluss, dass der „arme Fisch“ dadurch, dass er alle Kom­mu­ni­ka­ti­ons­bar­rie­ren nie­der­ge­ris­sen hat, mehr Krie­ge ver­ur­sacht hat als jedes ande­re Wesen. (Wer sich das gan­ze in der BBC-Fern­seh­se­rie aus den 80ern mit wun­der­bar hand­ge­zeich­ne­ten Com­pu­ter­ani­ma­tio­nen anschau­en will, fin­det auf You­tube einen sehens­wer­ten Aus­schnitt).

„Sprach­ver­wir­rung“ weiterlesen

Kurz: In der Blase

Es gibt vie­le Grün­de, „AI“ zu kri­ti­sie­ren – das reicht von Bias in den zugrun­de­lie­gen­den Daten über Umwelt­aspek­te bis hin zu der Tat­sa­che, dass gro­ße Sprach­mo­del­le prin­zi­pi­en­be­dingt eher plau­si­bel klin­gen­de „Fak­ten“ erfin­den als kei­ne Ant­wort zu geben. Nichts­des­to­trotz scheint eine grö­ße­re Zahl an Men­schen in ChatGPT, Gemi­ni, Per­ple­xi­ty etc. so etwas wie all­wis­sen­de Ant­wort­ma­schi­nen zu sehen. Und ja: die Text­ver­ar­bei­tung (und die Bild­ge­ne­rie­rung) wirkt erst ein­mal sehr beein­dru­ckend. Die rea­len Anwen­dungs­fäl­le sind dann aber viel klei­ner, als der Hype ver­mu­ten lässt.

Aber selbst wer von „AI“ begeis­tert ist, soll­te die Fra­ge des Geschäfts­mo­dells zur Kennt­nis neh­men. Hin­ter der Ober­flä­che ste­cken die sel­ben paar gro­ßen Model­le – trai­niert auf dem Inter­net und Raub­ko­pien des gesam­ten Buch­markts. Immer neue, noch grö­ße­re Model­le wer­den ange­kün­digt, die noch mehr Daten in einen kom­pri­mier­ten Such­raum ver­wan­deln, noch mehr Strom und noch mehr Gra­fik­kar­ten als Rechen­ba­sis benö­ti­gen. Pro­fi­ta­bel sind die Fir­men hin­ter den gro­ßen Model­len nicht. Und die inves­tier­ten Sum­men ste­hen in kei­nem Ver­hält­nis zu den Ein­nah­men; auch dann nicht, wenn Abo-Model­le etc. berück­sich­tigt wer­den. Zudem sind, anders als bei ande­ren Anwen­dun­gen, zusätz­li­che Nutzer*innen teuer.

Cory Doc­to­row geht auf die Fra­ge der „AI“-Blase tie­fer und poin­tier­ter ein, als ich das könn­te. Typisch für eine sol­che öko­no­mi­sche Bla­se: alle wol­len dabei sein, egal, ob es im kon­kre­ten Fall Sinn ergibt oder nicht. Und zu oft tref­fen Manager*innen die Ent­schei­dung, dar­auf zu wet­ten, dass Schreib­tisch­ar­beit durch „AI“ ersetzt wer­den kann – ohne zu beden­ken, dass damit letzt­lich nur Arbeit ver­scho­ben wird, hin zu Nach­ar­beit und Kon­trol­le, die (wo auch immer erwor­be­ne) mensch­li­che Exper­ti­se vor­aus­setzt. Vibe Coding mag für Pro­jekt­chen funk­tio­nie­ren – für pro­duk­ti­ve Soft­ware eher nicht. Das ist schlicht eine Risi­ko­rech­nung mit Blick auf Sicher­heits­lü­cken und ähnliches.

Bis­her wab­belt die Bla­se – die nicht nur Doc­to­row dia­gnos­ti­ziert, son­dern auch die Deut­sche Bank beim Blick auf den US-Markt – mun­ter vor sich hin. Wenn sie platzt, wenn dann bei­spiels­wei­se Ope­nAI von heu­te auf mor­gen den Betrieb ein­stellt, wird das ziem­lich düs­ter wer­den. Die Erwar­tung, dann „told you so“ sagen zu kön­nen, mag zwar per­sön­lich befrie­di­gend sein – so rich­tig glück­lich macht mich das jedoch nicht.