Traummaschinen, träumende Maschinen, Maschinenträume

Aure­lia auri­ta, CC0 Mar­tin Thoma

Ver­mut­lich wird im Rück­blick das Jahr 2022 das Jahr der Künst­li­che-Intel­li­genz-ver­än­dert-unser-Leben-Essays sein. Und es gibt ein paar Stan­dard­for­ma­te für die­se Essays – das eine ist der kom­plett von ChatGPT geschrie­be­ne Text, das ande­re die gro­ße Tech­nik­kri­tik samt Rau­nen dar­über, was mensch­li­che Krea­ti­vi­tät nun wirk­lich aus­macht, das drit­te der Hype-Arti­kel dar­über, dass sich jetzt wirk­lich alles ändert.

Und ja, ChatGPT und die gan­zen ande­ren gene­ra­ti­ven Model­le – die Bil­der­zeu­gung mit Sta­ble Dif­fu­si­on, Mid­jour­ney oder Dall‑E; die Über­set­zung mit DeepL – all das fühlt sich schon sehr nach Zukunft an. Als 2007 das iPho­ne auf den Markt kam, war nicht so ganz klar, dass es den Mobil­ge­rä­te­markt kom­plett umkrem­peln wür­de, das unter einem Smart­phone nicht ein Tas­ten­te­le­fon mit Bild­schirm zu ver­ste­hen ist, son­dern ein uni­ver­sell nutz­ba­rer Com­pu­ter in einem Soft­ware­gar­ten, der zur Not auch ein Tele­fon sein kann. Im nach­hin­ein betrach­tet hat das iPho­ne mas­siv etwas ver­än­dert. Unser Zugang zur Welt ist ein klei­ner schwar­zer Bild­schirm in der Hosen­ta­sche oder Hand­ta­sche, egal ob mit iOS oder Android als Betriebs­sys­tem. Das ist das Gerät, mit dem wir im Inter­net unter­wegs sind, Fahr­kar­ten kau­fen, uns ori­en­tie­ren, die Uhr­zeit able­sen, Fit­ness­wer­te spei­chern und natür­lich stän­dig und über­all Fotos und Vide­os machen.

Für mich fühlt ChatGPT sich ein biss­chen so an, als ob damit ein ähn­li­cher Umbruch ver­bun­den sein könn­te. Viel­leicht liegt die­ses Gefühl auch dar­an, dass ich mit Siri und Ale­xa (und erst recht nicht mit Cort­a­na) nie warm gewor­den bin; was hier noch als Ope­nAI-Feld­ver­such und wis­sen­schaft­li­ches Expe­ri­ment läuft, und noch ziem­lich feh­ler­an­fäl­lig und gera­de stark über­las­tet ist, könn­te unse­ren All­tag doch ganz erheb­lich verändern. 

Und das schrei­be ich, obwohl ich weiß, dass ChatGPT (und Ope­nAI als Fir­ma dahin­ter, und auf maschi­nel­lem Ler­nen basie­ren­de Sprach­mo­del­le) mit erheb­li­chen Pro­ble­men ver­bun­den sind. Das eine sind die einem sol­chen Modell inhä­ren­ten Beschrän­kun­gen, dazu unten mehr. Das ande­re ist schlicht die Tat­sa­che, dass die gigan­ti­schen Trai­nigs­da­ten­sät­ze für gene­ra­ti­ve AI auch mit einem gigan­ti­schen Strom­ver­brauch ver­bun­den sind, und dass allen Anstren­gun­gen zum Trotz die­se Daten­sät­ze erheb­li­che ethi­sche Fra­gen auf­wer­fen. Das reicht von Urhe­ber­rechts­de­bat­ten – was pas­siert, wenn eine bild­ge­ne­rie­ren­de AI sich an vor­han­de­nen Bil­dern ori­en­tiert, und die Ähn­lich­keit in der Rekom­bi­na­ti­on all­zu deut­lich wird – bis hin zum erheb­li­chen Pro­blem des Bias in den Daten. Eine AI, die auf­grund der im Inter­net der letz­ten fünf Jah­re ver­füg­ba­ren Tex­te Spre­chen gelernt hat, wird – gelin­de gesagt – ein selt­sa­mes Welt­bild haben und das auch reproduzieren.

Trotz die­ses Wis­sens bin ich von dem, was ChatGPT kann, posi­tiv überrascht. 

ChatGPT: ein Sprachspielgenerator

Und zumin­dest im Feld­ver­suchs­in­ter­face wird sehr deut­lich dar­auf hin­ge­wie­sen, dass man­che Ant­wor­ten gefähr­lich sein kön­nen, dass ein Sprach­mo­dell nicht über ech­tes Wis­sen ver­fügt, und dass es durch­aus auch vor­kom­men kann, dass Ant­wor­ten falsch sind. Was ChatGPT kann: Tex­te gene­rie­ren und natür­lich­sprach­li­che Fra­gen beant­wor­ten. Dabei kommt das Sprach­mo­dell nicht nur mit Eng­lisch klar – das dürf­te den größ­ten Teil des Trai­nigs­da­ten­sat­zes aus­ma­chen – son­dern kann bei­spiels­wei­se auch ganz pas­sa­bel auf Deutsch kom­mu­ni­zie­ren. Ich ver­mu­te, dass das für die meis­ten im Netz ver­brei­te­ten Spra­chen gilt. Und eben­so „beherrscht“ ChatGPT eine gan­ze Rei­he von Programmiersprachen. 

Es liegt nahe, eine Maschi­ne wie ChatGPT zu ver­mensch­li­chen. Letzt­lich pas­siert hier aber nichts ande­res, als das in einer sehr gro­ßen Text­men­ge nach Mus­tern gesucht und in dem dadurch auf­ge­spann­ten Raum nahe Punk­te mit­ein­an­der ver­bun­den wer­den. Was dabei her­aus­kommt, klingt so, als wür­de ChatGPT einen ver­ste­hen – aber das konn­te in ganz begrenz­ter Wei­se auch schon ELIZA.

Dass ChatGPT nicht über Welt­wis­sen ver­fügt, son­dern über Ver­knüp­fun­gen in einem Daten­raum rech­net, führt manch­mal zu selt­sa­men Fehl­schlüs­sen. Die­ses Modell kann nicht wirk­lich rech­nen (genau­so, wie eine der größ­ten Her­aus­for­de­run­gen für Sta­ble Dif­fu­si­on etc. dar­in besteht, Hän­de mit fünf – und nicht mit drei oder sechs – Fin­gern zu gene­rie­ren). Und manch­mal wer­den nahe­lie­gen­de Fak­ten ver­tauscht. Oder Schluss­fol­ge­run­gen gezo­gen, die in gewis­ser Wei­se klu­ge Feh­ler sind – wie sie, Ach­tung, da ver­mensch­li­che ich dann doch schon wie­der – auch Kin­der in ihrer Ent­wick­lung machen.

Screenshot ChatGPT

Die ers­te Ant­wort – auf die Fra­ge, wie „Fin­ger“ auf Latein genannt wer­den – stimmt so halb­wegs. „Digi­ti“ ist tat­säch­lich der latei­ni­sche Begriff dafür, ob die Her­lei­tung von „digi­re­re“ so stimmt, kann ich nicht beurteilen.

Inter­es­sant wird es bei der zwei­ten Fra­ge: wie hän­gen „digi­tus“ und „digi­tal“ mit­ein­an­der zusam­men? Und da reimt sich ChatGPT dann einen erheb­li­chen Blöd­sinn zusam­men und behaup­tet, dass wir von „digi­tal“ spre­chen, weil Tas­ta­tu­ren und Touch­screens mit dem Fin­ger bedient wer­den. In Wirk­lich­keit geht es dabei dar­um, dass es um (an den Fin­gern) abzähl­ba­re kon­kre­te und unter­scheid­ba­re Zah­len geht. 

Trotz­dem klingt das, was ChatGPT da fabu­liert, plau­si­bel. Rela­tiv wort­reich und klug klin­gend wird also etwas behaup­tet, was so nicht stimmt – man­che haben ChatGPT des­we­gen auch als „bull­shit machi­ne“ oder als „digi­ta­len mans­plai­ner“ bezeich­net. Das geht bis hin zur Erfin­dung von Refe­ren­zen – die aus­se­hen wie ech­te wis­sen­schaft­li­che Arbei­ten und Zitat­nach­wei­se, aber schlicht nicht exis­tie­ren. Immer­hin: die Form wur­de beachtet. 

Ein zwei­tes Bei­spiel: Die Erfin­dung der im Meer leben­den Fami­lie der Dorn­hai-Amei­sen­igel. Ach­tung – da steckt sehr viel Unsinn drin!

Etwas freund­li­cher lie­ße sich von träu­men­den Maschi­nen spre­chen. Nicht umsonst heißt eines der ers­ten Bild­ver­ar­bei­tungs­netz­wer­ke Deep­Dream – und auch die Ergeb­nis­se der neus­ten Bild­ge­ne­rie­rungs­sys­te­me wir­ken manch­mal noch so, als ob da Träu­me mit­ge­schnit­ten wür­den. Da, wo ChatGPT nicht an Fak­ten gebun­den ist, kom­men dann tat­säch­lich erstaun­li­che Ergeb­nis­se her­aus (wie hier auf den Prompt: „Tell me a sto­ry about space pira­tes.“ hin). 

Neben­bei: das gan­ze ist ja pro­ba­bi­lis­tisch – inso­fern führt jeder neue Ver­such unter die­sem Prompt auch zu einer neu­en Geschich­te. Gleich­zei­tig las­sen sich Mus­ter erken­nen, die immer wie­der auf­tau­chen. Etwas unfreund­li­cher gesagt: Kli­schees, auch lite­ra­ri­sche Kli­schees, die mun­ter repro­du­ziert werden.

Träumende Maschinen – schauen wir uns das mal an

Aber fra­gen wir ChatGPT selbst.

TW: Von was träumt ein Sprachmodell?

ChatGPT: Ein Sprach­mo­dell ist kein leben­des Wesen und des­halb kann es nicht träu­men. Sprach­mo­del­le sind com­pu­ter­ge­stütz­te Sys­te­me, die dar­auf aus­ge­legt sind, natür­li­che Spra­che zu ver­ar­bei­ten und zu ver­ste­hen. Sie sind nicht in der Lage, Gedan­ken oder Träu­me zu haben. Statt­des­sen kon­zen­trie­ren sie sich auf die Auf­ga­be, die ihnen von den Pro­gram­mie­rern gege­ben wur­de, wie zum Bei­spiel das Beant­wor­ten von Fra­gen oder das Über­set­zen von Texten.

TW: Und von was träu­men Androiden?

ChatGPT: Andro­ide sind künst­li­che Intel­li­gen­zen, die in der fik­tio­na­len Welt oft men­schen­ähn­lich dar­ge­stellt wer­den. In der rea­len Welt gibt es zwar auch künst­li­che Intel­li­gen­zen, die men­schen­ähn­lich aus­se­hen, jedoch sind die­se nicht in der Lage, Gedan­ken oder Träu­me zu haben, da sie nicht wie leben­de Wesen funk­tio­nie­ren. Andro­ide sind ledig­lich Pro­gram­me, die auf bestimm­te Auf­ga­ben trai­niert wur­den und sich auf die­se kon­zen­trie­ren, ohne die Fähig­keit zu haben, Gedan­ken oder Träu­me zu produzieren.

TW: Was sagt Phil­ip K. Dick dazu?

ChatGPT: Ich bin lei­der nicht in der Lage, Aus­sa­gen von Phil­ip K. Dick zu recher­chie­ren, da ich nur über begrenz­tes Wis­sen ver­fü­ge und kei­nen Zugang zu wei­te­ren Infor­ma­tio­nen habe. Phil­ip K. Dick war ein Sci­ence-Fic­tion-Autor, der vie­le Wer­ke über künst­li­che Intel­li­gen­zen und Andro­ide geschrie­ben hat. Ob er spe­zi­ell zum The­ma Träu­me von künst­li­chen Intel­li­gen­zen oder Andro­iden geschrie­ben hat, kann ich lei­der nicht sagen.

TW: Wel­che Bücher hat er geschrieben?

ChatGPT: Phil­ip K. Dick war ein sehr pro­duk­ti­ver Autor und hat vie­le Bücher ver­öf­fent­licht. Eini­ge sei­ner bekann­tes­ten Wer­ke sind „Do Andro­ids Dream of Elec­tric Sheep?“, „The Man in the High Cast­le“, „Ubik“, „A Scan­ner Dark­ly“ und „VALIS“. Er hat auch zahl­rei­che Kurz­ge­schich­ten und Arti­kel geschrie­ben. Sei­ne Wer­ke sind bekannt für ihre futu­ris­ti­schen The­men und ihre Erkun­dung von The­men wie künst­li­che Intel­li­gen­zen, Andro­ide, Iden­ti­tät und Realität.

TW: Und, träu­men Andro­iden von elek­tri­schen Schafen?

ChatGPT: In Phil­ip K. Dick’s Roman „Do Andro­ids Dream of Elec­tric Sheep?“ wird die Fra­ge gestellt, ob Andro­iden träu­men kön­nen. In dem Buch sind Andro­iden künst­li­che Intel­li­gen­zen, die men­schen­ähn­lich sind und oft für ille­ga­le Zwe­cke miss­braucht wer­den. Die Fra­ge, ob sie träu­men kön­nen, wird im Buch nicht direkt beant­wor­tet und bleibt ein Mys­te­ri­um. In der rea­len Welt gibt es kei­ne Andro­iden, die träu­men kön­nen, da sie nicht wie leben­de Wesen funk­tio­nie­ren und nicht über die Fähig­keit ver­fü­gen, Gedan­ken oder Träu­me zu produzieren.

TW: Was sind elek­tri­sche Scha­fe eigentlich?

ChatGPT: In Phil­ip K. Dick’s Roman „Do Andro­ids Dream of Elec­tric Sheep?“ sind elek­tri­sche Scha­fe künst­li­che Tie­re, die von Men­schen gehal­ten wer­den, um die Aus­wir­kun­gen einer Kata­stro­phe auf die Tier­welt aus­zu­glei­chen. In der fik­tio­na­len Welt des Buches haben vie­le Men­schen elek­tri­sche Scha­fe statt ech­ter Scha­fe, da die meis­ten ech­ten Scha­fe auf­grund der Kata­stro­phe aus­ge­stor­ben sind. Elek­tri­sche Scha­fe sind also künst­li­che Tie­re, die wie ech­te Scha­fe aus­se­hen und sich auch so ver­hal­ten, aber nicht echt sind. In der rea­len Welt gibt es kei­ne elek­tri­schen Schafe. 

TW: Hal­ten Men­schen in der ech­ten Welt oft Schafe?

ChatGPT: In der rea­len Welt hal­ten vie­le Men­schen Scha­fe als Nutz­tie­re. Scha­fe wer­den oft gehal­ten, um Wol­le, Fleisch und Milch zu pro­du­zie­ren. Sie sind auch als Haus­tie­re beliebt, vor allem auf Bau­ern­hö­fen und in länd­li­chen Gebie­ten. Die Zahl der Scha­fe, die von Men­schen gehal­ten wer­den, vari­iert jedoch je nach Regi­on und Land. In man­chen Tei­len der Welt sind Scha­fe sel­te­ner als in ande­ren. In der fik­tio­na­len Welt von Phil­ip K. Dick’s Roman „Do Andro­ids Dream of Elec­tric Sheep?“ sind die meis­ten ech­ten Scha­fe auf­grund einer Kata­stro­phe aus­ge­stor­ben, wes­halb vie­le Men­schen statt­des­sen elek­tri­sche Scha­fe halten.

Drei Beob­ach­tun­gen zu die­sem kur­zen Aus­tausch (der zehn oder zwan­zig Minu­ten in Anspruch genom­men hat, weil ChatGPT teil­wei­se recht lan­ge für Ant­wor­ten brauch­te und häu­fi­ger Feh­ler­mel­dun­gen pro­du­zier­te, die erst in zwei­tem oder drit­ten Anlauf beho­ben wer­den konnten). 

Ers­tens: Was ich wirk­lich erstaun­lich fin­de, ist die ziem­lich gute Treff­si­cher­heit bei indi­rek­ten Refe­ren­zen – „er“, „dazu“ etc. wer­den kor­rekt auf die vor­he­ri­gen Fra­gen und Ant­wor­ten bezo­gen. Und der Titel „Do Andro­ids Dream of Elec­tric Sheep?“ wird auch in der deut­schen Über­set­zung erkannt. Zudem führt ChatGPT die vor­her bespro­che­nen The­men mit – es geht hier um KI und Andro­iden, des­we­gen tau­chen die­se auch in der Ant­wort auf die Fra­ge nach den Wer­ken von Dick auf. Und bei der letz­ten Fra­ge nach Scha­fen in der rea­len Welt wird auch noch ein­mal eine Aus­sa­ge zu Dick getroffen. 

Das Mit­füh­ren der Refe­ren­zen und der vor­he­ri­gen Tex­te führt aller­dings auch dazu, dass ChatGPT im Lauf eines Gesprächs zuneh­mend län­ger braucht und irgend­wann kei­ne Ant­wor­ten mehr kom­men. Da scheint irgend­was expo­nen­ti­ell kom­pli­zier­ter zu werden. 

Zwei­tens: Zumin­dest ChatGPT ist so pro­gram­miert, dass es sehr zurück­hal­tend wird, wenn die­sem Sys­tem (oder hier all­ge­mei­ner: Sprach­mo­del­len) mensch­li­che Eigen­schaf­ten zuge­schrie­ben wer­den. Die ers­te Ant­wort ist typisch für eine Ant­wort, in der ChatGPT auf sei­ne Begren­zun­gen hin­weist. Auch wird sehr klar zwi­schen Aus­sa­gen über fik­tio­na­le Wel­ten und über die rea­le Welt unter­schie­den. Soweit ich das beur­tei­len kann, stim­men die Aus­sa­gen über Dicks Roman. Die Aus­sa­gen zur rea­len Welt wer­den meist unter Vor­be­halt for­mu­liert, sie­he letz­te Ant­wort zur Schaf­hal­tung – „vie­le“, „oft“, „in man­chen Tei­len der Welt“ usw. Das führt zu einer gewis­sen Schwam­mig­keit; ChatGPT legt sich sel­ten wirk­lich fest. Und wenn, dann pas­sie­ren manch­mal sub­ti­le Fehler.

Drit­tens: Die Ant­wor­ten sind alle etwas gleich lang und haben einen ähn­li­chen Auf­bau. Man­che Phra­sen wie­der­ho­len sich in län­ge­ren Aus­tau­schen. ChatGPT beherrscht unter­schied­li­che Sprach­mus­ter (z.B. Tweets, eng­lisch­spra­chi­ge Gedich­te, erzähl­te Geschich­ten, Fak­ten­wis­sen); inner­halb die­ser For­men bleibt es aber recht mono­ton. Mit der Zeit erin­nert das an Fahr­stuhl­mu­sik (ande­re spre­chen von medio­kren Hausarbeiten).

Maschinenträume: Wozu das Ganze?

Ich habe ein­gangs davon gespro­chen, dass ich das Gefühl habe, das mit ChatGPT und ähn­li­chen Model­len ein tech­no­lo­gi­scher Umbruch ver­bun­den sein könnte. 

Ins­be­son­de­re kann ich mir vor­stel­len, dass Sprach­mo­del­le – wie das mit bild­ge­ne­rie­ren­den Ver­fah­ren heu­te schon der Fall ist – recht bald in die Tool­leis­te von Text­ver­ar­bei­tungs­pro­gram­men Ein­zug hal­ten wer­den. Einem ChatGPT ein paar Fak­ten hin­zu­wer­fen, um einen lang­wei­li­gen Absatz zu for­mu­lie­ren, oder eine Zusam­men­fas­sung zu ent­wer­fen, oder einen Text etwas zu ver­schö­nern, ihn zu über­set­zen oder in einen ande­res Regis­ter zu brin­gen – das kann ich mir sehr gut vorstellen. 

Das wür­de dann einen Teil der krea­ti­ven Beru­fe deut­lich ver­än­dern – Rou­ti­ne­tex­te wie der ger­ne als Bei­spiel genom­me­ne Bericht über das Fuß­ball­spiel der Lokal­mann­schaft las­sen sich auto­ma­tisch erstel­len. Zugleich ver­än­dert sich die Vor­stel­lung des­sen, was Krea­ti­vi­tät ist – Fotos machen kann heu­te jede*r, aber gute Fotos brau­chen trotz­dem hand­werk­li­ches Kön­nen und eine gestal­te­ri­sche Idee. Da könn­te sich in den nächs­ten Jah­ren etwas ver­schie­ben. Bis hin zu der Vor­stel­lung, dass rei­ne Unter­hal­tung ohne grö­ße­ren Anspruch – Modell Heft­chen­ro­ma­ne – auf Knopf­druck geschrie­ben wer­den kann.

Noch etwas wei­ter­ge­dreht: natür­lich braucht es dann auch Tools, um (com­pu­ter­ge­nerier­te) Tex­te zu lesen und zusam­men­zu­fas­sen. Und mög­li­cher­wei­se ver­schiebt sich damit dann auch zum Bei­spiel die Wer­tig­keit von Text­ge­ne­rie­rung in Schul- oder Uni­auf­ga­ben. Einen Text schrei­ben kann jede*r, ihn auf Rich­tig­keit und Strin­genz kon­trol­lie­ren und unter meh­re­ren Vor­schlä­gen das pas­sen­de aus­zu­wäh­len, ist ein Skill.

Ganz ähn­lich könn­te ein Ein­satz im IT-Bereich aus­se­hen, Git­Hub Copi­lot geht heu­te schon in die­se Rich­tung: in Echt­zeit Vor­schlä­ge dafür zu machen, wie bestimm­te Funk­tio­nen aus­se­hen könn­ten. Auch hier im bes­ten Fall eine Ent­las­tung von Rou­ti­ne­tä­tig­kei­ten – im worst case eine extre­me Abwer­tung von Programmiertätigkeiten.

Zudem könn­te das durch­aus ein Inter­face sein, um sich natür­lich­sprach­lich zu unter­hal­ten und gege­be­nensfalls auch Pro­gram­me zu schrei­ben. Also so, wie das mit dem Com­pu­ter in Star Trek geschieht. Dazu müss­te aber sicher­ge­stellt wer­den, dass kei­ne fal­schen, fast rich­ti­gen oder ein­fach nur erfun­de­nen Ant­wor­ten gege­ben wer­den. Bis­he­ri­ge Chat­bots sind meist nicht wirk­lich in der Lage, irgend­wie sinn­voll zu agie­ren. Das könn­te hier anders sein, wenn ent­spre­chen­de Kon­trol­len ein­ge­zo­gen wer­den – und wenn das Sprach­mo­dell jen­seits einer Sand­box agie­ren kann, also Zugriff zum Bei­spiel auf die Uhr­zeit hat, im Inter­net aktiv recher­chie­ren kann oder Ein­trä­ge in einer Daten­bank ändern kann. Inso­fern sehe ich hier eher noch kei­ne direk­te Kon­kur­renz zu Such­ma­schi­nen, son­dern eher einen Lay­er über die­sen, eine Art Benut­zer­ober­flä­che für Men­schen, die kei­ne Lust auf tech­ni­sche Details haben.

Noch etwas spe­ku­la­ti­ver: Sys­te­me wie ChatGPT könn­ten zu einer kom­mu­ni­ka­ti­ven Zwi­schen­schicht wer­den, die nicht nur zwi­schen Spra­chen, son­dern auch zwi­schen Sprach­re­gis­tern über­setzt – je nach indi­vi­du­el­lem Wunsch und Gepflo­gen­heit. Eine vul­gär dahin­ge­wor­fe­ne eng­lisch­spra­chi­ge Mail wird bei der Emp­fän­ge­rin aus­ge­sucht höf­li­ches Chi­ne­sisch, ein kom­pli­zier­ter Blog­bei­trag wird zu einer kur­zen Bul­let-Point-Prä­sen­ta­ti­on zusam­men­ge­fasst, und die semi-auto­ma­ti­sier­ten Mit­tei­lun­gen des Finanz­amts wer­den end­lich ver­ständ­lich, bekom­men viel­leicht sogar die Mög­lich­keit, bei Unklar­hei­ten kurz beim Com­pu­ter nach­zu­fra­gen und sich Din­ge erklä­ren zu lassen. 

Mir fällt dazu Neal Ste­phen­sons The Dia­mond Age: Or, a Young Lady’s Illus­tra­ted Pri­mer ein – neben ganz unter­schied­li­chen und mit­ein­an­der nicht so rich­ti­gen Lebens­sti­len taucht dort auch der im Titel ent­hal­te­ne inter­ak­ti­ve Tutor auf, der eine Art selbst­ler­nen­des Lehr­buch ist. Eine Art Wiki­pe­dia, die auf das Vor­wis­sen und Ver­ständ­nis der Nutzer*in zuge­schnit­ten ist – das könn­te eine Visi­on dafür sein, wohin die Rei­se mit ChatGPT und ähn­li­chen Model­len geht. 

4 Antworten auf „Traummaschinen, träumende Maschinen, Maschinenträume“

  1. ChatGPT kom­men­tiert das im Übri­gen so:

    Ein eher kri­ti­scher Kom­men­tar zu die­ser Aus­sa­ge könn­te lauten: 

    „Die Idee, dass Sprach­mo­del­le wie ChatGPT in Text­ver­ar­bei­tungs­pro­gram­men ein­ge­setzt wer­den könn­ten, ist zwar inter­es­sant, aber ich den­ke, es birgt auch eini­ge Risi­ken. Zum Bei­spiel könn­te dies dazu füh­ren, dass vie­le krea­ti­ve Beru­fe obso­let wer­den, was natür­lich pro­ble­ma­tisch ist. Auch die Vor­stel­lung von Krea­ti­vi­tät könn­te sich ver­än­dern, wenn sol­che Tools ein­ge­setzt wer­den, was mög­li­cher­wei­se nicht immer gut ist. Es wäre wich­tig, sorg­fäl­tig zu über­le­gen, bevor man sol­che Tools einsetzt.“

    Ein eupho­risch-posi­ti­ver Kom­men­tar zu die­ser Aus­sa­ge könn­te lauten: 

    „Ich fin­de die Idee, dass Sprach­mo­del­le wie ChatGPT in Text­ver­ar­bei­tungs­pro­gram­men ein­ge­setzt wer­den könn­ten, wirk­lich auf­re­gend! Stel­len Sie sich vor, wie viel Zeit und Mühe man damit spa­ren könn­te. Und es wür­de auch dazu bei­tra­gen, die Vor­stel­lung von Krea­ti­vi­tät zu ver­än­dern, was sicher­lich zu inter­es­san­ten Ent­wick­lun­gen füh­ren wür­de. Ich freue mich dar­auf, zu sehen, wie sich die­se Tech­no­lo­gie in Zukunft ent­wi­ckelt und wie sie unse­ren All­tag ver­bes­sern kann.“

Schreibe einen Kommentar zu Till Westermayer Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

I accept that my given data and my IP address is sent to a server in the USA only for the purpose of spam prevention through the Akismet program.More information on Akismet and GDPR.