Experimenteller Technikoptimismus – Update 2016

Deep Dream Dreamscope
Deep Dream Dream­scope, Jes­si­ca Mullen, Public Domain

Vor einem Jahr schrieb ich eine kur­ze Aus­ein­an­der­set­zung mit einem Arti­kel, den Judith Hor­chert, Mat­thi­as Kremp und Chris­ti­an Stö­cker damals bei Spie­gel online ver­öf­fent­licht hat­ten. In dem Arti­kel sind fünf Pro­gno­sen dazu zu fin­den, wel­che Tech­no­lo­gien in naher Zukunft unse­ren All­tag ver­än­dern wer­den. Ich fand das damals alles arg unwahr­schein­lich, und hat­te ver­spro­chen, ein Jahr spä­ter (usw.) nach­zu­schau­en, wie es denn jeweils um den Stand der Tech­nik steht. Mit ein paar Tagen Ver­spä­tung hier nun mein ers­ter Blick auf den Stand der Dinge.

The­men­feld eins bei Hor­chert et al. war die Robo­tik. Dazu schrie­ben sie: „Künf­tig aber dürf­ten Maschi­nen, die schein­bar auto­nom einem oder gleich meh­re­ren Zwe­cken die­nen, sich zuneh­mend in unse­rem All­tag breit­ma­chen. Als schwei­gen­de Hel­fer in Kran­ken­häu­sern, als Lager­ar­bei­ter im Couch­tisch-For­mat oder als Ein­park­hel­fer. Vom Staub­sauger, Fens­ter­put­zer, über Lie­fer­droh­nen bis hin zu huma­no­iden Maschi­nen wie Bax­ter, die in Fabrik­be­trie­ben diver­se Auf­ga­ben übernehmen.“

In mei­nem All­tag sind noch kei­ne auto­no­men Robo­ter auf­ge­taucht. Aber ich gebe zu, dass Staub­sauge­ro­bo­ter und Droh­nen in den letz­ten zwölf Mona­ten an Selbst­ver­ständ­lich­keit gewon­nen haben. Und Fil­me wie „Ex Machi­na“ brach­ten im letz­ten Jahr die Aus­ein­an­der­set­zung um nicht­mensch­li­che, men­schen­ähn­li­che Maschi­nen auch in die Populärkultur.

Zwei­tens ging es um das Selbst­fah­ren­de Auto. Das fah­rer­lo­se Taxi wird dort für 2021 bis 2023 erwar­tet, eben­so der selbst­fah­ren­de LKW. Gibt es bei­des noch nicht, aber hier ist doch eini­ges pas­siert. Sowohl, was die Tech­nik angeht, als auch hin­sicht­lich der gesell­schaft­li­chen Debat­te dar­um, wie die Ver­ant­wort­lich­keit bei auto­no­men Fahr­zeu­gen aus­sieht, und was mit der gan­zen Logis­tik­bran­che pas­siert, wenn Autos fah­rer­los unter­wegs sind, und wie es um den Daten­schutz steht. Goog­le zeig­te sich ent­täuscht, dass auch in Kali­for­ni­en selbst­fah­ren­de Autos einen Fah­rer oder eine Fah­re­rin ent­hal­ten müs­sen. Bei Daim­ler wer­den Assis­tenz­sys­te­me für LKW ent­wi­ckelt, die dem­nächst eine auto­no­me Fahrt auf der Auto­bahn ermög­li­chen, viel­leicht schon vor 2020. Und auch beim Elek­tro­au­to Tes­la soll es in naher Zukunft teil­au­to­nom zugehen. 

Anders das drit­te The­ma, die Vir­tu­el­le Rea­li­tät. Hier hieß es: „Schon in weni­gen Jah­ren wird man im Zug oder im Flug­zeug Men­schen mit VR-Gerät am Kopf statt mit Lap­top oder Tablet als Film­ab­spie­ler antref­fen. Und es wer­den Unter­hal­tungs­for­ma­te ent­ste­hen, die wir uns noch gar nicht vor­stel­len kön­nen.“ – Es gibt zwar in der Film- und Games­bran­che tat­säch­lich Debat­ten dar­über, wie VR-Spie­le und ‑Unter­hal­tungs­pro­gram­me aus­se­hen kön­nen. Und mit Ocu­lus Rift steht ein „Kon­su­mer-VR-Gad­get“ kurz vor der tat­säch­li­chen Ver­mark­tung. Am ande­ren Ende des Spek­trums steht Goog­le Card­board als Selbst­bau­sys­tem für VR auf Android-Han­dys. Und quer dazu gibt es Pro­jek­te, bei denen 3D auf Ober­flä­chen („table­top“) pro­je­ziert wer­den soll. Micro­soft ist auch dabei. Ein biss­chen was pas­siert hier tat­säch­lich. Im Zug sind mir aber noch kei­ne Men­schen mit VR-Bril­le begeg­net, und auch bei Twit­ter ist es noch nicht das gro­ße Ding. Gleich­zei­tig sind Fea­tures wie der 3D-Modus bei Fern­seh­ge­rä­ten wohl schon wie­der im Abklin­gen im Trend­zy­klus. Mei­ne Pro­gno­se: Für Com­pu­ter­spie­le kommt das, als all­ge­mei­nes Inter­face, und sei es im Unter­hal­tungs­be­reich, ist VR in den nächs­ten Jah­ren eher noch weit weg. Oder fin­det wegen „unprak­tisch“ gar nicht statt. Was inso­fern gut ist, als es bedeu­tet, dass die Visi­on weit­grei­fen­den Analpha­be­ten­tums in einer High-Tech-Welt, wie sie Star Wars ver­kör­pert, nicht wirk­lich vor der Tür steht.

Vor­her­sa­ge Nr. 4 war die Auto­ma­ti­sche Über­set­zung on the fly, die schon bald Nor­ma­li­tät sein soll – das Han­dy als Uni­ver­sal­über­set­zer. Inter­es­san­ter­wei­se ist hier – zumin­dest in Euro­pa – die Flücht­lings­kri­se mit zu einem Antrieb für die öffent­li­che Prä­senz von auto­ma­ti­schen Über­set­zun­gen gewor­den. Neben spe­zia­li­sier­ten Pro­gram­men ist hier ins­be­son­de­re Goog­le Trans­la­te zu nen­nen, das nicht nur mit geschrie­be­ner Spra­che, son­dern inzwi­schen auch halb­wegs pas­sa­bel erstaun­lich gut mit (ein­zel­nen) gespro­che­nen Wör­tern oder Sät­zen klar­kommt. Klei­ne Anek­do­te dazu: in der Grund­schul­klas­se mei­nes Soh­nes sind seit ein paar Tagen zwei Kin­der aus Syri­en, die noch kein Deutsch kön­nen. R. berich­te­te nun, dass das Han­dy der Leh­re­rin – und ver­mut­lich Goog­le Trans­la­te – dabei hel­fen soll, dass die Kin­der sich unter­ein­an­der ver­stän­di­gen. Das ist alles noch nicht die flie­ßen­de Simul­tan­über­set­zung, und manch­mal kommt noch gro­ßer Quatsch raus („Ich hei­ße Till“ -> „I till hot“), aber bes­ser als sprach­los rum­zu­ste­hen ist es allemal.

Und auch beim fünf­ten Punkt, dem Sie­ges­zug der Künst­li­chen Intel­li­genz in PC und Smart­phone, ist mehr pas­siert, als ich mir das vor einem Jahr hät­te vor­stel­len kön­nen. Face­book und Goog­le ste­cken bei­de mas­siv Geld in die KI-For­schung. Und ganz beson­ders viel dazu bei­getra­gen hat, dass KI plötz­lich wie­der im Mit­tel­punkt des Inter­es­ses steht, hat Goo­gles Ver­öf­fent­li­chung von Ten­sor­Flow (sie­he Wiki­pe­dia) – einer Open-Source-Biblio­thek für „Machi­ne Intel­li­gence“, also für Maschi­nen­ler­nen bzw. für das Trai­ning tie­fer neu­r­a­ler Netz­wer­ke. Sicht­bar wur­de die­se Biblio­thek etwa in den im Netz kur­sie­ren­den Bil­dern von Deep­Dream (eine Soft­ware, die Bil­der­ken­nung vor­an­brin­gen soll und deren Zwi­schen­schrit­te ein gewis­ser psy­cho­de­li­scher Sur­rea­lis­mus inne­wohnt). Aber auch in die ganz nor­ma­le Aus­wer­tung der Such­ergeb­nis­se fließt inzwi­schen KI mit ein. Und auch Flickr ver­schlag­wor­tet Fotos inzwi­schen auto­ma­tisch – nicht immer per­fekt, und mit einer gan­zen Men­ge Fall­stri­cke, aber immer­hin. [Update, 21.02.: Goog­le bie­tet jetzt AI-Power – hier: Foto­er­ken­nung – zum Mie­ten an …]

Vor einem Jahr war ich noch sehr skep­tisch, dass es hier tat­säch­lich zu Durch­brü­chen kommt und ent­spre­chen­de Tech­no­lo­gien – von den Robo­tern bis zur all­ge­gen­wär­ti­gen KI – Ein­zug in den All­tag fin­den und sich auch tat­säch­lich durch­set­zen. Gera­de was die Sprach- und Bil­der­ken­nung angeht, und alles, was dar­auf auf­baut, ist in den letz­ten Mona­ten extrem viel pas­siert. Inso­fern bin ich gespannt, ob das tat­säch­lich bis 2017 zu einem fun­da­men­ta­len Wan­del unse­rer All­tags­tech­no­lo­gie führt.

Span­nend fin­de ich, wie oft hier „Goog­le“ auf­taucht. Egla, ob auto­no­mes Fah­ren oder Über­set­zen-on-the-fly – irgend­wie ist der kali­for­ni­sche Kon­zern immer mit dabei. Und typisch Goog­le: natür­lich funk­tio­niert das Bei­be­hal­ten von Mono­po­len bes­ser, wenn alle auf die eine, offe­ne Tech­no­lo­gie zugrei­fen. Das hat bei Android gut geklappt, und es spricht eini­ges dafür, dass das auch bei Ten­sor­Flow der Fall sein wird. Dass Face­book und Goog­le bei­na­he zeit­gleich ver­kün­de­ten, Go gelöst zu haben, also eines der har­ten Pro­ble­me der KI-For­schung, passt da ins Bild eines gera­de an Tem­po zule­gen­den tech­no­lo­gi­schen Ren­nens. (Tja, und Baden-Würt­tem­berg? Ich bin gespannt, ob Fir­men und For­schungs­pro­jek­te aus dem Länd­le hier in Zukunft eine Rol­le spie­len wer­den, oder ob da gera­de was ver­passt wird). Also viel Stoff dafür, in einem Jahr erneut zu schau­en, was mit den fünf Tech­nik­fel­dern pas­siert ist.

War­um blog­ge ich das? Als tech­nik­so­zio­lo­gi­sche Langzeitbeobachtung.

2 Antworten auf „Experimenteller Technikoptimismus – Update 2016“

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert