Am 4. August 1997 nahm das US-Mil­itär eine hochmod­erne kün­stliche Intel­li­genz (KI) in Betrieb. Unmit­tel­bar nach Inbe­trieb­nahme begann die KI, in ein­er expo­nen­tiellen Rate zu ler­nen. Am 29. August 1997 entwick­elte die KI, völ­lig uner­wartet, ein Bewusst­sein. Das US-Mil­itär geri­et in Panik und ver­suchte, die KI abzuschal­ten, was diese als Angriff deutete. Die KI holte zum Gegen­schlag aus: Mit einem atom­aren Angriff auf Rus­s­land wurde ein glob­aler Nuk­lear­krieg provoziert, mit dem sich die Men­schheit weit­ge­hend sel­ber ver­nichtete – was der KI ermöglichte, die Weltherrschaft zu übernehmen.

Sci-Fi-Con­nais­seure wer­den erkan­nt haben, dass dieses Szenario die Geschichte von «Ter­mi­na­tor» ist: Die KI Skynet entwick­elt ein Bewusst­sein und macht for­t­an, wie es ihr beliebt. Ter­mi­na­tor ist aber nur eines unter vie­len Sci-Fi-Werken, welche dieselbe Angst the­ma­tisieren: Eine KI, die so intel­li­gent wird, dass sie ein Bewusst­sein entwick­elt und dadurch eine exis­ten­zielle Gefahr für die Men­schheit wird.

Wir erleben gegen­wär­tig einen regel­recht­en KI-Boom. In der Forschung wer­den laufend neue, aus­gek­lügelte Algo­rith­men erar­beit­et, und in der Prax­is macht KI immer mehr immer bess­er, von Spracherken­nung über selb­st­fahrende Fahrzeuge bis hin zu Dat­ing-Apps. Es scheint also höch­ste Zeit, das exis­ten­zielle Risiko KI ernst zu nehmen: Müssen wir uns Sor­gen machen, dass KI bald ein Bewusst­sein entwick­elt und eine Bedro­hung für die Men­schheit wird? Die Antwort mag para­dox klin­gen: Nein, KI dürfte bis auf Weit­eres kein Bewusst­sein entwick­eln – aber trotz­dem, oder vielle­icht ger­ade darum, kön­nte «dumme», aber mächtige KI die Men­schheit aus­löschen.

Wo KI heute steht …

«Kün­stliche Intel­li­genz» ist ein schwammiger Begriff. Ganz all­ge­mein meint KI einen wie auch immer geart­eten Appa­rat, der in der Lage ist, Ziele zu erre­ichen, indem er neue Reize und Infor­ma­tio­nen aus der Umwelt ver­ar­beit­et. Heutzu­tage meinen wir mit KI Soft­ware, welche in der Lage ist, nüt­zliche Dinge zu tun, aber ohne dass alle Anweisun­gen fest ein­pro­gram­miert wer­den müssen.

Stattdessen «lernt» KI anhand von Beispie­len, was das kor­rek­te Vorge­hen ist. Das hat schon heute etwas fast Zauber­haftes. Wenn beispiel­sweise die dig­i­tale Assis­tentin Alexa von Ama­zon auf natür­liche Fra­gen natür­lich wirk­ende Antworten gibt, kön­nte man meinen, am anderen Ende der Leitung sitze ein Men­sch.

KI hat zweifel­los das Poten­zial, prak­tisch alle Facetten der Gesellschaft gehörig umzukrem­peln. Und trotz­dem gilt die heutige KI als «eng» oder als «schwach» (nach dem Englis­chen «nar­row AI» oder «weak AI»). Nicht, weil sie schlecht wäre; schon heute kann KI in vie­len Sit­u­a­tio­nen das, was sie macht, viel bess­er als die besten Men­schen. KI ist heute aber begren­zt (oder spezial­isiert) auf einzelne Domä­nen und Prob­lem­stel­lun­gen.

 

Eine KI von Deep­Mind kann heute jeden men­schlichen Star­Craft-II-Spiel­er prob­lem­los schla­gen – aber diese KI kann keine Autos auf der Auto­bahn fahren. Die KI von Tes­la kann heute teil­weise sicher­er auf der Auto­bahn fahren als Men­schen – aber diese KI kann nicht erken­nen, ob jemand Nack­t­bilder auf Face­book hochlädt. Face­book set­zt heute KI ein, die blitzschnell erken­nt, ob jemand Nack­t­bilder hochlädt – aber diese KI kann wed­er Star­craft II spie­len, noch kann sie Autos auf der Auto­bahn fahren. Und so fort.

KI ist heute extrem gut darin, extrem spez­i­fis­che Dinge zu tun. Der men­schlichen Intel­li­genz kann KI damit aber noch lange nicht das Wass­er reichen: Wir Men­schen kön­nen recht müh­e­los sowohl Star­Craft II spie­len, als auch ein Auto fahren, wie auch Nack­t­bilder erken­nen.

… und wo KI morgen ankommen könnte

Der heilige Gral der KI-Forschung ist eine domä­nen-über­greifende Intel­li­genz, wie sie uns Men­schen ausze­ich­net: Eine «Arti­fi­cial Gen­er­al Intel­li­gence» (kün­stliche all­ge­meine Intel­li­genz). Das wäre eine KI, die auf eine ähn­lich flex­i­ble Art intel­li­gent wie wir Men­schen ist. Eine KI also, welche min­destens genau­so gut wie wir Star­Craft II und Aut­o­fahren und Nack­t­bilder erken­nen gle­ichzeit­ig meis­tern kön­nte.

Wann ist es mit der men­schen-ähn­lichen kün­stlichen Intel­li­genz soweit? Darüber lässt sich im Moment nur spekulieren, denn eine «KAI» (kün­stliche all­ge­meine Intel­li­genz) zeich­net sich heute noch nicht klar am Hor­i­zont der KI-Entwick­lung ab. So geben sich KI-Forscherin­nen und ‑Forsch­er in zwei Umfra­gen von 2016 und 2018 zurück­hal­tend und ver­muten, dass es wohl noch Jahrzehnte dauern wird. Aber gle­ichzeit­ig ver­muten sie, dass eine KAI grund­sät­zlich zu erwarten sei. Falls es gelingt, eine KAI zu erschaf­fen, kön­nte das ziem­lich schnell in ein­er regel­recht­en Intel­li­genz-Explo­sion mün­den. Der Sta­tis­tik­er Irv­ing Good hat­te bere­its 1966 in einem Essay erk­lärt, warum: Wenn wir es schaf­fen, eine kün­stliche Intel­li­genz zu bauen, die nur schon ger­ingfügig intel­li­gen­ter als wir Men­schen ist, dann bedeutet das, dass diese kün­stliche Intel­li­genz ihrer­seits in der Lage sein wird, eine kün­stliche Intel­li­genz zu bauen, die intel­li­gen­ter als sie sel­ber ist. Warum sollte die KAI das machen? Wenn sie eine all­ge­meine Intel­li­genz besitzt, wird sie wis­sen, dass sie ihre Ziele mit dieser nochmals intel­li­gen­teren KAI bess­er erre­ichen kann. 

Dieser Prozess der rekur­siv­en Verbesserung der KI würde so weit gehen, dass an einem Punkt eine solch mächtige Super­in­tel­li­genz entste­ht, dass wir Men­schen uns bequem zurück­lehnen kön­nen. Die KAI, die wir erschaf­fen haben, wäre näm­lich die let­zte Erfind­ung, die wir je machen müssen: Die kün­stliche Super­in­tel­li­genz würde inner­halb kürzester Zeit jeden unser­er Wün­sche, die im Rah­men der Naturge­set­ze möglich sind, erfüllen. Wenn wir es also schaf­fen, eine KAI herzustellen, haben wir die tech­nol­o­gis­che Sin­gu­lar­ität mehr oder weniger erre­icht.

Unkontrollierbare Superintelligenz

Eine super­in­tel­li­gente KI ist vom Prinzip her das­selbe wie unsere heutige KI: Soft­ware, welche mit der Umwelt inter­agiert, um Ziele zu erre­ichen. Der einzige Unter­schied ist, dass super­in­tel­li­gente KI min­destens so vielfältig und so kreativ wie wir Men­schen mit der Umwelt inter­agieren kann. Super­in­tel­li­gente KI bleibt also grund­sät­zlich «dumm» und ver­fol­gt Ziele, die wir ein­pro­gram­mieren – aber die Art und Weise, wie sie das tut, ist extrem schlau.

 

Und hierin liegt die tat­säch­liche Gefahr der KI. Wenn wir eine kün­stliche Intel­li­genz schaf­fen, die nur schon ger­ingfügig intel­li­gen­ter als wir sel­ber sind, haben wir ein gross­es Prob­lem: Wenn wir diese KI im Nach­hinein verän­dern oder abschal­ten wollen, kön­nte es sein, dass die KI zu intel­li­gent ist, um das zuzu­lassen. Und zwar nicht, weil sie ein Bewusst­sein entwick­elt hat – son­dern, weil sie stro­hdumme Soft­ware ist, die die Ziele, welche wir vorgegeben haben, zu gut erre­icht.

Der Philosoph Nick Bostrom beschreibt in seinem Buch «Super­in­tel­li­gence: Paths, Dan­gers, Strate­gies» anhand eines mit­tler­weile berühmten Gedanken­ex­per­i­mentes, wie das schiefge­hen kön­nte: Die Büroklam­mer-KI. In ein­er Büroklam­mer-Fab­rik set­zen wir eine super­in­tel­li­gente KI ein. Die Auf­gabe: So viele Büroklam­mern wie möglich her­stellen. Das klappt zunächst ganz gut, aber die KI schlussfol­gert rasch, dass das Ziel noch nicht opti­mal erre­icht ist. Ausser­halb der Fab­rik gibt es näm­lich noch ganz viel Mate­r­i­al, das auf Umwe­gen auch zu Büroklam­mern ver­ar­beit­et wer­den kön­nte. Zum Beispiel Bier­dosen, Autos, Häuser, und vielle­icht auch Men­schen.

Zudem schlussfol­gert die KI auch, dass ein wichtiges Teilziel ist, nicht abgeschal­tet zu wer­den; wird sie abgeschal­tet, kann sie näm­lich ihr Ziel, Büroklam­mern herzustellen, nicht ver­fol­gen. Da die Büroklam­mer-KI um Grössenord­nun­gen intel­li­gen­ter als Men­schen ist, kann sie prob­lem­los jeden Abschalt-Ver­such sabotieren. Und vielle­icht beschle­u­nigt sie die Umwand­lung aller Men­schen auf der Welt in Büroklam­mern, weil damit sichergestellt ist, dass nie­mand ver­sucht, sie abzuschal­ten. Die super­in­tel­li­gente Büroklam­mer-KI ist dabei nicht boshaft oder unmoralisch – sie ist ein­fach ein Stück Soft­ware, das ein ein­fach­es vorgegebenes Ziel ver­fol­gt.

Die exis­ten­zielle Bedro­hung durch KI ist nicht eine KI, die ein Bewusst­sein entwick­elt und uns den Krieg erk­lärt. Die Bedro­hung ist banaler und gle­ichzeit­ig erschreck­ender: Super­in­tel­li­gente KI ist Soft­ware, die «zu gut» funk­tion­iert und ihre Ziele auf eine Art ver­fol­gt, die uns (katas­trophal) gefährlich wer­den kann.

Ist unkontrollierbare Superintelligenz unvermeidbar?

Ste­ht schon fest, dass wir irgend­wann eine kün­stliche Super­in­tel­li­genz entwick­eln, welche die Men­schheit «en pas­sant» aus­löscht? Zum Glück nicht, und zwar aus dreier­lei Grün­den.

Erstens kön­nten wir schlicht Glück haben. Die erste kün­stliche Super­in­tel­li­genz, welche wir erschaf­fen, kön­nte halb­wegs gut funk­tion­ieren und keine Bedro­hung, son­dern eine Bere­icherung sein.

Zweit­ens ist unklar, ob wir wirk­lich jemals den Sprung zu ein­er kün­stlichen all­ge­meine Intel­li­genz schaf­fen kön­nen. KI hat in den let­zten Jahren zwar grosse Fortschritte gemacht, aber bish­er zeich­net sich kein Weg ab, wie die heutige «schwache» KI zu bre­it­er, men­schen-ähn­lich­er Intel­li­genz wer­den kön­nte.

Der Philosoph John Sear­le hat in seinem berühmten Gedanken­ex­per­i­ment des «chi­ne­sis­chen Zim­mers» schon 1980 beschrieben, dass sich KI fun­da­men­tal von men­schlich­er Intel­li­genz unter­schei­det, weil wir Men­schen ein Ver­ständ­nis für Dinge haben, während KI nur etwas aus­führt (Das Gedanken­ex­per­i­ment besagt, dass eine Per­son, die kein Chi­ne­sisch kann, in einem Zim­mer minu­tiös Anleitun­gen befol­gen kön­nte, um auf Fra­gen, die jemand auf Chi­ne­sisch stellt, chi­ne­sis­che Antworten zu geben. Das wirkt für Aussen­ste­hende, als ob die Per­son im Zim­mer Chi­ne­sisch ver­ste­ht, aber in Tat und Wahrheit ver­hält sich die Per­son wie eine KI: Sie führt kom­plett sin­n­frei bes­timmte Oper­a­tio­nen aus)

Drit­tens schliesslich haben wir noch Zeit, einen Fallschirm zu basteln, bevor wir aus dem Flugzeug sprin­gen. Da kün­stliche all­ge­meine Intel­li­genz, falls es sie jemals geben wird, noch Jahrzehnte in der Zukun­ft liegen dürfte, haben wir einen Puffer, um zu über­legen, wie wir Sicher­heits­mass­nah­men ein­bauen kön­nen. Das ist keine ein­fache Auf­gabe, denn es geht darum, etwas sicher­er zu machen, wovon wir heute nicht wis­sen, was genau es sein wird. Trotz­dem gibt es bere­its Forscherin­nen und Forsch­er und sog­ar ganze Organ­i­sa­tio­nen wie das Future of Life Insti­tute oder das Machine Intel­li­gence Research Insti­tute, die sich der KI-Sicher­heit ver­schrieben haben.

Sich heute schon zu über­legen, wie zukün­ftige Super­in­tel­li­genz sicher­er gemacht wer­den kann, ist eine gute Idee. Die let­zte Erfind­ung der Men­schheit soll schliesslich die let­zte sein, weil sie uns die weit­ere Arbeit abn­immt, und nicht, weil der Schuss nach hin­ten los­ge­ht.

Kostenlos - eBook digitale Kompetenz

digitalexpert-logo-newExklusiv bei digitalexpert.ch

Jetzt kostenlos bestellen:
Exklusiv bei digitalexpert.ch - eBook digitale Kompetenz

Ihre E-Mail-Adresse (Pflichtfeld)

Ich wünsche jeweils über neue kostenlose eBooks informiert zu werden

digitalexpert-logo-newExklusiv bei digitalexpert.ch

Jetzt kostenlos bestellen:
Exklusiv bei digitalexpert.ch — eBook digital comptence (english)

 

Ihre E-Mail-Adresse (Pflichtfeld)

Ich wünsche jeweils über neue kostenlose eBooks informiert zu werden