Online gepostete Fotos und Videos von Pas­san­ten lan­den in Daten­banken. Sie dienen der Opti­mierung von Gesicht­serken­nung und ander­er kün­stlich­er Intel­li­genz. KI-Daten­banken entste­hen auch in der Schweiz.

Vor der ETH im Jahr 2016 gemachte Videoaufnahmen sind frei abrufbar.

Vor der ETH im Jahr 2016 gemachte Videoaufnahmen sind frei abrufbar.

“The WILDTRACK Mul­ti-Cam­era Per­son Dataset” (Chav­daro­va et al.) Idi­ap, EPFL, ETH Zürich,  Bear­beitung: Adam Har­vey

Mar­cus Pfis­ter beze­ich­net sich selb­st als Dinosauri­er, jeden­falls dann, wenn es um neue Tech­nolo­gien geht. Dementsprechend spär­lich ist auch der Online-Auftritt des Bern­er Kinder­buchau­tors: eine sim­ple, etwas aus der Zeit gefal­l­ene Web­site, eine Face­book-Site, deren let­zter Ein­trag von 2011 stammt, und keine zehn Bilder auf Insta­gram. Umso erstaunter war Pfis­ter, als er erfuhr, dass sich Fotos von ihm, die im Netz ste­hen, in ein­er Daten­bank befind­en, mit der Gesicht­serken­nungssoft­wares getestet und trainiert wur­den. «Ich finde das selt­sam», sagt er am Tele­fon, «es würde mich sehr wun­dern, wenn man mit den weni­gen Bildern etwas anfan­gen kann.»

Doch Pfis­ters Gesicht ist eines von rund 100 000, die sich in der Bild­daten­bank mit dem Namen MS Celeb befind­en. Erstellt hat die Samm­lung der Soft­warekonz­ern Microsoft. Sie enthält mehr als acht Mil­lio­nen Fotos. Die Bilder wur­den aus dem Inter­net abge­grif­f­en, um eine Tech­nolo­gie zu verbessern, mit der Smart­phone-Besitzer ihr Handy entsper­ren, die Sicher­heits­be­hör­den zur Fah­n­dung von Krim­inellen ein­set­zen und autoritäre Régime zur Überwachung der Bevölkerung.

Datensammeln wie Clearview

Gesicht­serken­nung und andere Anwen­dun­gen der kün­stlichen Intel­li­genz (KI) sind auf dem Vor­marsch und wer­fen viele Fra­gen auf. Sie kön­nen das Leben erle­ichtern, bieten aber auch Poten­zial für Miss­brauch. Bei der Debat­te, wie und ob die Tech­nolo­gien einge­set­zt wer­den sollen, gerät eine Frage häu­fig in den Hin­ter­grund: diejenige, was nötig ist, um KI voranzutreiben – unsere Gesichter, Stim­men und Kör­p­er. 

Dass Daten­banken, deren Bilder aus dem Inter­net stam­men, dazu dienen, Gesicht­serken­nung zu trainieren, hat zulet­zt der Skan­dal um Clearview gezeigt. Die kleine Fir­ma aus den USA hat­te laut der «New York Times» mehr als drei Mil­liar­den Fotos aus Plat­tfor­men wie Face­book oder Youtube abge­saugt, um ihre Soft­ware zu opti­mieren. Diese soll im Stande sein, Mil­lio­nen von Men­schen innert weniger Sekun­den zu iden­ti­fizieren.

Die Art, wie Clearview seine Soft­ware trainiert hat, ist keine Aus­nahme. Damit Algo­rith­men bess­er darin wer­den, Gesichter zu erken­nen und sie Per­so­n­en zuzuord­nen, füt­tern Forsch­er sie mit Hun­dert­tausenden von Fotos. Je unter­schiedlich­er die Per­so­n­en darauf, je natür­lich­er und ungestell­ter die Auf­nah­men; je näher an der Sit­u­a­tion, in der die Tech­nik zum Ein­satz kommt, desto bess­er. Öffentlich zugängliche Foto­samm­lun­gen wie MS Celeb find­en ihren Weg in Forschungsin­sti­tute von den USA über Europa bis nach Chi­na. In vie­len Fällen stam­men die Bilder darin aus dem Inter­net. Die betrof­fe­nen Per­so­n­en haben davon meist keine Ahnung.

Mar­cus Pfis­ter ist ein­er von rund 200 Schweiz­ern, die sich in der Daten­bank MS Celeb befind­en. Unter ihnen sind Musik­er, Sportler, Poli­tik­er, Architek­ten oder Schrift­steller. Von Mar­tin Suter bis zu Simon­et­ta Som­maru­ga und Doris Leuthard. Offiziell umfasst MS Celeb nur «Celebri­ties», deren Bilder weniger geschützt sind. Laut Adam Har­vey, dem Wis­senschafter und IT-Kün­stler, der die Exis­tenz der Bild­daten­bank pub­lik gemacht hat, wurde der Begriff aber weit gedehnt. In der Samm­lung taucht­en auch Aktivis­ten, Jour­nal­is­ten oder Blog­ger auf, also schlicht Per­so­n­en, die einen Online-Auftritt haben. Von jenen Schweiz­ern, die wir neben Pfis­ter kon­tak­tiert haben, wusste nie­mand, dass sie Teil ein­er Daten­bank sind, mit der Überwachung­stech­nik trainiert wurde. Sie wur­den nicht nach ihrem Ein­ver­ständ­nis gefragt. «Wenn ich sagen kön­nte, ‹meine Bilder lieber nicht›, dann würde ich das tun», sagt der Kinder­buchau­tor, «aber wie soll man so etwas kon­trol­lieren?»

Microsoft hat­te MS Celeb 2016 ins Inter­net und damit Wis­senschaftern weltweit zur Ver­fü­gung gestellt. Wie Har­veys Recherchen und Research-Papers zeigen, wurde sie genutzt von Tech-Riesen wie IBM, Hitachi. Auch die chi­ne­sis­chen Fir­men Megvii und Sense­Time nutzten sie. Deren Soft­ware haben Chi­nas Behör­den laut Recherchen der «New York Times» ver­wen­det, um die Uig­uren-Min­der­heit zu überwachen. Ver­gan­genen Som­mer, nach­dem die «Finan­cial Times» über MS Celeb berichtet hat­te, nahm Microsoft die Daten­bank vom Netz. Ver­schwun­den ist die Samm­lung damit aber nicht. Wer sie herun­terge­laden hat, kann sie weit­er nutzen. Und über akademis­che File­shar­ing-Pro­gramme lässt sie sich noch immer find­en.

Bilder als «Instrumente für Überwachung»

«Das ist das Prob­lem mit diesen Daten­banken. Wenn du ein­mal in ein­er auf­tauchst, bekommst du deine Bilder da nie wieder raus», sagt Adam Har­vey. Er hat ein Dutzend solch­er Samm­lun­gen analysiert. Har­vey ist Amerikan­er. Heute lebt der 38-Jährige in Berlin. Seit 2010 beschäftigt er sich mit Bild­daten­banken, die ohne explizite Zus­tim­mung der Per­so­n­en darin erstellt wer­den. Mit seinem Pro­jekt Megapix­els unter­sucht er, woher die Bilder kom­men und wofür sie ver­wen­det wer­den. «Leute sollen ver­ste­hen, was mit ihren Fotos im Netz passieren kann», sagt er in einem Tele­fonge­spräch über die ver­schlüs­selte App Sig­nal. Präzise Zäh­lun­gen dazu, wie viele solche Bild­daten­banken heute im Umlauf sind, gibt es nicht. Har­vey geht von 300 bis 400 aus. Bei einem Teil davon han­dle es sich um Kopi­en bere­its existieren­der Samm­lun­gen.

 

Bevor er begann, das Netz nach Foto- und Videosamm­lun­gen zu durch­forsten, hat­te Har­vey Inge­nieur­wis­senschaften und Fotografie studiert. Dann entsch­ied er sich, einen anderen Weg einzuschla­gen. «Mir wurde klar, dass Fotografie nicht nur Kun­st ist, son­dern auch ein Werkzeug, um Infor­ma­tio­nen über eine Per­son zu sam­meln», sagt er, «wenn wir Bilder online stellen, wer­den diese zu Instru­menten für Überwachung.»

Die Jagd nach «wilden Aufnahmen»

In den 1990er Jahren erstell­ten Wis­senschafter Daten­banken zur Gesicht­serken­nung noch anhand von Stu­dioauf­nah­men. Doch bald wurde ihnen klar, dass sich die Tech­nik damit nur schlecht trainieren lässt. Die Fotos waren zu gut aus­geleuchtet und zu gestellt. Was man brauchte, waren Bilder in natür­lichen Sit­u­a­tio­nen. Forsch­er sprachen von Auf­nah­men «in the wild». 2007 veröf­fentlichte die Uni­ver­si­ty of Mass­a­chu­setts eine der ersten grossen Bild­daten­banken. Sie trägt den Namen «Labeled Faces in the Wild». Die Fotos darin wur­den aus dem Inter­net von Nachricht­en­sites gezo­gen und zeigten Per­so­n­en in ver­schiede­nen Sit­u­a­tio­nen, mit unter­schiedlichen Hin­ter­grün­den und Lichtver­hält­nis­sen.

Mit­tler­weile sei es üblich, Foto­samm­lun­gen mit Bildern aus dem Inter­net zu erstellen, sagt Har­vey. Mit ein­er soge­nan­nten Scraper-Soft­ware wür­den Bilder von Such­maschi­nen, Foto- und Video­plat­tfor­men abge­grif­f­en. Nicht nur soge­nan­nte «Celebri­ties» sind betrof­fen, son­dern auch völ­lig unbekan­nte Per­so­n­en. Min­destens eine Samm­lung enthält Fotos, die Nutzer auf die Plat­tform Flickr hochge­laden haben – Kinder­fo­tos inklu­sive. Die Urhe­ber hat­ten die Nutzung der Bilder durch eine Cre­ative-Com­mons-Lizenz bewil­ligt. «Dabei dachte wohl kaum jemand daran, was das für Fol­gen haben kann», denkt Har­vey. Andere Daten­samm­lun­gen wur­den aus Video-Auf­nah­men erstellt, etwa von der Überwachungskam­era eines Cafés.  

 

Für die Forschung «essenziell»

Für Forsch­er stellen öffentlich zugängliche Daten­banken eine wichtige Grund­lage dar, ob bei Gesicht­serken­nung oder in anderen Bere­ichen der KI. «Sie sind essen­ziell. Die Wis­senschaft ist davon abhängig», sagt Luc Van Gool, der das Com­put­er Vision Lab der ETH Zürich leit­et. Denn die Erstel­lung und Auf­bere­itung ein­er eige­nen Daten­bank ist aufwendig und teuer. Ohne den Open-Data-Ansatz würde man das Feld vol­lends grossen Konz­er­nen wie Face­book und Google über­lassen. «Diese sitzen auf Bergen von Dat­en und haben einen gewalti­gen Vorteil.»

Wo öffentliche Daten­banken lan­den und wie sie genutzt wer­den, lässt sich allerd­ings schw­er kon­trol­lieren. Har­veys Recherchen zeigen: Auch Forsch­er von Fir­men, die ihre Tech­nik mil­itärischen Ein­rich­tun­gen zur Ver­fü­gung stellen, ver­wen­den sie. Sind sich die betrof­fe­nen Per­so­n­en nicht bewusst, dass ihre Auf­nah­men gesam­melt und zu solchen Zweck­en ver­wen­det wer­den, wirft das ethis­che Fra­gen auf. «Wahrschein­lich wären einige Leute sog­ar gerne Teil ein­er Daten­bank, denn dadurch wer­den sie in der Forschung repräsen­tiert», denkt Har­vey, «sie soll­ten diese Wahl aber bewusst tre­f­fen kön­nen und die möglichen Ver­wen­dungszwecke ken­nen.»

KI-Datenbanken entstehen auch in Zürich

Viele KI-Daten­banken kom­men aus den USA. Doch sie entste­hen auch ander­swo, zum Beispiel in der Schweiz. Bei seinen Recherchen ist Har­vey auf eine Video-Samm­lung gestossen, die in Zürich erstellt wurde, auf der Poly­ter­rasse der ETH. Sie ist nicht für Gesicht­serken­nung aus­gerichtet, son­dern für Algo­rith­men, die erken­nen sollen, ob sich Per­so­n­en im Sicht­feld ein­er Kam­era befind­en. Bei dem Pro­jekt han­delt es sich um eine Zusam­me­nar­beit der École Poly­tech­nique Fédérale de Lau­sanne (EPFL), der ETH Zürich und der Forschung­sein­rich­tung Idi­ap. Es fol­gt wie viele andere dem Prinzip «in the wild» – also dem­jeni­gen ein­er so natür­lichen Erhe­bung wie möglich. Und es wirft die Frage auf, ob sich die erfassten Per­so­n­en darüber im Klaren waren, was mit ihren Auf­nah­men geschieht.

 

2016 posi­tion­ierten Forsch­er vor dem Hin­ter­aus­gang der ETH sieben Kam­eras und filmten Studierende, Lehrper­son­al und Pas­san­ten, die durch das Feld liefen. Die Auf­nah­men zeigen das Treiben auf der Poly­ter­rasse zeit­gle­ich aus ver­schiede­nen Winkeln: Mehrheitlich junge Leute gehen an den Kam­eras vor­bei, ihre Gesichter sind gut erkennbar. Auch der Ton wird aufgenom­men. Viele der Anwe­senden scheinen der Aufze­ich­nung keine grosse Beach­tung zu schenken. Hie und da blickt jemand direkt in eines der Objek­tive. Ein junger Mann winkt, ein ander­er zeigt den Mit­telfin­ger.

 

Die Videos kön­nen auf der Web­site der EPFL aufgerufen wer­den. Zwar ist dort fest­ge­hal­ten, dass sie Dritte nur zu Forschungszweck­en nutzen dür­fen. Wer will, kann sie aber ohne Ein­schränkung herun­ter­laden. Die Daten­bank mit dem Namen Wild­track soll Meth­o­d­en der Per­son­en­erken­nung trainieren und testen. Die Anwen­dun­gen sind vielfältig. Die Tech­nik kommt laut den Forsch­ern hin­ter Wild­track zum Beispiel bei selb­st­fahren­den Autos zum Ein­satz oder, um Men­schen in ein­er Menge zu zählen.

 

Die Videos sind aber auch für Algo­rith­men nüt­zlich, die eine Per­son über mehrere Kam­eras als dieselbe erken­nen und so ver­fol­gen kön­nen. Forsch­er von Microsoft und Worm­pex, der Forschungsabteilung ein­er chi­ne­sis­chen Kette für kassen­lose Nach­barschaft­slä­den, erk­lärten in einem Paper, sie wür­den Tech­nolo­gie, die sie mit Wild­track und ein­er weit­eren Daten­bank getestet hät­ten, kün­ftig für diesen Zweck weit­er­en­twick­eln. Wis­senschafter der chi­ne­sis­chen Nan­jing Uni­ver­si­ty of Aero­nau­tics and Astro­nau­tics und der britis­chen Uni­ver­si­ty of Leices­ter zitierten die Daten­samm­lung in einem Doku­ment, bei dem es um die Weit­er­en­twick­lung von Drohnen geht, die Men­schen aus ein­er gewis­sen Ent­fer­nung als solche erken­nen sollen.

Wenn die Daten­samm­lung in diesem Zusam­men­hang einge­set­zt wor­den sei, würde ihn das erstaunen, erk­lärt François Fleuret, Wild­track-Pro­jekt-Ver­ant­wortlich­er am Insti­tut Idi­ap. Da die Auf­nah­mewinkel nicht diesel­ben seien, sei die Daten­bank für diesen Zweck schlecht geeignet. Sie sei defin­i­tiv nicht für Überwachung­stech­nolo­gien erstellt wor­den. 

Wurde ausreichend informiert?

Studierende und Dozen­ten der ETH wur­den laut der EPFL nicht im Vor­feld über die Aufze­ich­nung informiert. Man habe aber die nöti­gen Vorkehrun­gen getrof­fen, erk­lärt die Press­es­telle in Lau­sanne: Die Bewil­li­gungsstelle der ETH Zürich habe eine Bewil­li­gung erteilt (diese stellt den Daten­schutz in die Ver­ant­wor­tung des Antrag­stellers, in diesem Fall laut ETH ein Angestell­ter von Idi­ap). Die Kam­eras seien gut sicht­bar gewe­sen. Wer nicht durch das Auf­nah­me­feld gehen wollte, hätte leicht auswe­ichen kön­nen. Schilder an den Kam­eras hät­ten angegeben, dass ein Dreh stat­tfand – zu Forschungszweck­en. Unter ein­er E‑Mail-Adresse hät­ten gefilmte Per­so­n­en die Löschung ihrer Sequenz fordern kön­nen. Das habe nie­mand getan.

 

Wofür genau ihre Auf­nah­men ver­wen­det wer­den, wurde den gefilmten Per­so­n­en, auss­er auf Nach­frage, aber offen­sichtlich nicht mit­geteilt. Noch kon­nten sie wohl damit rech­nen, dass die Videos anschliessend im Inter­net ste­hen, wo sie – trotz dem Hin­weis – nicht nur Forschungsin­sti­tute, son­dern auch andere Nutzer herun­ter­laden kön­nen.

Roland Math­ys, Recht­san­walt in Zürich mit Schw­er­punkt Daten­schutz, der die Videos ein­se­hen kon­nte, sieht in dem Vorge­hen «zumin­d­est Verbesserungspoten­zial». Man hätte Studierende und Lehrper­son­al detail­liert­er und bere­its im Vor­feld informieren kön­nen. Die For­mulierung, dass «zu Forschungszweck­en» gefilmt würde, hält er für zu all­ge­mein. Grund­sät­zlich müsse es Per­so­n­en möglich sein, zu erken­nen, dass gefilmt werde, bevor sie den Auf­nah­me­bere­ich beträten. Dass das in diesem Fall so gewe­sen sei, bezwei­fle er. Als «prob­lema­tisch» stuft er ein, dass die Videos, auf denen die Per­so­n­en gut erkennbar sind, offen ins Netz gestellt wur­den.

«Hät­ten wir die Gesichter unken­ntlich gemacht, hätte das die Übungs­dat­en ver­fälscht», erk­lärt François Fleuret. Luc Van Gool von der ETH, der Teil des Wild­track-Forscherteams war, sieht das gle­ich. Er räumt aber ein, dass man Daten­banken hin­ter eine Schranke stellen kön­nte, so dass Forsch­er, die diese nutzen woll­ten, darum anfra­gen müssten.

Studierende der ETH waren von den Auf­nah­men über­rascht. Sehr gross­es Kopfzer­brechen scheinen sie ihnen allerd­ings nicht zu bere­it­en. «Ich kann mich dunkel an die Kam­eras erin­nern», sagt Tier­ry Hör­mann. Der 24-jährige Infor­matik­stu­dent ist Vor­sitzen­der des Studieren­den­ver­ban­des der ETH. Zu welchem Zweck damals gefilmt wurde, wusste er nicht. «Im Sinne der Forschung finde ich per­sön­lich das aber in Ord­nung», sagt er. Sein Kol­lege Flo­ri­an Moser ist kri­tis­ch­er. «Ich würde mich so ein­er Aufze­ich­nung gerne entziehen.» Er wolle nicht zu ein­er Tech­nik beitra­gen, bei der man nicht auss­chliessen könne, dass sie zur Überwachung einge­set­zt werde. «Auch dass die Videos im Inter­net frei abruf­bar sind, ist für mich nicht okay.» Aber, fügt er hinzu, auch er gewichte das Inter­esse der Forschung höher. Und andere Unternehmen und Insti­tute gin­gen beim Daten­sam­meln im Inter­net um einiges schlim­mer vor. Schliesslich wür­den unsere Infor­ma­tio­nen heute ohne­hin über­all abge­grif­f­en.

Quelle: www.nzz.ch