De controverse rond het gevaar dat Artificiële Intelligentie voor ons inhoudt is opnieuw in de belangstelling. Het VRT-nieuws van 2 mei rapporteert uitgebreid over een topman bij Google Research die waarschuwt voor de gevaren, en tracht – maar faalt – te duiden waarover het precies gaat. Oud nieuws, eigenlijk; beroemdheden zoals Elon Musk, Bill Gates en Steven Hawkings deden dat al enkele jaren geleden.
A.I. is niet incompetent, noch gevaarlijk op zich. Menselijke wereldkampioenen in het schaken maken geen enkele kans om de top-schaaksystemen te verslaan. In het bordspel GO, decennialang beschouwd als een uitdaging die A.I. nooit zou halen, zijn deze systemen nu al jaren dominant. Menselijke vertalers, bijvoorbeeld voor Chinees-Engels, dienen het af te leggen tegen hun artificiële wederhelften. Het lijstje van specifieke taken waarin A.I. het beter doet dan de mens groeit vrijwel dagelijks.
Echter, A.I. heeft heel duidelijke grenzen: taken waarop het de competentie van de mens helemaal niet benadert. Een zeer centrale onvolkomenheid daarbij is het inschatten en maken van morele keuzes. Niet dat hierrond geen onderzoek is gebeurd: MIT heeft al jaren een intensief onderzoeksprogramma over moraliteit. Maar de vooruitgang gaat traag.
Wat A.I. “gevaarlijk” maakt is niet de technologie op zich, maar wel het gebruik van A.I. voor taken die het niet aankan. De fouten die gemaakt worden en die gevaar veroorzaken liggen bij ontwikkelaars, bij bedrijven die de A.I. gebruiken en bij eindgebruikers. Enkele voorbeelden: een A.I.-systeem kan, ongetwijfeld, beter dan een mens beslissen welke werknemers in een bedrijf best ontslagen worden. Het kan dat doen op basis van de analyse van massale hoeveelheden bedrijfsinformatie. Maar enerzijds is het niet aanvaardbaar dat een machine deze keuzes maakt, en anderzijds neemt zo’n A.I.-systeem niet de morele, menselijke factoren in rekening, die een HR-manager moreel gezien wel behoort te overwegen. Een ander voorbeeld, getrokken uit de recente mediaberichtgeving: “Man pleegt zelfmoord na gesprekken met een A.I. chatbot”. Gedeprimeerde mensen plegen zelfmoord, na gesprekken met een chatbot. Zo’n chatbot kan een heel overtuigende imitatie maken van een chat met een echte persoon. Maar opnieuw, die chatbot heeft niet het moraliteitsbesef van een mens.
Wie gaat hier in de fout? Zeker de ontwikkelaars die hun klanten (bedrijven) en de eindgebruikers beter moeten informeren van de beperkingen van de technologie. Ook de bedrijven die hierop inzetten hebben diezelfde verantwoordelijkheid. Maar uiteindelijk begaan ook gebruikers de cruciale fout om een programma te vertrouwen met hun eigen leven als inzet.
A.I. doet het goed. Misschien moeten mensen het iets beter gaan doen om correct met A.I.-technologie om te gaan. De wetgeving tracht hier al jaren iets aan te doen, maar ook dit vordert te traag. Bewustmaking (dank u DLW) staat centraal.
Een bijdrage van Prof. Daniel de Schreye aan De Liberale Wereld