Artificial Intelligence in de media: we schuiven de schuld af.
“Het discriminerende algoritme. Hoe treden we op tegen de uitwassen van kunstmatige intelligentie?”, www.rodehoed.nl, 30 september 2019.
“Kan kunstmatige intelligentie racistisch of seksistisch zijn”, www.nos.nl, 30 mei 2019.
Het lijkt wel een internationale hobby geworden: de schuld neerleggen bij Artificial Intelligence (AI), ook wel kunstmatige intelligentie genoemd. Formuleringen die door en in de media worden gebruikt om AI te beschrijven, doen vermoeden dat computers en robots onze maatschappij overnemen. Bewoordingen zoals “Het gevaar van kunstmatige intelligentie” zijn eerder regel dan uitzondering. Maar heeft AI eigenlijk wel schuld? En zo ja, waaraan dan precies?
In AI wordt er onderscheid gemaakt tussen narrow AI en general AI. We spreken over narrow AI, ook wel beperkte AI genoemd, als we verwijzen naar de technologie die er nu is. Denk aan de ‘speciaal uitgekozen‘ sectie bij Netflix. Gebaseerd op de films die je al gezien hebt, maakt Netflix voorspellingen over films die je mogelijk ook bevallen. Producten die de Albert Heijn afprijst op basis van de houdbaarheidsdatum (hoe korter de houdbaarheid, hoe hoger de korting die de klant ontvangt): ook AI.
Machine learning (ML) is een van de meest gebruikte vormen van AI. ML betreft het ontwikkelen van algoritmes om ‘machines te laten leren’, vaak gericht op het doen van voorspellingen (bijvoorbeeld om het weer of de kans dat iemand ooit een bepaalde ziekte krijgt, te voorspellen). Algoritmes kunnen worden beschouwd als een reeks instructies (als X > dan Y) gericht op het oplossen van een probleem. Veel dingen kunnen dan ook doorgaan voor een algoritme. Zelfs een recept voor een goede risotto kan worden gezien als een algoritme: als alle bouillon is geabsorbeerd > voeg nog wat bouillon toe (het probleem dat door dit algoritme dient te worden opgelost is natuurlijk de risotto niet te verprutsen!). U neemt voor het eerst deel aan een 5 kilometer loop? Maak gebruik van een algoritme! Maak en houd u aan een trainingsschema > slaap voldoende en eet gezond > eet minstens 2 uur voor de race een goede maaltijd > warming-up > GO!
Vaak geldt: hoe meer data, hoe nauwkeuriger een algoritme in staat is om een probleem op te lossen of een voorspelling te doen. Als we naar Netflix kijken, betekent dit dat als u vaker een romcom gezien hebt met in de hoofdrol uw favoriete actrice Jennifer Aniston, het algoritme u waarschijnlijk de volgende keer wél een romcom met Sandra Bullock aanbeveelt, maar niet die bekende horrorfilm met die enge clown. De voorspelling van het Netflix algoritme is erop gericht om u filmvoorkeuren zo goed mogelijk te voorspellen. Hoe beter de voorspelling, hoe groter de kans dat u de aanbevolen film ook daadwerkelijk kijkt en waardeert, hoe kleiner de kans dat u het abonnement opzegt én hoe groter de kans dat u Netflix aanbeveelt bij vrienden.
General AI, ook wel sterke AI genoemd, betreft de voorbeelden die Hollywood ons voorschotelt (als het goed is hoort u nu de woorden “I’ll be back” in uw hoofd): robots die kunnen denken als mensen, dezelfde vormen van intelligentie hebben en bewustzijn hebben. Het is deze vorm van AI waaraan mensen denken als ze het hebben over robots die de wereld overnemen. Deze vorm van technologie bestaat echter niet.
In tegenstelling tot hoe de term machine learning doet vermoeden, leren machines en computers, niet zoals mensen. Computers die ‘leren’ komen niet in de buurt van hoe ons menselijk brein leert en functioneert. Ja, computers kunnen voorspellingen doen door middel van algoritmes en zodoende bijvoorbeeld de beste menselijke schaker ter wereld verslaan. Echter, als je diezelfde computer ‘vraagt’ om een rondje te gaan wandelen en tegelijkertijd een gesprek te voeren, gaat het mis. Computers bezitten dus, in tegenstelling tot mensen, en in tegenstelling tot wat vaak gedacht wordt, géén intelligentie. In ieder geval niet de vorm van intelligentie die mensen toebedeeld krijgen. Computers varen op menselijke input. Als we, als mensen, computers ‘voeren’ met slechte informatieve, levert het ook slechte informatie op. Kortom, rotzooi erin > rotzooi eruit.
Een voorbeeld: detectiesystemen die bepalen of een gezicht aanwezig is in bijvoorbeeld een grote menigte. Deze AI-systemen dienen in staat te zijn om elk gezicht op een adequate manier te identificeren, bijvoorbeeld om onderscheid te kunnen maken tussen een persoon die door de politie gezocht wordt en iemand die dat niet wordt. Om dit te bereiken, wordt een AI-systeem getraind op duizenden, misschien wel miljoenen gezichten. Maar wat als die gezichten veelal gezichten van blanke witte mannen betreffen? In de praktijk blijkt dat de inzet van sommige van deze systemen bepaalde demografische groepen benadelen. Mensen met een donkere huidskleur worden bijvoorbeeld vaker verkeerd geïdentificeerd dan blanke mensen (klik hier voor meer informatie). Met andere woorden: een persoon met een donkere huidskleur heeft een grotere kans om aangezien te worden voor iemand anders dan een blank persoon. Dit lijkt mogelijk niet zo heel problematisch totdat u wordt opgepakt omdat u voor een persoon wordt aangezien die een overval gepleegd heeft. Op basis van AI-systemen zijn al beslissingen genomen op het gebied van hypotheekverstrekkingen, banen en zelfs gevangenisstraffen. Met alle gevolgen van dien.
De vraag is nu wie schuld treft als dergelijke algoritmes leiden tot discriminerende en valse resultaten. Als we de bewoordingen van en in de media moeten geloven, is AI verantwoordelijk. Gegevens worden echter verzameld en opgeslagen door mensen; algoritmes zijn ontwikkeld door mensen. Als het gebruik van algoritmes, en dus AI, negatieve gevolgen kan hebben, maar door mensen is ontwikkeld, wie is de schuldige? Computers die geen intelligentie en bewustzijn hebben of mensen die dat wel hebben?
Waarom wind ik me zo op over de berichtgeving betreffende AI? Welnu, dergelijke formuleringen voeden de angst van mensen voor AI. Maar wacht eens even? Je zei net dat het gebruik van AI schadelijk kan zijn! Dat kan het zeker. Maar men kan ook schade aanrichten met een mes. En daar hebben we er ook genoeg van liggen in onze keukens. Als het gebruik van AI leidt tot onaangename en zelfs catastrofale beslissingen, dan is dit niet de schuld van AI, maar van ons mensen. Ooit de volgende zinnen in de media gelezen? “We moeten bang zijn voor messen” of “Zijn messen goed?”? I don’t think so.
Terwijl wij, mensen, deze algoritmes ontwikkelen en implementeren, schuiven we de schuld af op computers, op AI, op deze algoritmes. Als mens moeten we echter onze rol in AI herkennen, erkennen en ernaar handelen. Laten we dus beginnen met het gebruik van woorden en zinnen in en door de media die de waarheid weerspiegelen: als er iets misgaat door het gebruik van AI, zijn wij mensen schuldig. Computers, AI, ML, en algoritmes kunnen niet denken en nemen geen beslissingen. Dat doen mensen. Wij zijn verantwoordelijk. Althans, voorlopig nog …