BIAS #3

BlurHashwhatsapp3

Help! Mijn AI-model discrimineert! 

AI-systemen wereldwijd tonen vooroordelen of bias. En die vooroordelen zijn niet onschuldig. We weten immers niet altijd waar AI zijn beslissingen op baseert. De bedrijven weten wel waar de training op gebaseerd is (data). En we zien wat eruit komt (resultaat). Maar hoe het AI-systeem tot die output komt, weten we niet altijd precies. Dat noemen we de black box (zie verder). Denk maar eens aan de mogelijke gevolgen. 

Wat gebeurde er al? 

Geen vrouwen bij Amazon 

Amazon ontdekte in 2015 dat hun AIsysteem mannelijke kandidaten verkoos voor technische jobs. Waarom? Niet omdat ze beter waren, maar omdat het systeem was gevoed met de cv’s van de mensen die in de afgelopen 10 jaar waren ingediend. De meeste daarvan waren van mannen, dus  besliste het AI-systeem dat mannen beter waren voor de job. 

Slechtere schoolresultaten voor armere leerlingen 

In het Verenigd Koninkrijk konden leerlingen tijdens de coronapandemie niet meedoen aan de algemene examens. Een AI-systeem bepaalde daarom welke score ze zouden krijgen. Het resultaat? Het systeem gaf hogere cijfers aan jongeren uit rijke buurten en lagere cijfers aan jongeren uit arme buurten. Dit kwam doordat het model was getraind met data uit eerdere jaren, waarin leerlingen uit rijke buurten het vaak beter deden. 

Stel je maar eens voor dat je keihard gewerkt hebt, als persoon uit een armere buurt en toch slechte punten krijgt. 

Minder zorg voor Afro-Amerikanen 

Een AI-systeem voor Amerikaanse ziekenhuizen concludeerde dat Afro-Amerikanen minder zorg nodig hadden. 

Het systeem hield rekening met de kosten die in het verleden gemaakt werden aan zorg. Die lagen lager bij Afro-Amerikanen dan bij witte Amerikanen. Daarom werd, onterecht, aangenomen dat Afro-Amerikanen gezonder zijn dan witte Amerikanen. 

Zwarte nazi’s  

Het omgekeerde gebeurde ook al: met Google Gemini werden historische afbeeldingen gemaakt. Maar omdat Google diversiteit belangrijk vindt, stak het een correctie in zijn systeem om meer diverse resultaten te bekomen. Daardoor kwamen daar ook misleidende resultaten uit, zoals een zwart persoon als nazisoldaat. 

Positieve noot 

Als we ons bewust zijn van deze bias, kunnen we er iets aan doen. We kunnen diverse teams laten werken aan AI-systemen. Zo sluipen stereotypen er minder gemakkelijk in. We kunnen ook op zoek gaan naar meer diverse data. Zo zal de output diverser worden.  

Er werden ook al andere oplossingen bedacht. Bijvoorbeeld Missjourney, een AI-tool die alleen afbeeldingen van vrouwen maakt voor beroepen als CEO, wetenschapper, astronaut of ingenieur. 

Er bestaat ook zoiets als explainable AI. Dat is een set van tools en methodes die je kan uitleggen hoe een AI-systeem tot zijn beslissing is gekomen. Zo kunnen we zien waar de vooroordelen zitten. Dat komt van pas bij diagnoses. Dokters kunnen pas vertrouwen op de diagnose van een AI-systeem als die ook kan uitleggen hoe het tot die diagnose komt. 

In’t kort: 

  • AI kan vooroordelen en stereotypes versterken.  

  • Dat kan gevaarlijk zijn.  

  • Het is belangrijk dat we ons hiervan bewust zijn. Zo kunnen we hiermee rekening houden, of AI-systemen corrigeren.