Heeft AI altijd gelijk?

Fail! 

Opgelet 

Een AI-model is maar zo goed als de data waar het van leert. Het heeft voldoende data nodig, maar het moeten ook zeker goede data zijn. Dat is logisch. Jij kan ook geen moeilijke wiskundige vergelijkingen oplossen als je niet goed hebt geleerd hoe dat moet. Bij AI is dat net hetzelfde.  

Zaten er fouten in de data of waren er niet genoeg voorbeelden? Dan maakt het AI-model misschien regelmatig een foute voorspelling en heb je dus verkeerde resultaten. 

Een tijdje geleden maakte Googles nieuwe AI-zoekmachine vaak zo’n grappige/gevaarlijke fouten.  

Het dacht dat mopjes een bron van echte informatie waren. Als je bijvoorbeeld vroeg hoe je ervoor zorgt dat kaas niet van je pizza glijdt, dan antwoordde het dat je best wat lijm toevoegt aan de saus.

Nee, Google, nee.

Bias  

Soms geeft AI ook een slecht resultaat, omdat het leert van data die niet divers genoeg zijn of die niet goed de werkelijkheid weergeven. Dan spreken we van ‘bias’.  

Zo is er bijvoorbeeld een heel bekend voorbeeld met husky’s en wolven. Onderzoekers trainden een AI-model om het verschil te herkennen tussen husky’s en wolven. Maar dat werkte niet goed. Het AI-model zei ‘husky’ bij een foto van een wolf. Wat bleek? Het lag aan de fotosets waarmee ze het AI-model hadden getraind.  

Zie jij het grootste verschil?  

BlurHashhusky
BlurHashwolf

Het AI-model weet niet dat het op dieren moet letten. Het zoekt gewoon naar patronen die kenmerkend zijn voor elk van de twee fotosets. Hier zie je op welke pixels het AI-model in een foto lette:  

BlurHashhusky sneeuw

Inderdaad, het AI-model lette vooral op de sneeuw. De voorbeeldfoto’s van husky’s hebben allemaal sneeuw op de achtergrond. Als je dan een foto van een wolf geeft in de sneeuw, beslist het AI-model ‘Ah, dat is een husky’.  

Extra bias 

Stel, we willen een AI-model trainen om gezichten te herkennen. 

Is dit dan een goede fotoset, denk je?  

BlurHashdataset gezichten

Nee! Want daar zit niemand bij met een donkere huidskleur. Dat AI-model gaat dus nooit leren om gezichten te herkennen van mensen met een donkere huidskleur. En dat niet alleen. Iedere foto heeft ook een egale (vooral witte) achtergrond en iedereen kijkt mooi recht in de camera. Dat is niet handig als je bijvoorbeeld gezichten wil spotten op beelden van bewakingscamera’s. Daar zullen gezichten meestal geen egale achtergrond hebben én ze kunnen ook gedraaid zijn. 

De dataset waarmee je een AI-model traint is dus heel belangrijk, want die bepaalt mee hoe goed of slecht het gaat zijn in bepaalde taken. Daarom is het heel belangrijk dat mensen die AI trainen, zorgen dat er voldoende variatie in de data zit.  

Ontdek hier hoe AI zou kunnen helpen bij de zorg voor oceanen. Als die tenminste goed getraind is. 

Hallucinaties  

Soms kan AI ook dingen zeggen alsof ze waar zijn, maar die eigenlijk helemaal fout zijn. Dan ‘hallucineert’ het. Dat heb je misschien al gemerkt bij ChatGPT. Vraag maar eens ‘Schrijf een Wikipedia-pagina over …’ en schrijf dan de voor- en achternaam van iemand die niet heel bekend is (bv. een klasgenoot). Dan durft ChatGPT wel eens dingen te zeggen waarin je die persoon waarschijnlijk niet zal herkennen.  

Vandaar dat je altijd beter checkt of het wel klopt wat AI-modellen zeggen. 

In’t kort: 

  • AI kan fouten maken. 

  • Als AI leert van data die niet goed de werkelijkheid weergeven, kan dat zorgen voor slechte – en soms zelfs racistische of discriminerende – resultaten. Dat heet ‘bias’. 

  • AI kan ook ‘hallucineren’. Dan zegt het AI-model dingen alsof ze waar zijn, maar die eigenlijk niet kloppen.