WHO DUNNIT #6
Wie is de dader?
Als je zelf een auto bestuurt en er gebeurt plots iets, reageer je door je reflexen automatisch. Je hebt geen tijd om na te denken en bewust een beslissing te nemen. Maar een zelfrijdende auto moet getraind worden met data die wij invoeren. De auto beslist op basis van wat hij geleerd heeft. Dus we moeten bedenken welke prioriteiten de auto zou moeten stellen.
Wat gebeurde er al?
Dit zijn de beslissingen die de mensen gemiddeld wereldwijd nemen in het spel achter jou:
Bron: Awad et al. 2018
Ga jij akkoord?
Meer AI en who dunnit
We weten niet altijd waarom AI bepaalde beslissingen neemt. De AI-bedrijven weten wel welke data ze erin hebben gestopt. En we weten welke output eruit komt. Maar hoe het systeem precies
tot dat resultaat komt, dat weten we soms niet. Dat noemen we dan de black box. Het systeem is niet transparant.
Stel dat de auto iemand aanrijdt:
wie is er dan verantwoordelijk? De autofabrikant? De bestuurder van de zelfrijdende auto? Of de mensen die het AI-systeem getraind hebben?
AI rechter
In de rechtszaal kan AI ook veel betekenen. Om de achterstand in dossiers weg te werken, zouden rechters de hulp in kunnen roepen van AI. Die baseert zich dan op eerdere rechtszaken om uitspraken te doen. Maar wat als een AI-systeem iemand schuldig verklaart en je weet niet echt waarom? Is dat dan oké?
Killer drones
En als je een zelfrijdende auto al eng vindt, wat denk je dan van killer drones? Dat zijn drones die zelfstandig, zonder menselijke controle, aanvallen kunnen uitvoeren. In 2020 zou zo’n drone in Libië mensen hebben opgespoord en aangevallen. Hoe voel je je daarbij?
Positieve noot
António Guterres, secretaris-generaal van de Verenigde Naties, vindt dat ook gevaarlijk. Hij vindt dat alleen mensen mogen beslissen over het gebruik van kernwapens. Niet machines of AI. De Verenigde Naties is een wereldwijde organisatie die zich inzet voor vrede. Bijna alle landen ter wereld zijn lid. Guterres is nu de leider van de Verenigde Naties.
Gelukkig bestaat er ook iets als explainable AI. Bij explainable AI wordt uitgelegd op welke basis de AI een bepaalde beslissing neemt of voorspelling doet. Er is dan geen black box.
Er zijn ook bedrijven bezig met ethische AI. Google heeft bijvoorbeeld al regels opgesteld waaraan hun AI-producten moeten voldoen. Ook de Europese Unie heeft richtlijnen voor betrouwbare AI gepubliceerd.
In’t kort:
Wij maken soms beslissingen op reflex, bijvoorbeeld bij een gevaarlijke verkeerssituatie.
Willen we dat AI deze beslissingen voor ons neemt? Dan moeten we daar goed over nadenken.
Het is niet altijd duidelijk waarop een AI-systeem z’n beslissingen baseert.
Loopt er iets mis? Wie is er dan verantwoordelijk?