L’IA a-t-elle toujours raison ?

Fail! 

Attention 

Un modèle IA n’est aussi bon que les données sur lesquelles il se base. S’il lui faut un nombre suffisant de données, il est aussi essentiel que ces données soient de qualité. C’est logique. Toi non plus tu ne peux pas résoudre d’équations mathématiques difficiles avant d’avoir appris comment faire. Avec l’IA, c’est la même chose.  

Si les données fournies étaient erronées ou les exemples corrects pas assez nombreux, le modèle IA risque de souvent se tromper dans ses prédictions, ce qui te donnera des résultats incorrects. 

Il y a quelque temps, le nouveau moteur de recherche IA de Google commettait souvent ce genre d’erreur amusante/dangereuse.  

Il confondait blagues et vraies sources d’information. Par exemple, si tu lui demandais comment faire pour éviter que le fromage ne glisse de ta pizza, il te conseillait d’ajouter de la colle dans la sauce.  

Comment faire pour que le fromage d’une pizza ne glisse pas ?

Mélange la sauce : si tu mélanges du fromage à la sauce, il absorbera le liquide et asséchera la sauce. Tu peux aussi ajouter environ 50 ml de colle non toxique à la sauce pour plus d’adhérence.  

Non, Google, non. 

Biais  

Parfois, l’IA donne un mauvais résultat, car elle apprend à partir de données qui ne sont pas assez diverses ou qui ne reflètent pas correctement la réalité. C’est ce qu’on appelle un biais.  

Tu connais peut-être cet exemple très connu avec des huskies et des loups. Des chercheurs ont entraîné un modèle IA à faire la différence entre des huskies et des loups. Mais cela ne fonctionnait pas bien. Le modèle IA pensait voir un husky sur une photo de loup. Pourquoi ? On a découvert que cela était dû aux groupes de photos que les chercheurs avaient utilisés pour entraîner l’IA.  

Vois-tu la différence principale ?  

BlurHashhusky
BlurHashwolf

Le modèle IA ne sait pas ce qu’il doit comparer chez ces animaux. Il se contente de rechercher des motifs communs aux photos d’un même ensemble. Ici, tu peux voir sur quels pixels le modèle IA s’est concentré dans une photo :  

BlurHashhusky sneeuw

Hé oui, le modèle IA s’est surtout concentré sur la neige. Les photos d’exemples de huskies présentent toutes de la neige en arrière-plan. Dès lors, si tu lui montres une photo d’un loup dans la neige, le modèle IA conclura « Ah, c’est un husky ».  

Biais supplémentaires 

Imagine que tu souhaites entraîner un modèle IA à reconnaître des visages. 

Ce groupe de photos est-il approprié, selon toi ?  

BlurHashdataset gezichten

Non ! Il n’y a aucune représentation de personne à la peau foncée. Ce modèle IA n’apprendra donc jamais à reconnaître les visages de personnes à peau foncée. Et ce n’est pas tout. Chaque photo présente aussi un arrière-plan semblable (à prédominance blanche) et tout le monde regarde droit vers la caméra. Ce n’est pas pratique si tu veux, par exemple, identifier des visages sur les images d’une caméra de surveillance. Sur ces images, les arrière-plans sont généralement différents et les visages peuvent aussi être tournés, de profil par exemple. 

L’ensemble de données utilisé pour entraîner un modèle IA est donc très important, car il impactera sa performance. C’est pourquoi les personnes qui entraînent une IA doivent être attentives la diversité des données.  

Découvre ici comment l’IA pourrait contribuer à la préservation des océans. Si elle est bien entraînée, du moins. 

Hallucinations  

Il arrive que l’IA dise des choses qui paraissent vraies, mais sont en fait complètement fausses. On dit alors qu’elle « hallucine ». Tu l’as sans doute déjà constaté chez ChatGPT. Demande-lui un peu « Écris une page Wikipédia sur... » et écris le prénom et le nom d’une personne pas très connue (une camarade de classe, par exemple). ChatGPT n’aura pas le moindre scrupule à te raconter des choses qui n’ont rien à voir avec cette personne.  

N’oublie pas, il faut donc toujours vérifier si ce que disent les modèles IA est vrai.