En 2014, le film The Imitation Game est sorti. Il mettait en avant Alan Turing, mathématicien et auteur de travaux qui fondent l’informatique. Si le long métrage n’en parle pas vraiment, Alan Turing a mis au point le test de turing : une proposition de test d’intelligence artificielle fondée sur la faculté d’une machine à imiter la conversation humaine. Et aujourd’hui, vous l’avez déjà certainement tous et toutes testé : les chatbots sur les sites de vente en ligne qui répondent à vos questions en tant que client et cliente.
Mais les machines pensent-elles toutes seules ou imitent-elles le raisonnement humain? Plutôt que de programmer des logiciels pour leur faire exécuter des tâches selon des scénarii prédéfinis, aujourd’hui, on demande aux algorithmes de trouver eux-mêmes la règle en se fondant sur l’exemple. Avec bien entendu, des erreurs. Et c’est ainsi qu’on se retrouve en 2021 sur Facebook.
Vous savez, quand on regarde des vidéos sur les réseaux sociaux, souvent, en fin de visionnage, on vous suggère de matter des contenus similaires. Et bien, en 2021, un scandale éclate. En effet, après une vidéo du Daily Mail, intitulée “un homme blanc appelle les flics contre des hommes noirs à la marina”, Facebook affichait la question : voir plus de vidéos sur les primates ? Comme quoi, un algorithme peut être raciste.
On a souvent l’impression que l’intelligence artificielle, c’est une boite noire qui prend des décisions toutes seules de manière neutre. Pourtant, ces décisions ont bien été encodées d’une manière ou d’une autre. Et cette semaine, j’ai été interviewé Maxime Verbesselt pour causer de ça. Il est chargé de projet chez Action Médias Jeunes, une organisation jeunesse d’éducation aux médias qui propose des animations autour des enjeux numériques.
La notif, c’est le podcast du numérique pédagogique. Bonne écoute !
--
Ce projet a été mené en 2021-2022 dans le cadre du projet Teach Transition pour le NUMEFA en collaboration avec l'UMONS et l'Edulab by TechnofuturTIC.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.