『L'IA aujourd'hui épisode du 2025-10-31』のカバーアート

L'IA aujourd'hui épisode du 2025-10-31

L'IA aujourd'hui épisode du 2025-10-31

無料で聴く

ポッドキャストの詳細を見る

このコンテンツについて

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : emploi et environnement, fiabilité des chatbots et risques d’empoisonnement, qualité des sources médicales, sécurité des packages JavaScript, et éclairage sur LLaMA 3.D’abord, l’impact économique et écologique. Amazon annonce 14 000 suppressions de postes, justifiées par l’automatisation via l’IA, moins coûteuse selon l’entreprise. Microsoft et Meta suivent le mouvement avec des plans de licenciements similaires, dans une logique de réduction des coûts humains tandis que les investissements dans l’IA s’accélèrent. Côté énergie, la demande explose: Google relance la centrale nucléaire Duane Arnold, fermée depuis cinq ans, pour alimenter ses infrastructures. La consommation mondiale d’électricité grimpe en partie à cause des usages IA, très énergivores. L’eau aussi est sollicitée pour le refroidissement des serveurs: Google a consommé 17 % d’eau en plus en 2023. En coulisses, une armée de micro-travailleurs, souvent précaires, alimente l’entraînement des modèles. Josse, étudiant à Rouen, en est un exemple: tâches répétitives, faible rémunération, peu de droits.Sur la fiabilité, un rappel venu du terrain juridique: l’analogie du “stagiaire de première année” masque des risques spécifiques. Les modèles peuvent générer des citations de jurisprudence inexistantes ou des hallucinations subtiles — dates modifiées, éléments de tests juridiques altérés — tout en produisant un texte fluide qui inspire une confiance excessive. Autre écueil, la “fidélité”: des explications plausibles sur le raisonnement du modèle qui ne correspondent pas à ce qu’il a réellement fait. Les usages professionnels exigent donc des protocoles de vérification dédiés.Ce constat rejoint une étude récente de l’Union Européenne de Radio-Télévision: environ 37 % des réponses de chatbots sont incorrectes, en amélioration par rapport à la moitié auparavant, mais 45 % contiennent au moins une erreur et 31 % citent des sources inexactes. Copilot, ChatGPT, Perplexity et Gemini ont été testés, ce dernier s’en sortant mal dans ce panel. Les causes sont multiples: associations probabilistes erronées, données d’entraînement déjà fausses, et apprentissage par renforcement qui peut encourager l’invention plutôt que l’aveu d’ignorance. Une enquête indique qu’un tiers des adultes au Royaume-Uni feraient entièrement confiance à l’IA, moitié chez les moins de 35 ans. Les auteurs appellent à mieux prioriser la lutte contre la désinformation, à offrir des contrôles aux éditeurs — notamment des citations uniformes — et à clarifier la responsabilité des fournisseurs, d’autant que les réponses ne sont pas toujours reproductibles.Autre risque, l’empoisonnement des modèles. Une étude conjointe montre que l’ajout de seulement 250 fichiers malveillants dans un corpus de millions peut suffire à altérer discrètement un modèle. On distingue l’empoisonnement des données (pendant l’entraînement) et celui du modèle (après), avec deux familles d’attaques. Ciblées: les “backdoors” qui s’activent via un mot déclencheur, par exemple “alimir123” pour provoquer une réponse insultante sur une personne donnée. Non ciblées: le “topic steering”, qui inonde le web de contenus biaisés, comme “manger de la laitue guérit le cancer”, récupérés ensuite par le modèle. Une publication en médecine a montré que remplacer 0,001 % du jeu d’entraînement par de la désinformation médicale suffit à accroître la diffusion d’erreurs dangereuses, sans dégrader les scores standards. À noter, en 2023, un bug a brièvement exposé des titres de conversations d’utilisateurs. Certains artistes emploient désormais l’empoisonnement comme défense pour dégrader les modèles qui aspirent leurs œuvres.Face à ces défis, le contrôle des sources prouve son efficacité dans la santé. Une évaluation de LLM assistés par recherche web en neurologie — Sonar, Sonar-Pro et Sonar-Reasoning-Pro — montre qu’activer un “whitelisting” vers des domaines autorisés comme aan.com et neurology.org améliore la précision de 8 à 18 points. Sonar passe ainsi de 60 % à 78 % de bonnes réponses. Les sources non professionnelles divisent par deux la probabilité d’avoir juste, alors que citer des documents AAN ou de neurologie la double. Cette méthode convertit un outil grand public en assistant de décision clinique fiable, avec un effet qui dépendra toutefois des lignes directrices disponibles dans chaque spécialité.Côté outils, les développeurs JavaScript peuvent prévenir les risques à l’installation de packages avec NPQ. Contrairement à npm audit, qui agit après coup, NPQ audite avant l’installation. Usage: npx npq install express, ou installation globale avec npm install -...
まだレビューはありません