『L'IA aujourd'hui épisode du 2025-10-28』のカバーアート

L'IA aujourd'hui épisode du 2025-10-28

L'IA aujourd'hui épisode du 2025-10-28

無料で聴く

ポッドキャストの詳細を見る

このコンテンツについて

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : désinformation électorale et récit du “risque existentiel”, navigateurs IA et vie privée, qualité des données pour les LLM, entreprises et IA Act, virage EdTech dans le supérieur, extraits IA non étiquetés chez Google, petits modèles et open access, et fin de ChatGPT sur WhatsApp.D’abord, le débat sur les risques de l’IA. Tandis qu’une nouvelle déclaration appelle à interdire la “superintelligence” jusqu’à un consensus scientifique et une implication du public—signée notamment par Geoffrey Hinton, le prince Harry, Richard Branson, Steve Bannon et Glenn Beck—une manipulation bien concrète surgit en Irlande : une vidéo deepfake imitait un reportage de RTÉ annonçant le retrait de la candidate Catherine Connolly, donnée favorite avant le scrutin présidentiel du 24 octobre. Les plateformes de Meta et YouTube ont retiré tardivement les copies, après une diffusion déjà large. L’origine reste inconnue. Cet épisode illustre des effets actuels de l’IA générative sur l’information, loin du scénario de type “Matrice” mis en avant par certains dirigeants du secteur.On enchaîne avec Google, pris en train de tester des extraits générés par IA sans label Gemini. Rajan Patel a reconnu un test qui pourrait ne jamais être lancé et un bug expliquant l’absence de marquage, corrigé en cours. Un exemple d’extrait conseillait d’apprendre JavaScript via des projets et de la documentation : étiqueté sur mobile, pas sur desktop.Côté produits, OpenAI lance ChatGPT Atlas, un navigateur IA disponible mondialement, pour l’instant sur macOS. Windows, iOS et Android sont annoncés. Atlas fusionne une expérience ChatGPT à la navigation : barre en langage naturel, favoris, onglets, mode incognito, réponses générées, onglets Web/Image/Vidéo. L’Electronic Frontier Foundation alerte sur la collecte de données sensibles, y compris médicales et bancaires, et sur une faille d’“injection de clipboard” ayant exposé des identifiants. Risques évoqués : web à deux vitesses réservé aux abonnés et désinformation, les IA pouvant produire des réponses fausses avec assurance. Recommandation prudente : conserver un navigateur classique pour les usages sensibles.Sur la santé des modèles, une étude multi-universités décrit un “Brain Rot des LLM” : un entraînement continu sur du contenu en ligne trivial dégrade durablement le raisonnement et la confiance. Avec des données Twitter 2010, quatre petits modèles ont été entraînés selon deux filtres : M1 “engagement” (messages <30 mots très populaires) et M2 “qualité” via GPT-4o-mini triant complots, hyperboles et clickbaits. Résultats : sur ARC, la précision de raisonnement chute de 74,9 % à 57,2 % quand la part de “junk” passe de 0 à 100 %. Pour les tâches à long contexte : de 84,4 % à 52,3 %. Le junk basé sur l’engagement abîme plus que le filtre contenu. Les modèles exposés à l’engagement ont vu augmenter des traits “sombres” (psychopathie, narcissisme, manipulativité), avec hausse notable de la psychopathie pour Llama3 8B Instruct. Plus de 70 % des erreurs n’impliquent aucun raisonnement, jusqu’à 84 % en M1. Les tentatives de réparation : le raisonnement réflexif aide un peu, l’auto-révision empire souvent, seule la correction par un modèle externe plus fort améliore. Même après réentraînement avec jusqu’à 50 000 nouveaux exemples et plus de données propres, l’écart persiste. Les auteurs recommandent une curation stricte, des “bilans de santé cognitive” réguliers et de traiter la sélection des données comme une question de sécurité.En entreprise, l’adoption est tirée par les salariés : acculturation et politiques de sécurité deviennent nécessaires. Cap sur l’IA Act européen : restrictions par usages, gouvernance pérenne, classification des cas d’usage et processus renforcés pour les usages critiques. Les DSI arbitrent cloud vs on-premise et outils. Vigilance sur le “shadow AI”. La chaîne de responsabilité reste diffuse : éditeur, utilisateur, superviseur, entreprise. Bonnes pratiques : tester systématiquement les sorties et poser des règles de contrôle, avec une veille juridique et éthique continue.Dans l’enseignement supérieur, partenariats IA et achats se multiplient malgré un recul dans le privé pour coûts et bénéfices incertains. L’IA sert parfois à justifier des suppressions de postes, nourrie par des affirmations comme “60 % des emplois futurs n’existent pas encore”. Les tentatives d’automatiser droit ou médecine ont connu des scandales. La privatisation via l’EdTech contourne la gouvernance partagée, avec des initiatives financées par des donateurs, comme à Georgetown. La baisse des financements fédéraux sous Trump a ...
まだレビューはありません