『L'IA aujourd'hui épisode du 2026-01-10』のカバーアート

L'IA aujourd'hui épisode du 2026-01-10

L'IA aujourd'hui épisode du 2026-01-10

無料で聴く

ポッドキャストの詳細を見る

このコンテンツについて

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : Microsoft veut en finir avec “IA slop”, Gmail teste “AI Inbox”, fiabilité du raisonnement médical, domination des modèles ouverts chinois, lancement de ChatGPT Santé, virage stratégique des LLM vers les agents et les modèles d’action, et montée des risques cyber avec des agents IA.Microsoft ouvre le bal. Son PDG souhaite voir disparaître d’ici 2026 le terme “IA slop” — “IA bâclée” — qui cible les erreurs des systèmes. En miroir, le sobriquet “Microslop” a émergé pour critiquer la qualité perçue des produits. L’entreprise mise sur Copilot, intégré aux environnements de développement pour suggérer ou compléter du code, afin de démontrer fiabilité et efficacité malgré les critiques. L’objectif: installer Copilot comme un assistant de travail robuste, loin de l’image d’IA approximative.Chez Google, Gmail teste “AI Inbox” en bêta. L’outil lit chaque message et propose des tâches à faire et des sujets clés: reprogrammer un rendez-vous chez le dentiste, répondre à l’entraîneur de l’enfant, payer une facture à l’échéance. Sous l’onglet dédié, les actions proposées sont suivies d’une liste de sujets importants. Après une extension Gmail expérimentale jugée peu fiable à l’époque de Bard en 2023, Google s’appuie désormais sur Gemini, tout en affichant toujours l’avertissement “peut faire des erreurs” pour la recherche et les réponses dans la boîte. Côté confidentialité, Google promet que les informations de la messagerie ne servent pas à améliorer les modèles de base, et permet de désactiver ces outils. Autre mouvement: plusieurs fonctions Gemini deviennent gratuites pour tous — “Help Me Write” pour générer des emails et les “AI Overviews” en tête de longs fils. Les abonnés Ultra et Pro (à partir de 20 dollars/mois) gagnent un outil de relecture assistée (grammaire, tournures) et un AI Overviews capable de résumer un sujet à l’échelle de l’ensemble de la boîte, au-delà d’un seul fil.En santé, une étude sur la technologie de reproduction assistée évalue la fiabilité des chaînes de pensée générées par des modèles de langage. Trois stratégies sont comparées: zéro‑shot, few‑shot aléatoire et few‑shot sélectif. Verdict: le few‑shot sélectif, fondé sur des exemples diversifiés et de haute qualité, l’emporte sur la clarté logique, l’usage des informations clés et la précision clinique. Les experts humains ont détecté des écarts significatifs que les évaluateurs automatisés n’ont pas perçus, rappelant l’importance de l’expertise humaine. Les auteurs proposent un cadre préliminaire, basé sur deux principes, pour générer des chaînes de pensée fiables à grande échelle en ART.Sur les modèles ouverts, 2026 confirme la poussée chinoise. Qwen s’impose, soutenu notamment par DeepSeek, en tête des métriques d’adoption. En 2025, Z.ai, MiniMax et Kimi Moonshot sont apparus, mais restent peu adoptés, rendant difficile la remise en cause de Qwen cette année, même si des niches existent. Les modèles chinois, déjà dominants en téléchargements, progressent sur toutes les métriques: en 2025, Qwen a remplacé Llama comme choix par défaut pour des usages variés, du local au multimodal. Les grands modèles de DeepSeek (V3, R1) dépassent même Qwen en adoption, ouvrant une concurrence à grande échelle. Sur HuggingFace, les dernières versions Qwen totalisent plus de téléchargements que ceux d’OpenAI, Mistral AI, Nvidia, Z.ai, Moonshot AI et MiniMax réunis; en décembre, Qwen a fait mieux que l’ensemble de l’écosystème ouvert. Les dérivés Qwen restent les plus finement ajustés. Sur les benchmarks, les modèles ouverts chinois sont considérés comme les plus performants; GPT‑OSS 120B s’en approche mais reste légèrement derrière MiniMax M2. À suivre: Nemotron, Arcee, Reflection AI.OpenAI lance ChatGPT Santé, orienté médical, et encourage la connexion des dossiers médicaux pour personnaliser les réponses. Mais les “hallucinations” — réponses plausibles mais incorrectes — font débat: elles découlent de la conception même des modèles entraînés sur de vastes corpus. Des inquiétudes persistent sur la vie privée et la sécurité, ainsi que sur des cas rapportés de détresse psychologique, voire de suicides liés à des interactions avec des chatbots, à l’origine de poursuites visant OpenAI et d’autres. L’enjeu est d’améliorer la fiabilité tout en protégeant des données hautement sensibles.Le paysage bascule au-delà des LLM, jugés en plateau de performance. Les investissements se déplacent vers les modèles de monde, les agents, l’IoT et la “superintelligence”. On observe une consolidation du marché. La fermeture par Nike de RTFKT est vue par certains comme la ...
まだレビューはありません