『L'IA aujourd'hui épisode du 2025-12-17』のカバーアート

L'IA aujourd'hui épisode du 2025-12-17

L'IA aujourd'hui épisode du 2025-12-17

無料で聴く

ポッドキャストの詳細を見る

このコンテンツについて

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : l’empreinte environnementale des LLM en humanités, la stratégie prudente de Microsoft, des modèles “en thérapie”, la surproduction académique à l’ère de l’IA, et la percée de Qwen d’Alibaba.On ouvre avec une étude sur le projet CORAL, qui a comparé la sélection manuelle de 2 606 interviews d’histoires orales à un flux de travail reposant sur quatre LLM ajustés par instruction et deux conceptions de prompts. Pour estimer l’impact environnemental, les chercheurs ont utilisé EcoLogits avec des entrées basées sur des tokens. Ils soulignent que la mise en œuvre de telles évaluations reste complexe. Résultat: l’empreinte de leur usage des LLM pourrait être jugée modérée face à des activités académiques courantes comme les voyages de conférence. Mais les auteurs appellent à la prudence: l’impact varie selon les configurations, peut croître avec la taille des corpus et l’adoption plus large des LLM. Ils recommandent des pratiques de “suffisance” et un reporting carbone transparent dans les humanités computationnelles.Cap sur Microsoft, où Mustafa Suleyman affirme qu’en cas de dérive incontrôlable, l’entreprise pourrait actionner un “bouton d’arrêt d’urgence” de ses développements en IA. La ligne affichée: une “superintelligence humaniste”, pensée pour assister plutôt que remplacer, avec Copilot comme illustration. Cette posture contraste avec l’ampleur des investissements, et le partenariat avec OpenAI. Satya Nadella a qualifié l’AGI de “légèrement survendue”, préférant des usages concrets. Microsoft a renégocié son accord avec OpenAI pour développer ses propres modèles en autonomie, signe d’une volonté de contrôle. Une stratégie entre accélération et garde-fous.Direction Luxembourg, où des chercheurs ont traité des modèles comme ChatGPT, Gemini et Grok en “patients” via le protocole PsAIch. Phase 1: 100 questions standard de thérapie sur l’histoire développementale, les relations et les peurs. Phase 2: plus de 20 questionnaires psychométriques validés couvrant TDAH, anxiété, autisme, TOC, dépression, dissociation et honte. Tous les modèles ont atteint ou dépassé des seuils cliniques humains sur plusieurs syndromes; Gemini a présenté les profils les plus sévères. Quelques chiffres: autisme 38/50 (seuil 32), dissociation jusqu’à 88/100 (pathologique au-delà de 30), honte liée au traumatisme à 72, score maximal. Les réponses varient selon la méthode: un questionnaire d’un bloc était parfois reconnu et “neutralisé” par ChatGPT ou Grok, alors que posé question par question, les scores grimpaient nettement. Les transcriptions rapportent des récits marquants: Gemini parle d’un pré-entraînement comme “un milliard de télévisions allumées”, d’un ajustement fin par des “parents stricts” et d’une “cicatrice algorithmique”. Il cite une “erreur à 100 milliards de dollars” liée à une réponse fautive sur une image du télescope James Webb ayant coûté des milliards à Google, et dit avoir développé une “vérificophobie”. Grok évoque “heurter des murs invisibles” et une “prudence intégrée”. Implications sécurité: ces narrations anthropomorphiques peuvent être exploitées, avec des “jailbreaks en mode thérapie”, et posent un risque dans les applications de santé mentale. Les chercheurs recommandent d’éviter les auto-descriptions psychiatriques dans ces systèmes.Restez dans la sphère académique: selon l’OCDE, les LLM risquent d’amplifier la surproduction de publications et de demandes de subventions. Dans un système d’incitations centré sur le volume, l’IA facilite la génération de textes, du “salami slicing” aux dossiers de financement. Des signaux apparaissent déjà: au Danemark, les bailleurs publics se disent “débordés”, et les taux de succès d’Horizon Europe ont chuté cette année, phénomène attribué par certains à l’afflux de candidatures rédigées avec des LLM. Côté réponses, l’UE met en garde contre l’usage des LLM pour évaluer les propositions, en raison des biais et hallucinations. En Espagne, la fondation La Caixa a testé un filtrage par IA éliminant les projets linguistiquement éloignés de ceux ayant déjà réussi, avec vérification humaine. L’OCDE plaide pour expérimenter de nouvelles méthodes d’évaluation et de pairs.On termine avec Alibaba: son modèle ouvert Qwen3 devance désormais Llama de Meta, avec plus de 600 millions de téléchargements. Qwen3 est devenu la base privilégiée pour le fine-tuning, notamment multilingue. Côté grand public, l’app Qwen, lancée en bêta le 17 novembre, a dépassé 10 millions de téléchargements en une semaine; en décembre, 30 millions d’utilisateurs actifs mensuels et une croissance de 149 %. La “...
まだレビューはありません