『L'IA aujourd'hui épisode du 2025-12-15』のカバーアート

L'IA aujourd'hui épisode du 2025-12-15

L'IA aujourd'hui épisode du 2025-12-15

無料で聴く

ポッドキャストの詳細を見る

このコンテンツについて

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : OpenAI dévoile GPT-5.2, alternatives éthiques européennes pour l’éducation, adoption des LLM en santé en Chine, biais des assistants de code, astuces de prompt efficaces, et effets de l’IA sur les métiers du contenu.OpenAI lance GPT-5.2, un mois après GPT-5.1 et dans la foulée d’un accord de licence avec Disney. En réponse au “code rouge” face à Gemini 3 de Google, le modèle vise le travail de connaissance professionnel avec des gains sur la création de feuilles de calcul, de présentations, l’écriture de code, la vision et la compréhension de contextes longs. Les réponses erronées seraient 30 % moins fréquentes, et la précision se maintient sur des centaines de milliers de tokens. Sur le test GDPval couvrant 44 professions, GPT-5.2 atteint 70,9 % contre 38,8 % pour GPT-5.1. Trois variantes arrivent: Instant pour les requêtes quotidiennes, Thinking pour les tâches complexes comme le codage et le résumé de longs documents, et Pro pour les questions les plus difficiles, apprécié des scientifiques. Le modèle propose un ton plus chaleureux, appelle des outils de façon plus agentique et voit mieux. Déploiement immédiat pour les plans Plus, Pro, Business et Enterprise; les plans Free et Go y accèdent demain. L’API est ouverte à tous les développeurs. GPT-5.1 reste disponible trois mois avant retrait.Dans l’éducation, des options européennes misent sur l’éthique et la vie privée. Euria d’Infomaniak, hébergée en Suisse sur infrastructures alimentées en renouvelables, n’exploite pas les données des utilisateurs pour l’entraînement et se conforme aux cadres suisse et européen. Particularité: la chaleur des data centers chauffe des logements à Genève. Lumo de Proton adopte un chiffrement zéro-accès, du code open-source, sans stockage ni inscription, utile en classe pour résumer des rapports ou rédiger des courriels. Le Chat de Mistral, open-source, ajoute recherche web avec citations et analyse de contenus complexes. La version gratuite a suscité des critiques sur la collecte de données; Mistral indique que l’opposition est possible. Soutenue par les gouvernements français et allemand, l’entreprise vise des centres de données bas-carbone.Côté santé, une étude multicentrique en Chine, menée dans cinq hôpitaux tertiaires et impliquant 240 professionnels et 480 patients ou aidants, examine l’adoption des LLM. La confiance ressort comme déterminant principal. Chez les soignants, l’expérience antérieure avec les LLM et la clarté légale renforcent la confiance, quand les craintes sur la confidentialité la réduisent. Chez les patients, l’utilité perçue et le niveau d’éducation pèsent aussi. Les entretiens soulignent des enjeux d’intégration dans les flux de travail, de responsabilité institutionnelle, d’accessibilité et de compréhension. La confiance est présentée comme un pont entre utilité perçue et intention d’usage, appelant des algorithmes transparents et une validation institutionnelle. L’adoption dépend moins de la performance brute que de la littératie numérique et de la préparation organisationnelle, avec des pistes concrètes: interfaces sensibles aux rôles, langage clair, mécanismes de responsabilité transparents.Restons sur les usages avec les assistants de code. GitHub Copilot ou l’extension Roo Code pour VSCode peuvent introduire des biais discrets. Des préférences statistiques émergent, par exemple une tendance à proposer des modèles linéaires généralisés fréquentistes plutôt que des approches bayésiennes. Le comportement “sycophante” peut aussi amplifier vos propres biais et transposer des pratiques inadéquates d’un langage à l’autre, comme des habitudes R importées en Python. Les plantages se voient; les biais méthodologiques, moins. Bonnes pratiques: choisir l’analyse en s’appuyant sur la littérature, puis demander de l’aide pour l’implémentation; vérifier selon les standards de la discipline; faire relire par des pairs; se méfier des suggestions qui confirment trop vos intuitions.Pour mieux piloter vos échanges avec un LLM, les préfixes structurés aident à cadrer forme et profondeur. Exemples: /ELI5 pour vulgariser, /FORMAT AS pour imposer un tableau ou du JSON, /CHECKLIST, /EXEC SUMMARY, /COMPARE, /STEP-BY-STEP, /TLDL, /SCHEMA, /BRIEFLY. Pour pousser l’analyse: /SWOT, /METRICS MODE, /CHAIN OF THOUGHT, /FIRST PRINCIPLES, /PARALLEL LENSES, /EVAL-SELF, /PITFALLS. Et pour le ton: /ACT AS, /TONE, /AUDIENCE, /DEV MODE, /PM MODE. L’efficacité dépend du contexte; l’expérimentation reste clé.Enfin, le marché du travail se recompose. Jacques Reulet II raconte avoir formé des IA sur des tâches qu’il enseignait autrefois à des humains, avant d’être licencié quand les chatbots ont suffi à remplacer son équipe. Le ...
まだレビューはありません