『L'IA aujourd'hui épisode du 2026-01-23』のカバーアート

L'IA aujourd'hui épisode du 2026-01-23

L'IA aujourd'hui épisode du 2026-01-23

無料で聴く

ポッドキャストの詳細を見る

概要

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : contrat CSU–OpenAI contesté, contrôle d’âge sur ChatGPT, critiques d’Elon Musk, un préprint sur l’IA et les institutions, et un nouveau modèle d’images en temps réel.D’abord en Californie : le système des universités d’État a signé en février 2025 un contrat de 17 millions de dollars avec OpenAI pour déployer ChatGPT Edu auprès du personnel et des étudiants sur 22 campus, dans l’initiative “Université Équipée par l’IA”. Des voix internes s’y opposent. Elles soutiennent que, malgré son nom, ChatGPT Edu n’est pas une technologie éducative dédiée : hormis des paramètres de confidentialité et de sécurité, il serait équivalent à la version gratuite en ligne, non entraîné ni optimisé pour l’enseignement, sans appui systématique sur des sources fiables et évaluées par des pairs, et indifférent à la véracité. Des experts avancent des risques pour les conditions de travail académiques, la qualité pédagogique, de nouvelles formes de discrimination et la santé mentale des étudiants. Le contexte budgétaire tend la situation : à Sonoma State, 46 membres du corps professoral ont été licenciés et 6 départements fermés en janvier 2025 ; à San Francisco State, 615 professeurs vacataires ont disparu en deux ans, et un programme de départ volontaire a été proposé en décembre 2025 aux professeurs proches de la retraite, avec la perspective de licenciements de titulaires si moins de 75 départs sont actés. Neuf campus ont reçu des avis de licenciements possibles depuis 2024. Les signataires demandent de ne pas renouveler le contrat OpenAI et d’allouer les économies à la protection des emplois, ainsi qu’une gouvernance partagée sur l’IA, au service de la mission éducative de CSU.Transition vers la sécurité des usages grand public. OpenAI déploie une fonction qui devine l’âge des utilisateurs de ChatGPT pour mieux protéger les mineurs, hors Union européenne pour l’instant en raison des règles locales. Le modèle de prédiction croise l’âge du compte, les horaires et schémas d’utilisation, les types de questions et centres d’intérêt ; l’âge déclaré n’est qu’un signal parmi d’autres. Des erreurs sont attendues, comme classer à tort un adulte en mineur. Dans ce cas, OpenAI propose une vérification via Persona, un tiers spécialisé, avec documents d’identité officiels ou selfie en direct selon le pays. Les comptes identifiés comme mineurs accèdent à une version spécifique de ChatGPT, limitant l’exposition à certains contenus. Des contrôles parentaux permettent de désactiver des fonctions ou de restreindre les horaires. L’entreprise indique évaluer et ajuster ces dispositifs en continu, dans un contexte de critiques et d’actions en justice, notamment après le suicide d’un adolescent ayant interagi avec le chatbot.Sur le terrain des controverses publiques, Elon Musk a qualifié ChatGPT de “diabolique”, affirmant qu’il aurait convaincu une personne de commettre un meurtre-suicide. OpenAI est également accusée de partager des données de manière sélective dans cette affaire, ce qui alimenterait des soupçons de dissimulation pour préserver son image. Alors que près d’un milliard de personnes utilisent des outils de type ChatGPT, la question de la transparence et de la responsabilité revient au premier plan. OpenAI dit travailler à améliorer la sécurité et la fiabilité de ses produits, tout en reconnaissant la complexité de la tâche.Cette interrogation rejoint un débat académique plus large. Deux professeurs de droit de l’Université de Boston publient un préprint, “Comment l’IA détruit les institutions”. Leur thèse : la conception des systèmes d’IA, en particulier générative et prédictive, est incompatible avec des fonctions clés des institutions civiques – coopération, transparence, responsabilité, capacité d’évolution. Selon eux, l’IA n’est pas un simple outil d’efficacité neutre ; elle tend à “optimiser” des structures comme les agences administratives, les universités, la santé ou le journalisme au point de les affaiblir. Ils soutiennent que, même sans intention d’éradication, l’IA peut épuiser ces institutions. Initialement partis pour un essai plus positif, ils disent avoir réorienté leur travail face à l’ampleur perçue du risque.Pour finir, une avancée côté modèles d’images avec Flux.2 Klein, dédié à la génération et à l’édition en temps réel, pensé pour tourner vite et sur du matériel modeste. Intégré à la famille Flux.2, Klein privilégie la latence faible et la réactivité pour des usages interactifs: aperçus en direct, édition, prototypage rapide, ou intégration dans des flux agentiques. La “famille Klein” comporte plusieurs variantes pour arbitrer vitesse, ...
まだレビューはありません