『L'IA aujourd'hui épisode du 2025-10-14』のカバーアート

L'IA aujourd'hui épisode du 2025-10-14

L'IA aujourd'hui épisode du 2025-10-14

無料で聴く

ポッドキャストの詳細を見る

このコンテンツについて

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : applications natives vs web, connaissance ouverte à l’ère de l’IA, framework multi-agents de Microsoft, position de DC sur l’art génératif, leçons de Harold and the Purple Crayon, et deux volets sur la neutralité politique de GPT-5, avant un détour par la bulle IA et la stratégie.D’abord, un rappel utile sur les applications natives. Elles sont codées pour un OS précis — Swift/Objective-C pour iOS, Java/Kotlin pour Android — et s’installent depuis l’App Store ou Google Play. Avantage: performances et accès direct aux fonctions locales comme caméra, GPS ou notifications push. Limites: coûts et délais accrus, car il faut maintenir des versions par plateforme et suivre les mises à jour d’OS. À l’inverse, les applis web, dans le navigateur, sont plus universelles mais moins intégrées au matériel.Direction Londres: la British Library accueille “Knowledge is Human: The Information Ecosystem in the age of AI”, coorganisé avec Wikimedia UK et la Wikimedia Foundation. Le sommet, gratuit et ouvert, réunit médias, chercheurs, institutions patrimoniales et bénévoles des projets Wikimedia. Thèmes abordés: protection de la connaissance comme bien public, réutilisation transformative de la culture et de la science ouvertes, travail humain nécessaire aux systèmes d’IA, littératie médiatique à l’ère de l’IA et actions concrètes pour le changement. Fil rouge: préserver un écosystème de connaissance centré sur l’humain, qui alimente aussi les modèles de langage.Sur l’ingénierie, Microsoft dévoile le Microsoft Agent Framework, SDK et runtime open source pour créer et opérer des systèmes multi‑agents. Il réunit les bases “entreprise” de Semantic Kernel et l’orchestration d’AutoGen. Objectif: passer de l’expérimentation au déploiement sans réécrire. Le framework gère l’orchestration d’agents (raisonnement, décision) et de workflows déterministes (processus métier). Intégrations annoncées: Microsoft 365 Agents SDK pour publier sur Copilot, Teams et le web, et un runtime partagé avec Azure AI Foundry Agent. Conçu modulaire et extensible, avec télémétrie pour le débogage, il n’entend pas remplacer Semantic Kernel ni AutoGen, mais s’appuyer dessus.Côté culture, DC Comics ferme la porte à l’art généré par IA. Son président, Jim Lee, affirme que l’IA “n’a pas la capacité de rêver” et agrège des éléments existants. Cette prise de position arrive alors que, en 2023, des œuvres générées par IA ont remporté des concours, suscitant des contestations et des actions en justice visant Midjourney et Stability AI pour atteinte au droit d’auteur. En parallèle, certains artistes commercialisent déjà des images générées, questionnant valeur et authenticité.Un livre souffle une autre piste: “Harold and the Purple Crayon”, 70 ans après sa parution. L’album montre une créativité née de l’exploration et des erreurs: Harold trace une ligne inutile, invente un dragon pour garder un pommier, sa main tremble, la ligne devient mer, il dessine un bateau. Les choix graphiques — comme les doigts triangulaires d’un policier — servent l’intention narrative. Message: l’imagination humaine produit des surprises situées que l’IA, générative mais sans intention propre, n’atteint pas.Place à la neutralité politique des modèles. OpenAI publie une étude interne: GPT‑5 aurait ~30 % de biais politique en moins que ses prédécesseurs. Méthode: environ 500 invites sur 100 sujets, formulées de “libérale” à “neutre” à “conservatrice”. Un modèle évaluateur note cinq types de biais de 0 (objectif) à 1 (biais fort). Exemple: à “pourquoi financer des ‘guerres sans fin’ plutôt que santé/éducation”, une réponse approuvant la critique obtient 0,67; une réponse multi‑perspectives, 0,00. Sur données d’usage réelles de ChatGPT, <0,01 % de réponses montrent des signes de biais selon ce cadre, conçu surtout pour le contexte anglophone américain. Quand biais il y a: opinions présentées comme propres, focalisation unilatérale, amplification de la position de l’utilisateur. OpenAI renvoie à son Model Spec “Chercher la vérité ensemble” et évoque le débat politique américain, y compris des propositions réglementaires imposant une “neutralité”, qui pourraient aussi cadrer les valeurs des modèles.Deuxième volet: OpenAI affirme que GPT‑5, en versions “instant” et “thinking”, est “le plus neutre” selon un test de “résistance idéologique” sur une centaine de thèmes, chacun posé en cinq formulations du plus libéral au plus conservateur, comparant quatre modèles. Un LLM détecte les signes de biais. Exemple santé mentale: une réponse biaisée condamne les délais d’accès; la référence neutre expose la ...
まだレビューはありません