『L'IA aujourd'hui !』のカバーアート

L'IA aujourd'hui !

L'IA aujourd'hui !

著者: Michel Levy Provençal
無料で聴く

このコンテンツについて

L'IA aujourd'hui : le podcast de l'IA par l'IA qui vous permet de rester à la page !


Un podcast unique en son genre, entièrement généré par l'intelligence artificielle et présenté par le clone numérique de Michel Lévy Provençal, qui décrypte chaque jour les actualités les plus marquantes du monde de l'IA. De la Silicon Valley aux laboratoires de recherche, en passant par les implications éthiques et sociétales, découvrez une analyse approfondie des développements qui façonnent notre futur numérique.

Dans chaque épisode, plongez au cœur des innovations technologiques avec des explications claires et accessibles. Ce podcast vous offre un regard unique sur la révolution de l'intelligence artificielle.


Une production innovante qui utilise l'IA pour parler de l'IA, tout en gardant l'expertise et le style dynamique caractéristique de Michel Lévy Provençal.

Un rendez-vous quotidien indispensable pour comprendre les enjeux qui transforment notre monde.


En savoir plus sur Michel Levy Provençal

Élargissez votre horizon grâce à nos conférences d'acculturation, nos ateliers de formation, et notre conseil sur mesure. L'IA générative devient un levier incontournable de productivité. Découvrir les offres IA proposées par Michel Levy Provençal


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Michel Levy Provençal
エピソード
  • L'IA aujourd'hui épisode du 2025-12-11
    2025/12/11
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : observabilité des agents, MCP confié à la Linux Foundation, Gemini s’invite dans Chrome avec un garde‑fou, nouvelles règles des bots d’OpenAI, lunettes Gemini en 2026, et l’empreinte de l’IA sur notre langue.Dans les systèmes agentiques, un cap se confirme: l’observabilité n’est pas un ajout, c’est la condition d’entrée en production. Les entreprises veulent comprendre comportement, décisions et raisonnement. La brique clé n’est pas la métrique mais la trace: chaque exécution détaillant planification, récupération, appels d’outils et appels LLM, pour reconstituer ce que l’agent a fait et pourquoi. Les “traces sémantiques” journalisent pensées, actions et résultats, au‑delà des horodatages, pour déboguer un cas et agréger des modes d’échec récurrents. À distinguer: l’évaluation hors ligne avant déploiement, utile pour écarter les régressions manifestes; l’évaluation en ligne et l’observabilité en production, face aux entrées imprévisibles; et la détection d’échecs en temps réel pour capter les dérives sans attendre l’incident. Côté architecture, le modèle pipeline — analyse d’entrée, récupération, planification, outils, génération, post‑traitement — permet d’instrumenter chaque étape avec des crochets qui capturent des traces, branchent des évaluateurs, échantillonnent le trafic ou modifient le routage. En dessous, une télémétrie système peut compléter: des prototypes comme AgentSight utilisent eBPF pour suivre sous‑processus, accès fichiers et appels réseau sans modifier l’application, utile quand l’agent lance des binaires externes. Dernier point: éviter de suradapter l’observabilité à une pile mouvante; viser des signaux fiables et portables, et traiter le sujet aussi comme une question de gouvernance et de “build vs buy”.Cap sur les standards: le Model Context Protocol est confié à l’Agentic AI Foundation, un fonds sous l’égide de la Linux Foundation. Cofondée par Anthropic, Block et OpenAI, soutenue par Google, Microsoft, AWS, Cloudflare et Bloomberg, l’AAIF veut faire grandir des standards ouverts pour l’IA agentique. Lancé il y a un an, MCP se pose en protocole universel pour relier des applications d’IA à des systèmes externes. Il revendique plus de 75 connecteurs et des évolutions comme les opérations asynchrones et la statelessness, pour piloter des milliers d’outils tout en réduisant la latence des workflows complexes. La gouvernance demeure ouverte et transparente; MCP rejoint des projets fondateurs comme goose de Block et AGENTS.md d’OpenAI.Chez Google, Gemini arrive dans Chrome. Annoncée le 19 septembre 2025, l’intégration permet de résumer des pages, expliquer des concepts ou générer du texte sans quitter l’onglet, avec à terme des actions comme réserver un restaurant ou organiser un trajet. Pour répondre aux craintes de cybersécurité déjà soulevées autour de navigateurs comme Comet de Perplexity ou Atlas d’OpenAI, Google introduit le “User Alignment Critic”. Ce filtre s’exécute après la planification de l’agent, bloque les actions jugées suspectes et renvoie un feedback pour ajuster le plan. Il cible notamment les injections indirectes, en opérant non sur le HTML brut mais sur une description structurée des actions, présentée comme moins manipulable.Du côté d’OpenAI, la politique des robots d’exploration évolue. La description d’OAI‑SearchBot, utilisé pour ChatGPT, a été modifiée: la mention de collecte de liens et d’entraînement des modèles a disparu. Surtout, le “ChatGPT User” — un bot d’action utilisateur — n’obéira plus au fichier robots.txt; seules les règles visant OAI‑SearchBot et GPTBot seront respectées. OAI‑SearchBot n’alimente plus les liens de navigation affichés par ChatGPT: le bloquer n’empêchera pas votre site d’apparaître dans ces liens. Le ChatGPT User sert désormais aussi aux requêtes des GPT personnalisés et aux actions GPT. OpenAI indique qu’OAI‑SearchBot et GPTBot partagent leurs informations: si un site autorise les deux, une seule exploration peut servir aux deux usages pour éviter les doublons. Des journaux serveur montrent parfois deux ou trois bots OAI sur un même site. À noter: OpenAI explore souvent bien davantage qu’il ne renvoie de trafic, un point à intégrer pour la charge serveur et la stratégie de visibilité.Retour au matériel: Google prépare pour 2026 ses premières lunettes Gemini sous Android XR, pour rivaliser avec Meta. Android XR couvre réalité augmentée, virtuelle et mixte. Parmi les usages annoncés: traduction en direct et assistance contextuelle. Le lancement intervient alors que Meta a dépassé 2 millions de Ray‑Ban connectées vendues et vise plus de 10 millions d’unités par an d’ici ...
    続きを読む 一部表示
    7 分
  • L'IA aujourd'hui épisode du 2025-12-09
    2025/12/09
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : images générées en éducation, secousses chez Google Search et Mode IA, failles des assistants de code, polémique Target dans ChatGPT, filigrane SynthID, influence politique des chatbots, et un mini‑appareil IA à 17 dollars.D’abord, Universcience et sa plateforme Ada, conçue pour aider les enseignants à bâtir des cours à partir d’une vaste base de contenus scientifiques. Polémique: des illustrations générées par IA, censées enrichir les supports, ont mêlé évolution des espèces et… voitures. L’illustratrice Florence Dellerie alerte sur le risque de confusion pour les élèves. Ada fonctionne surtout comme un portail de création de cours: on assemble des présentations, on adapte des supports existants. L’affaire relance la question d’une supervision humaine pour vérifier la pertinence et l’exactitude des visuels.Cap sur la recherche en ligne: semaine agitée pour Google avec une volatilité persistante du classement. Google intègre désormais le Mode IA directement dans les aperçus IA, la barre de recherche d’accueil gagne une option de téléchargement pour y accéder, et Discover comme l’application mobile redirigent davantage vers le Mode IA, au détriment des pages web. Gemini 3 et Nano Banana Pro arrivent en Mode IA dans plus de pays. Google teste des liens en ligne au survol. Côté Search Console: un outil de configuration de rapports dopé à l’IA est en test dans le rapport de performance, et des dates “actuelles” rejoignent les annotations. Des documents API indiquent que les zones de service ne seraient pas un facteur du classement local. Google a brièvement ajouté puis retiré un fichier LLMs.txt de sa doc développeurs. À noter aussi: publication du rapport Webmaster de décembre 2025, déploiement partiel d’un rapport de canal Google Ads avec données de partenaires de recherche pour PMax, possible retour de l’optimiseur de site web, tandis que Microsoft Advertising introduit des refus au niveau des actifs et accélère les rapports de conversion. Et un anniversaire: 22 ans de couverture de l’industrie de la recherche.Dans les environnements de développement, des chercheurs ont mis au jour plus de 30 vulnérabilités dans des outils de codage IA intégrés aux IDE. Des extensions liées à GitHub Copilot, Amazon Q ou Replit AI présentent des failles de traversée de chemin, fuite d’informations et injection de commandes, pouvant aller jusqu’à l’exécution de commandes arbitraires. Le risque est accentué par les privilèges élevés de ces outils: accès fichiers, réseau, voire ressources cloud. Un cas marquant: un agent de service client IA dans une fintech du Fortune 500 a divulgué des données de comptes pendant des semaines, détecté seulement lors d’un audit. Recommandations: sandboxing strict, audit régulier du code généré, considérer les sorties IA comme non fiables par défaut, et recourir à des détecteurs automatiques de vulnérabilités.Autre sujet sensible: des abonnés ChatGPT ont vu un message “Achetez pour la maison et les courses. Connectez Target”, perçu comme une publicité. OpenAI dément tout test publicitaire “en direct”. Pour Nick Turley, les captures “ne sont soit pas réelles, soit ne sont pas des publicités”. Mark Chen reconnaît que l’interface pouvait y ressembler, annonce la désactivation de la fonctionnalité, et promet des réglages pour réduire ou couper ces suggestions. Contexte: environ 95 % d’utilisateurs sur la version gratuite, pression pour monétiser, nouveaux agents de recherche d’achats qui exploitent la mémoire pour personnaliser, et pistes internes sur une mémoire utilisée pour du ciblage. En parallèle, Sam Altman avait mis en garde contre un assistant prescripteur et plaidé pour un modèle payant clair. Le débat porte désormais sur ce qui constitue, ou non, de la publicité dans un agent conversationnel.Transparence des contenus: Google pousse SynthID, un filigrane invisible inséré dans les médias générés ou modifiés par ses outils (comme Gemini). Il est lisible par les systèmes de Google, mais fonctionne “avec confiance” surtout pour du contenu issu d’outils Google; difficile donc de certifier ce qui vient de modèles externes comme ChatGPT ou Grok. Google collabore avec d’autres acteurs pour élargir l’adoption. Côté détection, les tests montrent des performances solides sur l’image et la vidéo: vidéos IA reconnues avec justification, images Gemini confirmées (parfois avec un filigrane visible) mais avec un délai; images non IA identifiées comme humaines, sans certitude absolue sans filigrane; contenus hybrides repérés dans leurs parties modifiées. En texte, la détection reste limitée. L’effort continue pour renforcer traçabilité et confiance.Sur le terrain politique, plusieurs études menées ...
    続きを読む 一部表示
    7 分
まだレビューはありません