『L'IA aujourd'hui épisode du 2026-01-22』のカバーアート

L'IA aujourd'hui épisode du 2026-01-22

L'IA aujourd'hui épisode du 2026-01-22

無料で聴く

ポッドキャストの詳細を見る

このコンテンツについて

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : l’accord Oracle–OpenAI sous pression, le classement LMArena rebattant les cartes, Wikipedia à 25 ans face à l’IA, évolutions chez Google Search et la pub, chevauchement d’audience ChatGPT–Gemini, un jouet AI par Bravo iDeas, et MemU, mémoire pour agents.Commençons par Oracle. L’éditeur a scellé un accord géant avec OpenAI: 300 milliards de dollars sur cinq ans pour des centres de données, soit 60 milliards par an. L’annonce a propulsé l’action Oracle à des records, mais a aussitôt soulevé une question: OpenAI a déclaré environ 10 milliards de revenus annuels, loin des 60 nécessaires. Sam Altman mise sur les ventes de ChatGPT pour combler l’écart. Cette proximité financière a toutefois enflammé le juridique: des détenteurs d’obligations, emmenés par l’Ohio Carpenters’ Pension Plan, poursuivent Oracle pour des documents d’offre de septembre jugés « faux et trompeurs », accusant l’entreprise d’avoir omis des plans d’octobre qui ont ensuite fait chuter le prix des obligations. Oracle, souvent derrière Amazon, Azure et Google dans le cloud, voyait dans ce partenariat un levier majeur et a parlé à Wall Street d’un objectif de 166 milliards de dollars de revenus cloud annuels d’ici 2030, dépendant largement d’OpenAI. En novembre, les gains boursiers liés à l’accord se sont effacés, le marché doutant de sa viabilité. Autre signal: le méga-centre de données « Stargate » à Saline Township, Michigan, vacille, Blue Owl Capital disant ne pas pouvoir réunir les 10 milliards requis.Côté performances des modèles, LMArena place en janvier 2026 les modèles de Google devant ceux d’OpenAI. Le GPT-5.1 « high » n’arrive qu’en neuvième position, battu par Gemini, mais aussi par Grok, Claude et Ernie de Baidu. Rappelons que LMArena repose sur des duels anonymes à partir d’un même prompt, les votes alimentant un score Elo: gagner contre mieux classé rapporte davantage; perdre contre moins bien classé coûte plus. Déjà en 2025, OpenAI perdait du terrain. ChatGPT demeure très utilisé, mais Gemini progresse par ses performances, et Claude s’installe dans l’usage professionnel. En 2026, Google domine plusieurs catégories, que LMArena détaille via des classements par tâche.Passons à Wikipedia, qui fête ses 25 ans. Son modèle éditorial, ses citations de sources et sa gouvernance collective restent une référence à l’heure où le web est inondé de contenus générés par IA. La fondation a mis en pause des résumés générés automatiquement après une réaction des éditeurs, très vigilants face aux canulars issus de l’IA et inquiets d’une baisse des visites humaines. Jimmy Wales a évoqué un usage possible de l’IA, mais des éditeurs y voient « l’antithèse de Wikipedia ». Dans ce contexte, Selena Deckelmann, directrice produit et technologie de la Wikimedia Foundation, rappelle le défi: piloter l’infrastructure et la stratégie produit d’un des sites les plus visités au monde tout en préparant l’encyclopédie à l’ère générative.Chez Google, plusieurs signaux: la firme ne soutient pas les fichiers LLMs.txt pour la recherche; le mode IA teste des couleurs de police plus claires pour afficher prix et stocks; il propose désormais d’élargir les requêtes; et les aperçus IA peuvent inclure des réponses avec texte barré, pointant des informations écartées. Côté pub, un sondage indique que davantage d’annonceurs envisagent Microsoft Advertising cette année, sans doute pour diversifier leurs canaux.Les audiences de ChatGPT et de Gemini se rapprochent nettement, surtout depuis le lancement de Nano Banana fin août, signe d’une convergence d’usage entre plateformes.Du côté produits, Bravo iDeas arrive sur le jouet intelligent avec, le 20 janvier, un « jouet émotionnel » intégrant puces AI et LLMs. L’architecture centrée personnage vise des échanges plus naturels; les puces traitent localement pour des réponses plus rapides et fluides.Enfin, zoom sur MemU, un système de mémoire agentique pour LLM et agents IA. Il ingère conversations, documents, images, en extrait une mémoire structurée et la range dans un système de fichiers hiérarchique, compatible récupération par intégration (RAG) et récupération pilotée par LLM. Deux voies d’essai: en cloud via memu.so, ou en auto-hébergement avec Python 3.13+ et une clé API OpenAI, stockage en mémoire ou PostgreSQL. MemU accepte des fournisseurs de modèles et d’embeddings au-delà d’OpenAI, et fonctionne avec OpenRouter. Côté API, memorize() pour extraire et stocker, retrieve() pour retrouver la mémoire pertinente. Deux stratégies: recherche vectorielle rapide par similarité cosinus, ou récupération par raisonnement LLM pour une compréhension sémantique plus profonde. Cas d’usage: mémoire...
まだレビューはありません