『L'IA aujourd'hui épisode du 2026-01-08』のカバーアート

L'IA aujourd'hui épisode du 2026-01-08

L'IA aujourd'hui épisode du 2026-01-08

無料で聴く

ポッドキャストの詳細を見る

このコンテンツについて

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : Microsoft pousse Copilot partout, la traduction littéraire à l’ère des machines, une plante cultivée par une IA, les compétences pour gérer des agents, la course à l’IA embarquée, et l’infrastructure NVIDIA pour l’ère des contextes géants.Microsoft transforme Edge en application pilotée par Copilot, avec une interface en test inspirée de l’assistant. Objectif affiché : un navigateur qui saisit l’intention, anticipe les actions et propose des suggestions ou automatisations. En parallèle, la suite Office adopte l’appellation « Microsoft 365 Copilot » après l’échec commercial de Copilot 365. Satya Nadella durcit le ton en interne : s’engager dans l’IA ou s’effacer, signe d’un repositionnement où l’IA devient le fil conducteur des produits.Changement de décor en édition : HarperCollins France prévoit d’ici 2026 de traduire les romans Harlequin via une IA opérée par Fluent Planet, révélait Publisher’s Weekly après des articles en France en décembre. Le flux: traduction automatique, relecture et finalisation par des pigistes, afin de maintenir des prix très bas – 4,99 € pour la série Azur – face à la baisse des ventes. Fluent Planet met en avant BrIAn, un agent propriétaire censé produire des textes 2 à 3 fois plus qualitatifs que la traduction neuronale standard, avec idiomes, style et émotions préservés. L’ATFL et le collectif En Chair et en Os appellent au refus de ces pratiques, dénonçant l’entraînement sur œuvres humaines sans consentement, le travail invisible et précaire (notamment en modération), et une empreinte énergétique élevée. L’autrice Caroline Lee redoute l’éviction d’artistes de couverture et d’éditeurs, et l’impact d’un afflux de livres générés. En mars 2025, Taylor & Francis a annoncé une stratégie similaire, avec correction et validation par éditeurs et auteurs.Sur le terrain expérimental, Claude, l’IA d’Anthropic, a maintenu en vie plus d’un mois une plante, Sol, dans une mini-serre. Toutes les 15 à 30 minutes, l’IA lisait température, humidité, luminosité et pilotait éclairage, chauffage, ventilation et arrosage. Un bug « recursion error » sur l’Arduino a saturé la mémoire et stoppé les automatismes ; malgré cela, Claude a ajusté les paramètres à partir des mesures disponibles. Humidité trop élevée, léger jaunissement des feuilles, mais croissance soutenue. Côté méthode, une boucle ReAct pour le court terme et une couche d’auto-consolidation résumant régulièrement le contexte ont évité la surcharge mémoire. À 43 jours, une tomate restait possible si la stabilité se maintenait.Dans les entreprises, les agents IA passent du concept à la pratique. Ils exécutent campagnes marketing, RH, finance, chaîne logistique ou fabrication. Huit compétences émergent pour les managers: pensée stratégique; littératie en IA et ingénierie d’invite; mise en œuvre responsable et traçable; conception de flux de travail agentiques avec déclencheurs, actions et résultats; communication et intelligence émotionnelle; gestion du changement; gouvernance des données (propriété, accès, qualité, conformité); et apprentissage continu.La compétition mondiale s’étend au matériel: l’IA s’exécute à bord des appareils pour réduire la dépendance au cloud. Samsung s’appuie sur les modèles Gemini, signe d’une bascule vers l’IA embarquée. Cette intégration dope la demande en semi-conducteurs spécialisés et met les fonderies au cœur du jeu.Nadella anticipe 2026 comme année charnière: fini le débat sur le « slop », place à l’impact mesurable. Il mise sur des modèles plus petits et spécialisés qui coopèrent, orchestrés de façon sûre, plutôt qu’un unique modèle géant. Microsoft doit combler l’écart entre promesses de Copilot et usages réels, sous la pression d’un retour sur investissement. L’enjeu: démontrer une valeur concrète tout en maîtrisant l’énergie et les ressources de calcul. Nous n’en serions qu’aux « premiers kilomètres d’un marathon ».Enfin, l’infrastructure suit cette montée en complexité. Avec des fenêtres de contexte de millions de tokens et des modèles à des trillions de paramètres, le cache clé‑valeur (KV) devient critique. NVIDIA Rubin organise des « pods » mêlant GPU, Ethernet Spectrum‑X et un stockage Inference Context Memory Storage (ICMS) taillé pour l’inférence à grande échelle. Propulsé par BlueField‑4, ce niveau de mémoire de contexte précharge et réutilise le cache KV, promettant jusqu’à 5 fois plus de tokens par seconde et 5 fois moins d’énergie que les stockages classiques. Dans la hiérarchie G1–G4, le contexte actif vit idéalement en HBM GPU (G1), puis déborde vers la DRAM (G2) et le stockage local/rack (G3); l’envoyer ...
まだレビューはありません