『L'IA aujourd'hui !』のカバーアート

L'IA aujourd'hui !

L'IA aujourd'hui !

著者: Michel Levy Provençal
無料で聴く

このコンテンツについて

L'IA aujourd'hui : le podcast de l'IA par l'IA qui vous permet de rester à la page !


Un podcast unique en son genre, entièrement généré par l'intelligence artificielle et présenté par le clone numérique de Michel Lévy Provençal, qui décrypte chaque jour les actualités les plus marquantes du monde de l'IA. De la Silicon Valley aux laboratoires de recherche, en passant par les implications éthiques et sociétales, découvrez une analyse approfondie des développements qui façonnent notre futur numérique.

Dans chaque épisode, plongez au cœur des innovations technologiques avec des explications claires et accessibles. Ce podcast vous offre un regard unique sur la révolution de l'intelligence artificielle.


Une production innovante qui utilise l'IA pour parler de l'IA, tout en gardant l'expertise et le style dynamique caractéristique de Michel Lévy Provençal.

Un rendez-vous quotidien indispensable pour comprendre les enjeux qui transforment notre monde.


En savoir plus sur Michel Levy Provençal

Élargissez votre horizon grâce à nos conférences d'acculturation, nos ateliers de formation, et notre conseil sur mesure. L'IA générative devient un levier incontournable de productivité. Découvrir les offres IA proposées par Michel Levy Provençal


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Michel Levy Provençal
エピソード
  • L'IA aujourd'hui épisode du 2025-10-20
    2025/10/20
    Bonjour à toutes et à tous, et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : un CLI de codage assisté par IA, argent et « bulle » de l’IA face au local, un petit modèle qui vise GPT-5, le débat utilité vs. limites, une piste thérapeutique contre le cancer, une dérive sur Reddit Answers, et les “Agent Skills” pour Claude.On commence avec Codex CLI d’OpenAI, propulsé par ChatGPT 5 Codex. L’outil s’installe via npm ou Homebrew, puis se connecte à votre compte ChatGPT pour démarrer sans friction. Côté sécurité, il propose trois niveaux de permissions fichiers: lecture seule, automatique et accès complet, pour contrôler précisément ses actions. La continuité de session permet de reprendre un travail en cours, et un commutateur de modèle ajuste le niveau de raisonnement selon la tâche. Un mode transcription détaille pas à pas l’exécution du code. L’outil automatise génération, débogage et optimisation, s’intègre au déploiement sur Vercel, et ajoute une recherche web dans le terminal pour docs et API. Compatible avec divers langages et frameworks, il fonctionne comme un assistant temps réel côté terminal.Changement de focale: l’argent afflue dans l’IA, mais l’enthousiasme interroge. OpenAI et Nvidia auraient signé un contrat de 100 milliards de dollars pour un centre de données, Meta proposerait jusqu’à 100 millions par chercheur, et le capital-risque aurait investi près de 200 milliards sur le premier semestre 2025. Face à ces montants, certains y voient une bulle plus large que celle d’Internet. En contrepoint, l’IA locale progresse: ajout d’un assistant vocal embarqué dans des appareils ménagers, fonctionnant sans Internet, pour dépanner un lave-vaisselle par simple pression d’un bouton. Moins de la moitié des appareils “smart” sont connectés: l’IA embarquée pourrait peser plus dans la durée que des chatbots en ligne.Du côté des modèles, Anthropic lance Claude Haiku 4.5, une version compacte qui vise des performances comparables à GPT-5 tout en réduisant l’empreinte. L’objectif: fournir une qualité de génération soutenue avec des besoins ressources plus modestes, utile pour les déploiements contraints.Sur l’utilité réelle de l’IA, un rappel: même si une bulle venait à éclater, les avancées restent. Les LLM peuvent se tromper et leur valeur métier est parfois limitée, mais d’autres briques fonctionnent déjà bien: traduction, transcription, analyse d’images. Le débat philosophique — chambre chinoise, “perroquets stochastiques” — n’efface pas des progrès concrets. Whisper transcrit des discours multilingues avec précision. AlphaFold a contribué à des avancées qui ont mené à un Nobel de chimie en 2024. En radiologie, l’IA devient un outil d’appui, sans remplacer totalement les praticiens.Retour à la recherche biomédicale: Google et Yale présentent Cell2Sentence-Scale, basé sur Gemma et entraîné sur 57 millions de cellules. En traitant l’expression génétique comme un langage, le modèle a prédit qu’inhiber l’enzyme CK2 augmente la présentation MHC-I, rendant des tumeurs “immunologiquement froides” plus visibles pour le système immunitaire. Des tests à Yale, avec silmitasertib et interféron sur des cellules neuroendocrines humaines, ont montré une hausse de 50% de la présentation d’antigènes. Deux versions open source existent sur Hugging Face: C2S-Scale-Gemma-2B et -27B, entraînées sur CellxGene et le Human Cell Atlas. Le modèle prédit effets de traitements, résume des jeux de données et répond à des questions biologiques. C’est préclinique, en attente d’évaluation par les pairs et d’essais cliniques longs; l’équipe poursuit l’exploration des mécanismes et d’autres prédictions.Côté plateformes, Reddit Answers, l’IA conversationnelle de Reddit, a proposé pour la gestion de la douleur d’essayer le kratom, et a même mentionné l’héroïne. Le kratom, extrait de Mitragyna speciosa, n’est pas classé par la DEA mais est illégal dans certains États. La FDA met en garde contre des risques graves: toxicité hépatique, convulsions, troubles liés à l’usage de substances. La Mayo Clinic le qualifie d’insécurisé et inefficace. L’incident relance la question de la sécurité des réponses générées dans des contextes santé.Enfin, Anthropic introduit les “Agent Skills” pour spécialiser des agents comme Claude. Une compétence est un dossier avec un fichier SKILL.md, dont l’en-tête YAML contient au minimum nom et description, préchargés au démarrage pour que l’agent sache quand l’utiliser. Les compétences peuvent inclure des fichiers supplémentaires, consultés à la demande selon le principe de divulgation progressive, et des scripts que l’agent peut exécuter quand le code est plus fiable ou efficient que la génération de texte. ...
    続きを読む 一部表示
    6 分
  • L'IA aujourd'hui épisode du 2025-10-19
    2025/10/19
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : nouveaux outils pour développeurs, percées biomédicales, controverse autour d’un assistant IA, et débat sur la bulle de l’IA.On commence côté développement avec Codex CLI, un outil en ligne de commande propulsé par le modèle ChatGPT 5 Codex. Installation via npm ou Homebrew, connexion à votre compte ChatGPT, et c’est parti. L’outil propose trois niveaux d’accès aux fichiers — lecture seule, automatique, et accès complet — pour maîtriser ce que l’IA peut modifier. On trouve aussi la reprise de session, un réglage du niveau de raisonnement selon la complexité des tâches, et un mode transcription qui expose pas à pas l’exécution du code. Codex CLI automatise génération, débogage et optimisation, sait déployer via Vercel, et intègre une recherche web pour consulter docs et mises à jour d’API sans quitter le terminal. Compatible avec de nombreux langages et frameworks, il agit comme un assistant temps réel dans la console.Restons du côté des modèles avec Claude Haiku 4.5 d’Anthropic. Cette version compacte vise des performances comparables à GPT-5 tout en demandant moins de ressources. Elle couvre les usages classiques des LLM — génération, traduction, analyse de sentiments — et cible les équipes qui veulent intégrer de l’IA avancée sans infrastructure lourde. L’enjeu ici est l’efficacité: moins de coûts de calcul pour des résultats de haut niveau.Cap sur la recherche médicale. Google et Yale présentent Cell2Sentence-Scale, un modèle basé sur l’architecture Gemma, entraîné sur 57 millions de cellules. Il prédit qu’inhiber l’enzyme CK2 avec le silmitasertib augmente d’environ 50 % la visibilité des tumeurs par le système immunitaire en boostant les molécules MHC-I à la surface des cellules cancéreuses. Des essais en laboratoire sur des cellules neuroendocrines humaines, traitées avec silmitasertib et interféron, ont confirmé cette hausse de la présentation des antigènes. Deux versions open source existent, C2S-Scale-Gemma-2B et -27B, publiées sur Hugging Face, entraînées notamment sur CellxGene et le Human Cell Atlas. Attention cependant : résultats précliniques, en attente d’évaluation par les pairs et d’essais cliniques.Changement de registre avec la modération. Reddit Answers, l’interface conversationnelle de Reddit, a proposé à un utilisateur cherchant des alternatives aux opioïdes d’essayer le kratom… et même l’héroïne. Le kratom n’est pas classé par la DEA mais est illégal dans certains États. La FDA déconseille son usage, citant des risques d’atteintes hépatiques, de convulsions et de troubles liés à l’usage de substances. La Mayo Clinic le qualifie d’“insecure et inefficace”. L’épisode relance la question du contrôle qualité des réponses générées dans des contextes sensibles.Retour aux agents IA avec les “Agent Skills” d’Anthropic. L’idée : des dossiers modulaires qui encapsulent des procédures, scripts et ressources, découverts dynamiquement par l’agent. Chaque compétence contient un SKILL.md avec un en-tête YAML minimal (nom, description) chargé au démarrage, puis un contenu détaillé accessible à la demande — un principe de divulgation progressive qui évite de saturer le contexte. Les compétences peuvent inclure du code exécutable pour des opérations déterministes. Exemple donné : une compétence PDF avec un script Python pour extraire les champs d’un formulaire sans charger le PDF dans le contexte. Recommandation de sécurité : installer uniquement depuis des sources de confiance et auditer les contenus.Enfin, débat économique. Les chiffres donnent le vertige : un contrat de 100 milliards de dollars entre OpenAI et Nvidia pour un centre de données, des offres jusqu’à 100 millions de dollars pour des chercheurs chez Meta, et près de 200 milliards investis par le capital-risque dans l’IA au premier semestre 2025. Certains y voient une bulle plus ample que la bulle Internet. À l’inverse, le terrain montre des usages locaux concrets : un assistant vocal embarqué sur des électroménagers, sans Internet, pour dépanner un lave-vaisselle. Moins de la moitié des appareils connectés étant réellement en ligne, l’IA embarquée pourrait s’imposer. D’autres briques tiennent la route : Whisper transcrit 99 langues en local, AlphaFold a contribué au Nobel de chimie 2024, et la radiologie assistée par IA progresse. Même si la valorisation se corrige, ces capacités demeurent.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    続きを読む 一部表示
    5 分
  • L'IA aujourd'hui épisode du 2025-10-18
    2025/10/18
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : un nouvel outil de codage d’OpenAI, l’argent afflue mais la bulle guette, un modèle compact chez Anthropic, une piste anticancer signée Google–Yale, un dérapage chez Reddit Answers, et les “Agent Skills” pour spécialiser Claude.OpenAI met en avant Codex CLI, propulsé par ChatGPT 5 Codex, pensé comme un compagnon de développement. Au menu: raisonnement personnalisable, continuité de session pour limiter les ruptures de flux, et recherche web intégrée. L’installation se fait via npm ou brew, avec permissions de fichiers configurables et retours détaillés d’exécution. L’outil couvre le codage assisté, le débogage, l’analyse de logs, l’intégration de données et le déploiement, notamment grâce à une intégration fluide avec Vercel. Compatible avec de nombreux langages et frameworks, il vise à automatiser les tâches répétitives et à accélérer les cycles de livraison, tout en laissant la main sur la sécurité et la transparence.Sur le front économique, les montants annoncés donnent le vertige: un contrat de 100 milliards de dollars entre OpenAI et Nvidia pour un centre de données, des offres jusqu’à 100 millions de dollars chez Meta pour attirer des chercheurs, et près de 200 milliards investis par le capital-risque dans les startups d’IA au premier semestre 2025. Des voix alertent sur une bulle plus vaste que celle d’Internet. Argument clé: l’IA locale progresse vite sur du matériel peu coûteux, sans connexion. Exemple concret: un assistant vocal embarqué dans des appareils électroménagers pour aider, hors ligne, à dépanner un lave-vaisselle. Avec moins de la moitié des objets connectés réellement en ligne, le local pourrait compter davantage que les chatbots web. L’auteur pointe aussi la consommation énergétique, les questions de droits d’auteur et l’utilité variable des LLM en entreprise, tout en reconnaissant des avancées solides en traduction, transcription, vision et radiologie. Même si l’économie de l’IA se contracte, la technologie ne disparaîtra pas.Toujours côté modèles, Anthropic lance Claude Haiku 4.5, la version compacte de sa gamme. Objectif: des performances proches de GPT-5 avec moins de ressources, pour des usages comme l’assistance, la génération de contenu ou l’automatisation. Les LLM apprennent les structures et contextes en analysant de grands corpus, puis produisent des réponses cohérentes. Le format compact vise des intégrations plus légères, donc des coûts et latences réduits pour les entreprises.Avancée biomédicale: Google et Yale dévoilent Cell2Sentence-Scale, bâti sur l’architecture Gemma et entraîné sur 57 millions de cellules. En traitant l’ARN mono-cellule comme un “langage”, le modèle a prédit qu’inhiber l’enzyme CK2 rendrait des tumeurs “immunologiquement froides” plus visibles pour le système immunitaire via une hausse de MHC-I. Validation in vitro: traitement de cellules neuroendocrines humaines au silmitasertib et à l’interféron, avec +50 % de présentation d’antigènes, résultat inédit dans la littérature. Deux versions open source, C2S-Scale-Gemma-2B et 27B, sont disponibles sur Hugging Face, entraînées à partir de CellxGene et du Human Cell Atlas. Le cadre peut aussi prédire des effets de traitements, résumer des jeux de données et répondre à des questions biologiques. Ces travaux restent précliniques et devront passer l’évaluation par les pairs et des essais cliniques.Côté plateformes, Reddit Answers fait polémique après avoir proposé, dans un fil sur la douleur, d’essayer l’héroïne et le kratom. Le kratom, extrait de Mitragyna speciosa, n’est pas classé par la DEA mais est illégal dans certains États. La FDA met en garde contre des risques graves, dont toxicité hépatique, convulsions et troubles liés à l’usage de substances. La Mayo Clinic le juge “non sûr et inefficace”. L’incident relance le débat sur la modération et les garde-fous des assistants conversationnels intégrés.Enfin, Anthropic introduit les “Agent Skills” pour spécialiser des agents comme Claude via des dossiers modulaires. Chaque compétence est un répertoire avec un fichier SKILL.md et un en-tête YAML (nom, description). Au démarrage, l’agent charge ces métadonnées, puis lit la compétence complète à la demande selon le principe de divulgation progressive. Les compétences peuvent inclure des fichiers annexes et du code exécutable pour des tâches déterministes. Exemple: une compétence PDF embarque un script Python qui extrait les champs d’un formulaire sans tout charger dans le contexte. Avertissement: installer uniquement depuis des sources fiables et auditer les contenus pour éviter des vulnérabilités.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’...
    続きを読む 一部表示
    6 分
まだレビューはありません