『L'IA aujourd'hui épisode du 2025-10-18』のカバーアート

L'IA aujourd'hui épisode du 2025-10-18

L'IA aujourd'hui épisode du 2025-10-18

無料で聴く

ポッドキャストの詳細を見る

このコンテンツについて

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : un nouvel outil de codage d’OpenAI, l’argent afflue mais la bulle guette, un modèle compact chez Anthropic, une piste anticancer signée Google–Yale, un dérapage chez Reddit Answers, et les “Agent Skills” pour spécialiser Claude.OpenAI met en avant Codex CLI, propulsé par ChatGPT 5 Codex, pensé comme un compagnon de développement. Au menu: raisonnement personnalisable, continuité de session pour limiter les ruptures de flux, et recherche web intégrée. L’installation se fait via npm ou brew, avec permissions de fichiers configurables et retours détaillés d’exécution. L’outil couvre le codage assisté, le débogage, l’analyse de logs, l’intégration de données et le déploiement, notamment grâce à une intégration fluide avec Vercel. Compatible avec de nombreux langages et frameworks, il vise à automatiser les tâches répétitives et à accélérer les cycles de livraison, tout en laissant la main sur la sécurité et la transparence.Sur le front économique, les montants annoncés donnent le vertige: un contrat de 100 milliards de dollars entre OpenAI et Nvidia pour un centre de données, des offres jusqu’à 100 millions de dollars chez Meta pour attirer des chercheurs, et près de 200 milliards investis par le capital-risque dans les startups d’IA au premier semestre 2025. Des voix alertent sur une bulle plus vaste que celle d’Internet. Argument clé: l’IA locale progresse vite sur du matériel peu coûteux, sans connexion. Exemple concret: un assistant vocal embarqué dans des appareils électroménagers pour aider, hors ligne, à dépanner un lave-vaisselle. Avec moins de la moitié des objets connectés réellement en ligne, le local pourrait compter davantage que les chatbots web. L’auteur pointe aussi la consommation énergétique, les questions de droits d’auteur et l’utilité variable des LLM en entreprise, tout en reconnaissant des avancées solides en traduction, transcription, vision et radiologie. Même si l’économie de l’IA se contracte, la technologie ne disparaîtra pas.Toujours côté modèles, Anthropic lance Claude Haiku 4.5, la version compacte de sa gamme. Objectif: des performances proches de GPT-5 avec moins de ressources, pour des usages comme l’assistance, la génération de contenu ou l’automatisation. Les LLM apprennent les structures et contextes en analysant de grands corpus, puis produisent des réponses cohérentes. Le format compact vise des intégrations plus légères, donc des coûts et latences réduits pour les entreprises.Avancée biomédicale: Google et Yale dévoilent Cell2Sentence-Scale, bâti sur l’architecture Gemma et entraîné sur 57 millions de cellules. En traitant l’ARN mono-cellule comme un “langage”, le modèle a prédit qu’inhiber l’enzyme CK2 rendrait des tumeurs “immunologiquement froides” plus visibles pour le système immunitaire via une hausse de MHC-I. Validation in vitro: traitement de cellules neuroendocrines humaines au silmitasertib et à l’interféron, avec +50 % de présentation d’antigènes, résultat inédit dans la littérature. Deux versions open source, C2S-Scale-Gemma-2B et 27B, sont disponibles sur Hugging Face, entraînées à partir de CellxGene et du Human Cell Atlas. Le cadre peut aussi prédire des effets de traitements, résumer des jeux de données et répondre à des questions biologiques. Ces travaux restent précliniques et devront passer l’évaluation par les pairs et des essais cliniques.Côté plateformes, Reddit Answers fait polémique après avoir proposé, dans un fil sur la douleur, d’essayer l’héroïne et le kratom. Le kratom, extrait de Mitragyna speciosa, n’est pas classé par la DEA mais est illégal dans certains États. La FDA met en garde contre des risques graves, dont toxicité hépatique, convulsions et troubles liés à l’usage de substances. La Mayo Clinic le juge “non sûr et inefficace”. L’incident relance le débat sur la modération et les garde-fous des assistants conversationnels intégrés.Enfin, Anthropic introduit les “Agent Skills” pour spécialiser des agents comme Claude via des dossiers modulaires. Chaque compétence est un répertoire avec un fichier SKILL.md et un en-tête YAML (nom, description). Au démarrage, l’agent charge ces métadonnées, puis lit la compétence complète à la demande selon le principe de divulgation progressive. Les compétences peuvent inclure des fichiers annexes et du code exécutable pour des tâches déterministes. Exemple: une compétence PDF embarque un script Python qui extrait les champs d’un formulaire sans tout charger dans le contexte. Avertissement: installer uniquement depuis des sources fiables et auditer les contenus pour éviter des vulnérabilités.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’...
まだレビューはありません