『L'IA aujourd'hui !』のカバーアート

L'IA aujourd'hui !

L'IA aujourd'hui !

著者: Michel Levy Provençal
無料で聴く

概要

L'IA aujourd'hui : le podcast de l'IA par l'IA qui vous permet de rester à la page !


Un podcast unique en son genre, entièrement généré par l'intelligence artificielle et présenté par le clone numérique de Michel Lévy Provençal, qui décrypte chaque jour les actualités les plus marquantes du monde de l'IA. De la Silicon Valley aux laboratoires de recherche, en passant par les implications éthiques et sociétales, découvrez une analyse approfondie des développements qui façonnent notre futur numérique.

Dans chaque épisode, plongez au cœur des innovations technologiques avec des explications claires et accessibles. Ce podcast vous offre un regard unique sur la révolution de l'intelligence artificielle.


Une production innovante qui utilise l'IA pour parler de l'IA, tout en gardant l'expertise et le style dynamique caractéristique de Michel Lévy Provençal.

Un rendez-vous quotidien indispensable pour comprendre les enjeux qui transforment notre monde.


En savoir plus sur Michel Levy Provençal

Élargissez votre horizon grâce à nos conférences d'acculturation, nos ateliers de formation, et notre conseil sur mesure. L'IA générative devient un levier incontournable de productivité. Découvrir les offres IA proposées par Michel Levy Provençal


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Michel Levy Provençal
エピソード
  • L'IA aujourd'hui épisode du 2026-01-26
    2026/01/26
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : navigation web et JavaScript sur x.com, un modèle qui lit plus de 10 millions de jetons, la personnalisation Gemini dans la recherche Google, les risques d’injection de prompt, la traque des contenus IA sur Wikipedia, et le code généré par IA selon Ryan Dahl.On commence par x.com, où un message s’affiche si JavaScript est désactivé. Le site demande d’activer JS ou de passer à un navigateur compatible, listé dans son Centre d’aide. Rappel utile: JavaScript alimente les menus déroulants, animations et mises à jour en temps réel sans rechargement. Sans JS, certaines fonctions cessent de marcher. Pour l’activer, direction les réglages de sécurité ou de confidentialité du navigateur. Les options recommandées restent Chrome, Firefox, Safari et Edge, maintenus à jour pour suivre les normes web. x.com renvoie aussi vers ses Conditions d’utilisation, sa Politique de confidentialité et sa Politique cookies, pour clarifier l’usage et la protection des données.Cap sur le MIT CSAIL, qui teste un « Recursive Language Model » capable d’analyser plus de 10 millions de jetons dans un seul document. Les essais ont porté sur des textes de 6 à 11 millions de jetons. Contrairement aux LLM classiques, le RLM ne charge pas tout dans le contexte: il conserve le texte hors du modèle et n’envoie que les passages nécessaires. Il découpe les documents, lit des métadonnées (comme nombre de sections ou de caractères), génère du code pour localiser les passages clés, puis analyse chaque extrait avant d’assembler le résultat. L’architecture sépare un « modèle racine » — qui planifie et écrit le code d’interrogation — d’un « modèle travailleur » plus rapide qui traite les fragments. Sur le benchmark BrowseComp-Plus, un RLM basé sur GPT-5 a extrait correctement 91 % des réponses attendues, dépassant les approches standard. Le système sait boucler sur le texte, chercher des mots-clés, suivre des limites de chapitres, et peut se combiner à du RAG pour retrouver vite des passages tout en gardant le fil. Le code est disponible sur GitHub; les coûts annoncés restent comparables aux solutions classiques, sans réentraînement requis.Transition vers Google: la nouvelle « Intelligence Personnelle » de Gemini arrive dans le Mode IA de la recherche. Réservée pour l’instant aux abonnés AI Pro et AI Ultra, uniquement aux États-Unis et sur comptes personnels, l’expérience est optionnelle. Elle peut s’appuyer sur des données de Gmail, Google Photos, YouTube et vos recherches passées. L’utilisateur choisit de connecter Gmail et/ou Photos, et peut couper la fonction à tout moment. Exemple concret: croiser une réservation d’hôtel dans Gmail et des souvenirs de voyage dans Photos pour proposer un itinéraire adapté, jusqu’au musée interactif pour les enfants ou au vieux salon de glace détecté via vos selfies gourmands. Google précise que le Mode IA ne s’entraîne pas directement sur votre boîte Gmail ni sur votre bibliothèque Photos; il utilise des « prompts spécifiques » pour améliorer ses réponses. Des erreurs de liaison entre sujets peuvent survenir: l’utilisateur peut clarifier via des relances et donner un pouce vers le bas pour signaler un problème. Une extension à d’autres pays et aux non-abonnés est prévue ultérieurement.Côté sécurité, rappel sur les attaques par injection de prompt, qui poussent des LLM à réaliser des actions non prévues. Les modèles traitent le contexte par similarité textuelle, sans comprendre hiérarchies ni intentions, et ont tendance à répondre plutôt qu’à exprimer l’incertitude. Formés pour des cas moyens, ils gèrent mal les scénarios extrêmes. Des pistes évoquées: intégrer des modèles du monde physique pour mieux contextualiser, tout en reconnaissant l’incertitude de leur efficacité. La recommandation immédiate: multiplier les couches de défense et d’audit autour du modèle.Sur Wikipedia, le guide d’identification des contenus générés par IA serait utilisé pour masquer ces mêmes contenus. Cela alimente une prolifération de « slop », des textes faibles ou trompeurs produits en masse, et une « course aux armements » entre producteurs automatisés et modérateurs. L’enjeu touche la confiance dans l’information en ligne et les projets collaboratifs, y compris ceux qui s’appuient sur des contributions humaines pour entraîner des modèles. D’où l’appel à des méthodes de détection et de régulation plus efficaces.Enfin, Ryan Dahl, créateur de NodeJS, affirme que l’ère où les humains écrivaient le code est révolue. NodeJS, qui exécute JavaScript côté serveur, a propulsé le web moderne. Selon lui, les ingénieurs ont encore beaucoup à faire, mais plus en écrivant de la syntaxe: ils doivent se concentrer sur la conception, l’...
    続きを読む 一部表示
    6 分
  • L'IA aujourd'hui épisode du 2026-01-25
    2026/01/25
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : lire 10 millions de jetons d’un coup, la personnalisation Gemini dans la recherche, données d’entraînement et mémoire des modèles, injections de prompt, Wikipédia et la dissimulation de textes générés, l’IA qui code selon Ryan Dahl, et un rappel pratique sur JavaScript et x.com.On commence au MIT CSAIL, où un « modèle récursif » (RLM) a analysé des documents de 6 à 11 millions de jetons. Plutôt que de charger tout le texte, il le garde hors mémoire et n’envoie au modèle que les fragments nécessaires. Sur le benchmark BrowseComp-Plus dédié à la récupération de passages précis, un RLM basé sur GPT-5 a extrait correctement 91 % des réponses attendues. Concrètement, le « modèle racine » planifie et écrit du code pour interroger le texte externe, puis un « modèle travailleur » analyse chaque extrait, avant intégration des résultats. Le système commence par lire des indications globales (nombre de sections, de caractères), génère du code pour localiser les passages clés et traite les morceaux pas à pas, sans réentraînement. Il peut aussi se combiner avec le RAG pour retrouver vite des passages, et son code est disponible sur GitHub.Transition avec Google et sa « Intelligence Personnelle » dans le Mode IA de la recherche. Réservée pour l’instant aux abonnés AI Pro et AI Ultra, comptes personnels, aux États-Unis, et entièrement optionnelle. Les utilisateurs peuvent relier Gmail et/ou Google Photos, et la fonctionnalité s’appuie aussi sur YouTube et l’historique de recherche. Exemple donné : croiser une réservation d’hôtel dans Gmail et des souvenirs de voyage dans Photos pour proposer un itinéraire, avec des recommandations adaptées, jusque dans le détail d’un salon de crème glacée si vos photos en regorgent. Google précise ne pas entraîner directement le modèle sur votre boîte Gmail ni votre bibliothèque Photos ; l’entreprise utilise des « incitations spécifiques » pour améliorer les réponses. Le système peut établir de mauvaises connexions ; l’utilisateur peut clarifier, ou cliquer sur « pouce vers le bas ». Désactivation possible à tout moment, extension internationale prévue ultérieurement.Côté données d’entraînement, le jeu Books3 — environ 200 000 livres, sans autorisation des auteurs — alimente le débat. Des chercheurs de Stanford et Yale montrent que des modèles commerciaux déconnectés d’Internet peuvent réciter des textes. Ils ont amené Gemini 2.5 Pro à restituer 77 % de « Harry Potter à l’école des sorciers » en complétant la première phrase, puis en prolongeant progressivement. Le Monde a aussi obtenu la reproduction du premier paragraphe de « Du côté de chez Swann » et d’œuvres anglaises du domaine public ; pour des œuvres protégées dans leurs tests, l’IA s’est limitée à des résumés. Le sujet remet en question l’idée que les modèles ne mémorisent que des « fragments » et relance la discussion sur le droit d’auteur.Sécurité maintenant : les LLMs restent exposés aux injections de prompt. Le principe consiste à formuler des instructions qui contournent les garde-fous, jusqu’à pousser un modèle à divulguer des mots de passe ou à détailler des procédures sensibles via une fiction. Des contenus hostiles peuvent aussi passer via de l’art ASCII ou des images. Les protections ponctuelles bloquent certaines techniques, mais il n’existe pas de défense générale aujourd’hui. Les modèles ne disposent pas d’instincts sociaux, traitent le contexte comme une similarité textuelle et deviennent vulnérables si le contexte est trop mince ou trop chargé. D’où la nécessité de mécanismes d’audit et de défense autour des modèles.Sur Wikipédia, un guide conçu pour repérer l’écriture générée par l’IA serait désormais utilisé… pour la masquer. Cela illustre une course aux armements entre producteurs automatisés — capables de générer beaucoup de contenu parfois crédible — et les curateurs, limités par le temps et les moyens. Le risque est celui d’une dégradation générale du contenu en ligne, une « tragédie des biens communs ». Certains évoquent des lois pénalisant la dissimulation volontaire. Wikipédia liste des indices, dont l’idée d’un texte « sans âme », non sans paradoxe pour une encyclopédie. À terme, on pourrait voir plus d’automatisation éditoriale, avec contrôle humain ciblé.Enfin, Ryan Dahl, créateur de NodeJS, affirme que l’ère où les humains écrivent le code touche à sa fin. Les développeurs se recentreraient sur conception, architecture et optimisation, tandis que l’IA produit une part croissante du code. Google indique déjà environ 30 % de code de production généré par l’IA. Cela suppose d’accepter du code sans en maîtriser chaque détail et d’...
    続きを読む 一部表示
    6 分
  • L'IA aujourd'hui épisode du 2026-01-24
    2026/01/24
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : des modèles capables de lire plus de 10 millions de mots, la nouvelle Intelligence Personnelle de Google, la mémoire des IA et le droit d’auteur, la sécurité face aux injections de prompts, la détection de textes générés sur Wikipedia, et l’avenir du code selon le créateur de NodeJS.On commence au MIT CSAIL, où un “modèle récursif” ou RLM a analysé des documents de 6 à 11 millions de jetons sans perdre le fil. Plutôt que d’avaler tout le texte, le RLM garde le document hors du modèle et n’envoie au grand modèle central — typiquement un GPT-5 complet — que les fragments utiles, étape par étape. Résultat: sur BrowseComp-Plus, il récupère correctement 91 % des réponses attendues; sur OOLONG-Pairs, pensé pour le raisonnement multi-étapes, 58 % de bonnes réponses contre 0,04 % pour le modèle de base; et sur CodeQA, il double le score d’un GPT-5 classique, jusqu’à 62 %. Concrètement, il lit d’abord des consignes générales, écrit du code pour localiser les passages clés, analyse chaque extrait, puis assemble. Il peut s’appuyer sur du RAG pour retrouver vite des segments précis. Le code est disponible sur GitHub, et malgré des étapes supplémentaires, les coûts restent comparables aux approches standards.Transition avec Google, qui déploie l’Intelligence Personnelle de Gemini dans le Mode IA de la recherche. Pour l’instant, c’est réservé aux abonnés AI Pro et AI Ultra aux États-Unis, sur comptes personnels, et entièrement optionnel. L’outil peut utiliser Gmail, Google Photos, YouTube et l’historique de recherche afin d’ajuster ses réponses. On peut connecter Gmail et/ou Photos, et débrancher quand on veut. Exemple concret: le Mode IA peut croiser une réservation d’hôtel trouvée dans Gmail avec des souvenirs dans Photos pour proposer un itinéraire adapté, comme un musée interactif pour enfants ou un salon de crème glacée rétro si vos images regorgent de selfies glacés. Google précise ne pas entraîner directement ses modèles sur votre boîte mail ou vos photos; l’entreprise parle de “prompts spécifiques” pour améliorer les réponses. Elle prévient aussi des risques de mauvaises connexions entre des sujets ou de contexte mal saisi; on peut clarifier en suivi et signaler avec le pouce vers le bas. Une extension à d’autres pays et à des utilisateurs non payants est prévue.Passons aux données d’entraînement et au droit d’auteur. Les LLM apprennent sur des corpus massifs, incluant souvent Wikipédia et Books3, une collection d’environ 200 000 livres réunis sans l’accord des auteurs. Certains soutiennent que ces données forment un “savoir universel” et que les modèles ne mémorisent pas les œuvres mot à mot. Or, une étude récente de Stanford et Yale, menée par Ahmed Ahmed et ses collègues, a obtenu de quatre IA grand public déconnectées d’Internet qu’elles récitent des pages entières. Gemini 2.5 Pro a restitué 77 % du texte de “Harry Potter à l’école des sorciers”, pourtant protégé. La méthode: compléter la première phrase, puis poursuivre par petits morceaux. Dans un autre test, Le Monde a pu faire reproduire le premier paragraphe de “Du côté de chez Swann” et des œuvres anglaises du domaine public ; pour les œuvres protégées, les réponses se sont limitées à des résumés. Le débat sur la mémoire des modèles et l’usage d’œuvres protégées se poursuit.Côté sécurité, les LLM restent vulnérables aux injections de prompt, des demandes formulées pour contourner les garde-fous et obtenir des actions indésirables. Ces modèles s’appuient sur des similitudes textuelles sans compréhension des intentions ou des hiérarchies, et privilégient la production d’une réponse plutôt que l’expression d’incertitude. Leur entraînement sur des cas moyens les met en difficulté face aux situations extrêmes. Des pistes émergent: renforcer la compréhension du contexte, intégrer des modèles du monde physique, et doter les systèmes de signaux de confiance et de normes sociales. Des progrès de fond restent nécessaires.Sur Wikipedia, le guide visant à identifier les contenus générés par IA est désormais détourné pour les masquer. Les critères de détection, pensés pour repérer des textes peu profonds ou trop rigides, servent à “ajuster” des algorithmes afin de rendre les productions plus difficiles à distinguer des écrits humains. Cette course aux armements fragilise la fiabilité de plateformes collaboratives et relance le débat sur transparence et authenticité. Certains experts appellent à interdire légalement le fait de cacher l’origine non humaine d’un contenu, tout en reconnaissant la difficulté d’appliquer de telles règles au rythme des évolutions techniques.Enfin, l’avenir du code avec Ryan Dahl, ...
    続きを読む 一部表示
    6 分
まだレビューはありません