『L'IA aujourd'hui épisode du 2025-11-10』のカバーアート

L'IA aujourd'hui épisode du 2025-11-10

L'IA aujourd'hui épisode du 2025-11-10

無料で聴く

ポッドキャストの詳細を見る

このコンテンツについて

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : IA et censure dans les bibliothèques, malware auto-réécrit avec Gemini, cadres agentiques avec LangGraph, et chiffres clés sur les assistants de code et la sécurité.On commence par le monde des bibliothèques scolaires. Le mois dernier, l’entreprise Children’s Literature Comprehensive Database a lancé Class-Shelf Plus v3, un logiciel de suivi de catalogues qui ajoute de l’automatisation par IA et une analyse contextuelle des risques. Deux nouveautés se détachent: un marqueur de “matériel sensible” piloté par IA et une notation des risques par feux tricolores. Objectif affiché: réduire de plus de 80 % la charge de travail de révision manuelle pour se conformer aux lois interdisant certains livres et programmes. Dans un livre blanc, CLCD illustre son “rôle dans le contournement d’une interdiction”, mais l’exemple correspond surtout à proposer des titres alternatifs sans le contenu contesté. Son président, Ajay Gupte, précise que la solution est en phase pilote et permet de rendre la majorité des collections de classe visibles au public, tout en isolant un petit sous-ensemble de titres à revoir selon les directives d’État. L’outil veut aider les districts à documenter leurs décisions, protéger enseignants et bibliothécaires d’accusations de partialité, et défendre les collections par des preuves plutôt que des opinions.Sur le terrain, des bibliothécaires rapportent être submergés par des propositions de technologies fondées sur l’IA, et par des catalogues saturés d’ouvrages générés par IA qu’il faut trier. Ils décrivent un contexte où le “maximalisme” de l’IA irrigue la bataille idéologique autour des livres et de l’école, avec une classification potentiellement moins nuancée lorsque des modèles décident si un contenu est “sensible”. Au-delà, une présentation récente met en garde: la formation et l’exploitation de ces systèmes consomment des ressources et peuvent aggraver des risques pour les minorités, le climat et l’écosystème informationnel. Elle pose la question d’alternatives plus ouvertes, transparentes et durables, et propose un rôle pour les bibliothèques, institutions publiques capables de promouvoir de bonnes pratiques et de servir de courtiers de données fiables. Reste un équilibre à trouver entre ces valeurs et un marché dominé par de grands acteurs orientés vers le profit, dans une mission de long terme.Cap sur la cybersécurité. Google a repéré PROMPTFLUX, un malware “data mining” qui s’appuie sur l’API Gemini pour réécrire son code source à intervalles réguliers, parfois chaque heure, afin d’échapper aux antivirus. Son module “Thinking Robot” interroge Gemini pour obtenir, en temps réel, des techniques d’obfuscation et d’évasion adaptées à l’outil de détection rencontré. Plusieurs variantes ont été observées; certaines réécrivent l’intégralité du malware à fréquence horaire. Les chercheurs indiquent que le phénomène semble encore en phase de développement ou de test et, à ce stade, ne permettrait pas de compromettre un appareil ou un réseau. Le rapport souligne aussi l’usage de l’ingénierie sociale pour contourner les garde-fous des IA, avec des acteurs malveillants se faisant passer pour des étudiants ou des chercheurs. Vigilance de mise.Côté outils de développement, les cadres agentiques montent en puissance. LangGraph, open source et simple à installer, vise à faciliter des flux de travail IA en gérant l’appel d’outils, l’état agentique et l’intervention humaine. Avec l’arrivée de modèles comme GPT-5 ou Gemini 2.5 Pro, ce type de cadre se généralise. Avantages: accélérer la construction de systèmes agentiques. Limites: du code standardisé et des erreurs spécifiques à l’implémentation. L’enjeu reste d’équilibrer abstraction et contrôle.Enfin, les chiffres sur les assistants de codage et la sécurité. 97 % des organisations utilisent ou testent déjà des assistants de code IA et intègrent du code généré par IA, mais 65 % constatent une hausse des risques: vulnérabilités, erreurs, biais. La sécurité est souvent reléguée: Cisco a recensé 1 100 serveurs Ollama exposés à des accès non autorisés. Selon Legit Security, 85 % des développeurs s’inquiètent des risques de sécurité liés à l’IA générative et d’une perte de pensée critique. Du côté des dirigeants, 85 % jugent la cybersécurité décisive pour la croissance et 61 % redoutent des menaces liées à l’IA, d’après Gartner. Autre signal: 80 % des projets d’IA échouent, soit le double des projets IT traditionnels, selon RAND. En France, seulement 11 % des entreprises ont pleinement déployé des modèles d’IA générative, même si 55 % prévoient de le faire.Voilà qui conclut notre épisode d...
まだレビューはありません