『L'IA aujourd'hui épisode du 2025-11-09』のカバーアート

L'IA aujourd'hui épisode du 2025-11-09

L'IA aujourd'hui épisode du 2025-11-09

無料で聴く

ポッドキャストの詳細を見る

このコンテンツについて

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : IA et censure dans les bibliothèques scolaires, malware auto-adaptatif guidé par des modèles, cadres agentiques pour développeurs, et chiffres contrastés sur l’adoption et la sécurité.D’abord, dans l’édition scolaire, la société Children’s Literature Comprehensive Database lance Class-Shelf Plus v3. Ce logiciel de gestion de catalogues pour bibliothèques scolaires intègre une automatisation pilotée par l’IA, une analyse contextuelle des risques, un marqueur de “matériel sensible” et une notation par feux tricolores. Objectif annoncé : réduire de plus de 80 % la charge de travail de révision manuelle imposée par les lois locales interdisant certains livres et programmes. Un livre blanc cite un “contournement” d’interdiction, qui consiste en réalité à proposer des titres alternatifs “sans le contenu contesté”. Le produit est en phase pilote. Son président explique qu’il aide les districts à rendre visibles au public la majorité de leurs collections, à repérer un petit sous-ensemble de titres à revoir selon les directives de l’État, et à défendre ces choix avec des preuves et des données plutôt qu’avec des jugements subjectifs.Dans le même secteur, des bibliothécaires décrivent un afflux de solutions de bibliothèque alimentées par l’IA et des catalogues saturés de livres générés par l’IA à trier. Plus largement, la promotion agressive de l’IA par des entreprises technologiques, des acteurs financiers et des agences publiques s’articule, selon eux, avec des campagnes d’interdictions de livres et des efforts de censure éducative. La pression pour “ne pas rater le train” de l’IA générative facilite l’intégration de solutions parfois immatures, aux coûts énergétiques élevés, avec des risques pour les minorités, le climat et l’écosystème informationnel. Les bibliothèques publiques, financées par des fonds non lucratifs, pourraient jouer un rôle de référence: promouvoir des pratiques durables, transparentes et ouvertes, et fournir des données fiables. Elles doivent cependant concilier ces valeurs avec des marchés dominés par de grands acteurs commerciaux, dans une stratégie de long terme.Cap sur la cybersécurité. Google signale PROMPTFLUX, un malware de “data mining” qui se réécrit toutes les heures en s’appuyant sur l’API Gemini. Son module “Thinking Robot” demande du code d’obfuscation et d’évasion adapté aux antivirus rencontrés, brouillant la détection. Écrit en VBScript, il régénère son propre source à intervalles réguliers. Plusieurs variantes ont été observées, certaines encore en test. À ce stade, il n’est pas capable de compromettre un appareil ou un réseau de bout en bout, mais l’évolution est rapide. Le rapport souligne l’usage d’ingénierie sociale pour contourner les garde-fous des IA, avec des acteurs qui se font passer pour des étudiants ou des chercheurs. Ce cas fait écho à un précédent: un ransomware autonome présenté en 2025, capable de s’adapter à son environnement. Des comptes associés à ces menaces ont été désactivés.On reste côté développement, avec l’essor de GPT-5 et de Gemini 2.5 Pro qui accélère les cadres dits “agentiques”. Exemple: LangGraph. Ce framework open source simplifie les flux de travail d’IA en gérant l’appel d’outils, l’état des agents et l’humain dans la boucle. À l’usage, il facilite la configuration et l’orchestration, mais impose encore du code standard et expose des erreurs spécifiques lors de l’implémentation. L’enjeu est d’équilibrer abstraction et contrôle pour construire des systèmes fiables, auditables et ajustables.Enfin, les chiffres d’adoption montrent un paysage contrasté. 97 % des organisations utilisent déjà ou testent des assistants de codage IA et intègrent leur code. Mais 65 % constatent une hausse des risques: vulnérabilités, erreurs, biais. Côté exposition, 1 100 serveurs Ollama ont été découverts accessibles sans autorisation, créant des risques pour les hôtes. 85 % des développeurs s’inquiètent de la sécurité liée à la dépendance à l’IA générative et d’une perte de pensée critique. Dans les directions d’entreprise, 85 % jugent la cybersécurité déterminante pour la croissance, et 61 % sont préoccupés par les menaces alimentées par l’IA. Malgré l’engouement, 80 % des projets d’IA échouent, soit le double des projets informatiques classiques, générant des gaspillages financiers. En France, 11 % des entreprises seulement ont déployé pleinement des modèles d’IA générative, mais 55 % projettent de le faire.Ces actualités se rejoignent sur un point: la nécessité de preuves, de gouvernance et d’outils vérifiables. Qu’il s’agisse de classifier des livres sous contrainte ...
まだレビューはありません