『L'IA aujourd'hui épisode du 2025-11-18』のカバーアート

L'IA aujourd'hui épisode du 2025-11-18

L'IA aujourd'hui épisode du 2025-11-18

無料で聴く

ポッドキャストの詳細を見る

このコンテンツについて

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : une plainte contre la Commission européenne pour usage d’IA générative, la pile PARK pour bâtir des plateformes d’IA en entreprise, des modèles de vision alignés sur la perception humaine, et l’impact des LLM sur la cybersécurité.D’abord, affaire européenne. L’ICCL a saisi le Médiateur européen, estimant que la Commission européenne a utilisé de l’IA générative dans des documents publics en contradiction avec ses propres règles et ses obligations de fournir une information exacte. Dans une réponse à une demande d’accès aux documents, la Commission a inclus quatre liens, dont au moins un contenait “utm_source=chatgpt.com”, révélant qu’il avait été généré via ChatGPT d’OpenAI. On ignore si d’autres passages reprenaient des sorties d’IA et si cette pratique est courante. Or, les lignes directrices internes indiquent que “le personnel ne doit jamais reproduire directement la sortie d’un modèle d’IA générative dans des documents publics.” L’ICCL rappelle aussi le droit à une bonne administration inscrit dans les traités. Pour son Senior Fellow, Kris Shrishak, les autorités devraient divulguer l’usage d’outils génératifs et préciser lesquels, et assumer la charge de prouver la véracité des informations—à défaut, s’abstenir de les utiliser.Cap sur l’entreprise. Face à l’IA générative, trois voies se dessinent pour les équipes tech : étendre les plateformes data/ML existantes, s’appuyer sur des API, ou bâtir une plateforme unifiée sur mesure. Pour ce dernier choix, une pile s’impose : PARK, pour PyTorch, AI Frontier Models, Ray, Kubernetes. L’architecture combine Kubernetes pour orchestrer les ressources et la mise à l’échelle des conteneurs ; Ray pour le calcul distribué, la tolérance aux pannes et l’exécution multi-nœuds ; des modèles de base préentraînés, ajustables et déployables sur des tâches spécifiques ; et PyTorch comme cadre haut niveau pour développer ou affiner ces modèles. L’intérêt : une plateforme cohérente couvrant entraînement, adaptation et déploiement, en gardant la maîtrise des coûts, de la sécurité et des performances.On enchaîne avec la recherche. Une équipe de Google DeepMind, Anthropic et d’Allemagne propose AligNet, une méthode pour rapprocher les modèles de vision des jugements humains. Publiée dans Nature, l’étude part d’un “modèle enseignant de substitution” : une version de SigLIP ajustée à partir de jugements humains issus du jeu de données THINGS. Cet enseignant produit des scores de similarité “pseudo-humains” pour des millions d’images synthétiques d’ImageNet. Ces étiquettes servent ensuite à affiner différents modèles, dont des Vision Transformers (ViT) et des systèmes auto-supervisés comme DINOv2. Résultat : sur “Levels”, un nouveau jeu de données couvrant plusieurs niveaux d’abstraction et évalué par 473 personnes, un ViT-B ajusté avec AligNet dépasse l’accord moyen entre humains. Les gains techniques suivent : meilleure généralisation et robustesse, parfois plus du double de précision par rapport aux versions de base ; hausse jusqu’à +9,5 points de pourcentage sur l’ImageNet-A adversarial ; meilleure estimation de l’incertitude, avec des confiances plus proches des temps de réponse humains. Les représentations internes se réorganisent aussi : les objets se regroupent par signification plutôt que par apparence, au point que des lézards se rapprochent d’autres animaux plutôt que de plantes de même couleur. Données et modèles sont en accès libre, avec la réserve que les jugements humains comportent des biais.Enfin, cybersécurité et LLM. Des modèles comme ChatGPT, Claude ou Gemini facilitent l’accès à l’information, mais peuvent aussi aider des acteurs malveillants. Les garde-fous refusent une demande explicite d’injection SQL, mais le “prompt engineering” permet de les contourner en plaçant la requête dans un contexte fictif. Plus préoccupant, un LLM peut accompagner une attaque bout en bout : en reconnaissance, il suggère des outils de scan, explique leur usage discret et interprète les résultats ; en exploitation, il génère des payloads et des scripts adaptés, voire les obfusque ; en évasion, il propose des requêtes qui ne déclenchent pas d’alertes IDS si on lui fournit les règles ; en persistance, il conseille l’usage de tunnels, de canaux de commande et contrôle légers et de scripts adaptés à l’environnement. Cela élève des profils moyens au rang d’attaquants crédibles et accélère les experts. Côté défense, l’IA agrège des signaux faibles et détecte des schémas changeants sans se limiter aux signatures. La dynamique s’impose : revoir les stratégies et faire de l’IA un allié pour contrer l’IA.Voilà qui ...
まだレビューはありません