『Teknik - Al Trust - Apprentissage automatique - Détection des modèles empoisonnés après entrainement - Parce que... c'est l'épisode 0x604!』のカバーアート

Teknik - Al Trust - Apprentissage automatique - Détection des modèles empoisonnés après entrainement - Parce que... c'est l'épisode 0x604!

Teknik - Al Trust - Apprentissage automatique - Détection des modèles empoisonnés après entrainement - Parce que... c'est l'épisode 0x604!

無料で聴く

ポッドキャストの詳細を見る

このコンテンツについて

Parce que… c’est l’épisode 0x604! Shameless plug 12 au 17 octobre 2025 - Objective by the sea v810 au 12 novembre 2025 - IAQ - Le Rendez-vous IA Québec17 au 20 novembre 2025 - European Cyber Week25 et 26 février 2026 - SéQCure 2065 Description Introduction et présentation de l’expert Dans cet épisode spécial de “Police Sécure Cyber Éco”, Emmanuel Christian Nternanya, expert en cybersécurité d’origine congolaise, présente ses recherches révolutionnaires sur la détection de l’empoisonnement de modèles d’intelligence artificielle. Certifié CISSP avec plus d’une décennie d’expérience dans l’industrie informatique depuis 2012 et cinq années spécialisées en cybersécurité, Emmanuel apporte une expertise technique approfondie à un sujet critique pour l’avenir de l’IA. Le problème de l’empoisonnement des modèles d’IA L’empoisonnement de modèles d’IA représente une menace sophistiquée et souvent invisible. Contrairement à l’expérience utilisateur simplifiée que nous connaissons avec ChatGPT ou d’autres interfaces conversationnelles, la réalité technique est bien plus complexe. Chaque modèle d’IA possède un “cerveau” qui doit être entraîné avec des données pour acquérir ses capacités de prédiction et de classification. Le principe fondamental est simple mais préoccupant : si un modèle est entraîné avec des données corrompues indiquant que 1+1=3, il reproduira fidèlement cette erreur. Les modèles d’IA ne font que reproduire ce qu’ils ont appris, sans capacité de discernement critique. Cette vulnérabilité ouvre la porte à des attaques sophistiquées où des adversaires peuvent corrompre intentionnellement les données d’entraînement. La recherche d’Emmanuel démontre qu’il suffit parfois de contaminer seulement 1% des données d’entraînement pour réussir à modifier significativement le comportement d’un modèle. Cette découverte est particulièrement alarmante car elle révèle qu’une intervention minimale peut avoir des conséquences majeures, tout en restant pratiquement indétectable par les méthodes conventionnelles. La solution innovante : le “docteur” en IA Face à cette menace, l’équipe d’Emmanuel a développé une approche révolutionnaire : créer un “docteur” spécialisé dans le diagnostic des modèles d’IA. Ce système de détection peut identifier si un modèle a été empoisonné en analysant uniquement ses poids internes, sans avoir accès aux données d’entraînement originales. La méthodologie de recherche s’appuie sur une approche rigoureuse et extensive. L’équipe a créé 1000 ensembles de données d’entraînement soigneusement vérifiés et non contaminés, puis a entraîné 1000 modèles correspondants. Parmi ces modèles, les 950 présentant les meilleures performances ont été sélectionnés pour l’analyse approfondie. Le processus d’analyse se concentre sur l’architecture des réseaux de neurones convolutifs, particulièrement sur les trois couches denses et la couche de classification finale utilisant une fonction sigmoïde. Chaque couche contient des neurones qui apprennent et retiennent l’information sous forme de poids, des valeurs numériques représentant la connaissance acquise par le modèle. La transformation des poids en images diagnostiques L’innovation majeure réside dans la transformation des poids du modèle en images analysables. Emmanuel explique que les poids d’un modèle varient généralement entre -1 et 1, des valeurs difficiles à interpréter directement. L’équipe a développé un algorithme propriétaire capable de convertir ces poids en valeurs d’intensité d’image (de 1 à 255), créant ainsi des représentations visuelles des états internes du modèle. Cette approche s’inspire de l’imagerie médicale : tout comme un cerveau humain peut être analysé par radiographie, le “cerveau” d’un modèle d’IA peut être “radiographié” en convertissant ses poids en images. Cette analogie n’est pas qu’une métaphore ; elle constitue la base technique de leur méthode de diagnostic. Le système utilise deux docteurs spécialisés, chacun entraîné sur des images de dimensions différentes extraites de couches distinctes du modèle analysé. Le premier docteur analyse des images de 100x100 pixels, tandis que le second traite des images de 200x200 pixels. Cette approche multicouche permet une analyse plus complète et nuancée des modèles suspects. L’apprentissage d’ensemble et les performances La combinaison des deux docteurs spécialisés à travers l’apprentissage d’ensemble (ensemble learning) produit un diagnostic final plus précis que chaque docteur individuellement. Cette synergie permet d’atteindre des taux de réussite impressionnants de 98% à 99% dans la détection des modèles empoisonnés. La validation de ces performances s’effectue sur des modèles que les docteurs ...

Teknik - Al Trust - Apprentissage automatique - Détection des modèles empoisonnés après entrainement - Parce que... c'est l'épisode 0x604!に寄せられたリスナーの声

カスタマーレビュー:以下のタブを選択することで、他のサイトのレビューをご覧になれます。