エピソード

  • Spécial - L’internet mondial est-il en train de mourir ? - Parce que... c'est l'épisode 0x609!
    2025/07/14
    Parce que… c’est l’épisode 0x609! Shameless plug 12 au 17 octobre 2025 - Objective by the sea v810 au 12 novembre 2025 - IAQ - Le Rendez-vous IA Québec17 au 20 novembre 2025 - European Cyber Week25 et 26 février 2026 - SéQCure 2065 Description Dans cet épisode spécial, l’hôte du podcast P secure reçoit Davy Adam pour analyser une question cruciale : l’internet mondial existe-t-il encore vraiment, ou est-il déjà mort ? Cette discussion fait suite à leur précédent échange sur la souveraineté numérique et s’inscrit dans le contexte géopolitique mouvementé de 2025, marqué par les changements de politique américaine sous l’administration Trump. La nature d’internet et ses fondements Davy Adam commence par rappeler ce qu’est réellement internet : contrairement à la perception commune qui l’assimile à un service centralisé, internet est en réalité l’interconnexion de réseaux privés avec des règles de routage permettant d’accéder aux ressources. Quand nous visitons un site de commerce en ligne ou de streaming, nous accédons à une infrastructure privée appartenant à une entreprise, internet servant de réseau intermédiaire. Cette vision du “village planétaire” et des “autoroutes de l’information” a longtemps été portée par les États comme un bien commun. L’origine d’internet remonte à DARPANET, que Bill Clinton a décidé de rendre public. En France, le Minitel représentait une alternative prometteuse, mais son contrôle centralisé par une seule entité l’a empêché de rivaliser avec le modèle décentralisé d’internet qui favorisait la compétition et l’innovation. La fin de la neutralité d’internet Un des problèmes majeurs identifiés est la disparition progressive de la neutralité d’internet. Les acteurs privés qui contrôlent aujourd’hui les plateformes ne sont nullement neutres : ils ont leurs propres visions idéologiques et modèles sociologiques qu’ils imposent à travers leurs services. L’exemple d’Elon Musk avec Twitter/X illustre parfaitement cette dérive : depuis son acquisition, il a banni des centaines de milliers de comptes opposés à ses idées, modifié les algorithmes pour favoriser ses propres tweets, et utilisé la plateforme comme un outil de propagande personnelle. Cette manipulation s’étend au-delà des réseaux sociaux. Les résultats de recherche varient désormais selon la géolocalisation, créant des bulles informationnelles nationales. L’exemple récent du “golfe du Mexique” rebaptisé “golfe de l’Amérique” par Trump illustre comment la géopolitique influence directement l’information accessible aux utilisateurs selon leur localisation. La fragmentation géopolitique d’internet L’internet mondial subit une fragmentation croissante sous l’influence des tensions géopolitiques. Pendant la guerre en Ukraine, le gouvernement américain a décidé de couper certains liens reliant la Russie à l’internet mondial. En parallèle, la Russie développe son propre internet interne pour réduire sa dépendance. La Chine, avec son “grand firewall”, oblige tous les fournisseurs de services à héberger leurs données sur son territoire sous contrôle gouvernemental. Cette balkanisation reflète une tendance plus large : les gouvernements préfèrent aujourd’hui contrôler l’information plutôt que de permettre la libre circulation des idées. Comme le soulignent les intervenants, c’est exactement la stratégie de toute dictature : prendre le contrôle des médias pour déverser un flux constant de propagande et de “fausses vérités”. L’effacement de l’histoire et la manipulation de l’information Un aspect particulièrement inquiétant évoqué dans le podcast est la capacité des États-Unis à faire disparaître des données publiques. L’exemple des bases de données climatiques, collectées par des entités scientifiques et universitaires américaines et utilisées comme référence mondiale, qui ont été coupées récemment par l’administration Trump, illustre cette dérive. Cette suppression s’inscrit dans une démarche climatonégationniste qui va jusqu’à effacer les preuves scientifiques. Cette capacité d’effacement rappelle le travail du protagoniste de “1984” d’Orwell, chargé de réécrire constamment l’histoire. Amazon a déjà retiré des livres des bibliothèques numériques de particuliers, démontrant le pouvoir de ces entreprises privées de faire littéralement disparaître des œuvres de l’histoire littéraire. L’évolution dangereuse des outils de recherche Le podcast soulève également les risques liés au remplacement progressif des moteurs de recherche traditionnels par des intelligences artificielles comme ChatGPT. Contrairement aux moteurs de recherche qui fournissent une liste de sources avec leurs adresses spécifiques, les IA offrent une synthèse sans sources vérifiables. Cette évolution ...
    続きを読む 一部表示
    51 分
  • Spécial - L'outillage dans le cadre d'analyse de risque - Parce que... c'est l'épisode 0x608!
    2025/07/09
    Parce que… c’est l’épisode 0x608! Shameless plug 12 au 17 octobre 2025 - Objective by the sea v810 au 12 novembre 2025 - IAQ - Le Rendez-vous IA Québec17 au 20 novembre 2025 - European Cyber Week25 et 26 février 2026 - SéQCure 2065 Description Introduction et contexte Nicolas accueille Christophe d’Arlhac pour cette nouvelle édition du podcast. Faisant suite à leur précédent échange sur l’importance de l’analyse des menaces, cette discussion se concentre sur l’outillage associé à l’analyse de risque. L’objectif est de mettre en perspective les avantages et inconvénients de ces outils pour en tirer le maximum de bénéfices tout en évitant les pièges potentiels. Les avantages fondamentaux de l’outillage Structure et guidance Les outils d’analyse de risque constituent un élément structurant essentiel qui aide les analystes à effectuer leur travail méthodiquement sans rien omettre. Christophe souligne que ces outils permettent d’identifier, d’évaluer et de prioriser les menaces potentielles pesant sur les systèmes d’information. L’intégration intrinsèque de différentes fonctionnalités offre un cadre rigide qui évite l’oubli de certaines étapes importantes et standardise les méthodes de calcul. Conservation et pérennisation de l’information Un avantage majeur réside dans la capacité de ces outils à conserver et pérenniser l’information. Contrairement aux fichiers Excel artisanaux, les outils dédiés facilitent le transfert du travail entre différents intervenants. Nicolas observe que dans un contexte plus artisanal, chaque changement d’analyste tend à provoquer une reprise complète du travail, chacun ayant sa propre approche. Cette tendance à “repartir de zéro” fait perdre les bénéfices de l’amélioration continue et de l’approche itérative préconisée par les méthodologies actuelles. Gestion de la complexité Les fichiers Excel deviennent rapidement volumineux et difficiles à gérer, posant des problèmes de sécurité et de partage de droits. La ultra-personnalisation de ces fichiers les rend difficilement compréhensibles pour d’autres utilisateurs, créant un cercle vicieux où il devient plus simple de recommencer que de comprendre le travail précédent. L’adaptabilité face aux évolutions Suivi des menaces évolutives L’évolution constante des menaces constitue un argument fort en faveur des outils stables. L’exemple de la guerre en Ukraine illustre parfaitement comment la nature des menaces peut changer rapidement, modifiant le niveau de risque pour certains secteurs ou pays. Les outils permettent de pivoter et de suivre ces évolutions dans le temps, offrant une vision claire des raisons des changements de risque. Évolution réglementaire De même, les réglementations évoluent constamment, particulièrement en Europe où l’activité législative est intense. Les outils intègrent ces mises à jour réglementaires automatiquement, permettant de suivre facilement ces évolutions et de comprendre pourquoi un risque peut différer selon l’époque, non seulement à cause des attaques mais aussi des changements réglementaires. Les fonctionnalités avancées Intégration et pré-remplissage Les outils modernes offrent des capacités d’intégration avec d’autres systèmes, permettant de puiser dans des sources de données existantes. Cette fonctionnalité pré-remplit automatiquement les informations sur les actifs de support et business, représentant un gain de temps considérable. Pour les entreprises matures disposant de CMDB (Configuration Management Database), cette intégration automatique élimine l’effort manuel de collecte d’informations. Collaboration et reporting Ces outils favorisent la collaboration entre équipes et s’intègrent avec d’autres solutions pour enrichir les données d’entrée. Ils offrent également des capacités de reporting avancées avec des tableaux de bord permettant aux dirigeants de prendre des décisions éclairées concernant les investissements sécuritaires, avec une vue historique des choix stratégiques et financiers. Les écueils à éviter Faux sentiment de sécurité L’utilisation d’outils peut créer une illusion de précision et un faux sentiment de sécurité. Les utilisateurs risquent de devenir moins objectifs et de manquer de contextualisation, se concentrant davantage sur les capacités de l’outil que sur l’analyse critique des données. Cette tendance peut conduire à suivre mécaniquement une checklist sans remettre en question les données ou la logique sous-jacente. Risque de déshumanisation Un piège particulièrement dangereux consiste à croire qu’un outil peut remplacer l’expérience humaine. Certaines organisations font l’erreur de penser qu’un consultant junior peut utiliser l’outil de manière autonome, sous prétexte que celui-ci le guide. Cette approche néglige l’importance de l’expertise humaine ...
    続きを読む 一部表示
    33 分
  • Spécial - leHACK 2025 - Parce que... c'est l'épisode 0x607!
    2025/07/07
    Parce que… c’est l’épisode 0x607! Shameless plug 12 au 17 octobre 2025 - Objective by the sea v810 au 12 novembre 2025 - IAQ - Le Rendez-vous IA Québec17 au 20 novembre 2025 - European Cyber Week25 et 26 février 2026 - SéQCure 2065 Description Un épisode depuis Paris Cet épisode spécial du podcast propose une rencontre inhabituelle entre deux Québécois expatriés à Paris pour assister au leHACK, un événement mythique de cybersécurité francophone. L’animateur retrouve Martin Dubé, ancien organisateur du HAckfest au Québec, qui réalise un rêve de quinze ans en découvrant enfin cet événement légendaire. Depuis 2010, Martin s’impliquait dans le milieu de la cybersécurité québécoise, notamment avec le Hackfest, avant de prendre une pause pour des raisons familiales. Aujourd’hui entrepreneur indépendant, il s’est offert ce voyage comme un cadeau personnel. Découverte du leHACK et de son atmosphère unique Le leHACK, anciennement appelé “La Nuit du Hack”, se révèle être un événement impressionnant par son ampleur et son organisation. Avec environ 3000 participants, l’événement se déroule à la Cité des Sciences, offrant un cadre exceptionnel avec des espaces généreux et bien distribués. Contrairement au NorthSec ou au Hackfest québécois, l’atmosphère y est remarquablement détendue et non-compétitive. Le CTF (Capture The Flag) rassemble plus de 400 participants dans deux grandes salles, mais fonctionne selon un principe individuel plutôt qu’en équipes, ce qui explique cette ambiance plus relaxe. Différences culturelles et techniques L’infrastructure technique du leHACK impressionne par son approche “old school” avec des serveurs sur site, des switches 10GB et 25GB, et trois gros serveurs Xeon avec 128GB de RAM chacun. Cette approche filaire contraste avec la tendance cloud des événements québécois. L’aspect culturel se révèle également fascinant : les deux Québécois découvrent un environnement plus ouvert et respectueux, où les conflits se résolvent par une simple bise plutôt que par des confrontations. Cette différence culturelle enrichit leur expérience, même si elle crée parfois un sentiment d’isolement initial. Conférences : entre excellence et redondance L’amphithéâtre de 900 places offre des conditions d’écoute exceptionnelles, avec un son et un confort impeccables. Les conférences présentent un mélange intéressant : certaines sont remarquables, comme celle sur le reverse engineering d’une montre connectée à 12 euros. Cette présentation technique de haut niveau démontre comment les conférenciers ont contourné des protections complexes pour révéler que l’appareil générait simplement des données de santé aléatoires. D’autres conférences, malheureusement, recyclent des concepts déjà largement abordés dans le milieu, créant une certaine frustration chez les participants expérimentés. Réflexions sur l’évolution du milieu L’événement révèle une problématique générationnelle intéressante : de nombreux sujets “basiques” doivent encore être expliqués, révélant des lacunes dans la formation académique. Les techniques de sécurité recommandées aujourd’hui pour l’IA reprennent souvent des principes établis il y a vingt ans, soulignant un éternel recommencement dans le domaine. Cette situation crée un dilemme : les vétérans aimeraient du contenu plus avancé, mais les nombreux jeunes participants ont besoin de ces bases fondamentales. Observations sur la relève et l’écosystème Le leHACK frappe par la jeunesse de ses participants, contrastant avec le vieillissement observé dans certains événements québécois. De nombreuses écoles sont présentes, notamment l’École 42, démontrant un investissement fort dans la formation. Cette diversité générationnelle enrichit l’événement, même si elle complique parfois le niveau des présentations. L’écosystème français semble plus dynamique pour attirer et former la relève en cybersécurité. Expérience personnelle et networking Malgré leur statut d’étrangers, les deux Québécois parviennent à créer des liens intéressants, notamment grâce à Florent, associé français de l’un d’eux, qui facilite les rencontres. L’événement se distingue par son accessibilité : pas de files d’attente interminables comme au DefCon, une circulation fluide, et des espaces qui ne donnent pas cette impression d’écrasement malgré les 3000 participants. Cette organisation permet de véritablement profiter du contenu et des interactions. Anecdotes et détails marquants L’événement réserve quelques surprises technologiques, comme la présence de minitels connectés au WiFi, rappelant l’histoire des télécommunications françaises. Un chien robot programmable attire l’attention, créant des réactions mitigées selon les profils des participants. La canicule parisienne ajoute une...
    続きを読む 一部表示
    36 分
  • Spécial - Un brin de nostalgie durant le Northsec - Parce que... c'est l'épisode 0x606!
    2025/07/02
    Parce que… c’est l’épisode 0x606! Préambule Nous avons rencontré un problème technique durant l’enregistrement. L’équipement a cessé de fonctionner, sans que nous nous en rendions compte. Nous avons conservé le segment qui est utilisable. Shameless plug 12 au 17 octobre 2025 - Objective by the sea v810 au 12 novembre 2025 - IAQ - Le Rendez-vous IA Québec17 au 20 novembre 2025 - European Cyber Week25 et 26 février 2026 - SéQCure 2026 Description Ce podcast enregistré lors de NorthSec réunit l’animateur et Martin Dubé pour une discussion nostalgique sur l’évolution de la communauté cybersécurité québécoise, particulièrement autour du Hackfest et de NorthSec. Les débuts du Hackfest et l’innovation des CTF Martin Dubé raconte ses débuts en 2010 au Hackfest, alors qu’il était étudiant en deuxième année d’université. À cette époque, l’événement était très différent d’aujourd’hui : les organisateurs transportaient des serveurs physiques hébergés chez eux jusqu’à l’hôtel, utilisant des technologies comme Proxmox et VMware. Cette période artisanale contraste fortement avec l’automatisation moderne mise en place par des équipes comme celle de Laurent au NorthSec. L’innovation majeure de cette époque fut l’introduction du format “attaque-défense” pour les CTF, remplaçant le traditionnel format “jeopardy” (matrice de challenges par catégories). Ce nouveau format permettait aux participants d’attaquer les infrastructures des autres équipes tout en défendant la leur, créant une dynamique plus réaliste et complexe. Leadership et apprentissage par la pratique Martin souligne l’importance de l’aspect leadership dans son rôle de responsable des CTF. Gérer une équipe de bénévoles non rémunérés lui a enseigné des compétences précieuses en gestion d’équipe, motivation par la reconnaissance et coordination de projets complexes. Cette expérience s’est révélée cruciale pour sa carrière professionnelle, démontrant que l’implication dans la communauté offre bien plus que des compétences techniques. Il encourage fortement les nouveaux arrivants dans le domaine à s’impliquer dans de tels événements, car cela permet de garnir son CV d’expériences pertinentes et facilite l’entrée sur le marché du travail. Cette recommandation reste valable aujourd’hui, même si le domaine s’est professionnalisé. L’innovation de la track Windows Un moment marquant fut la création de la “track Windows” au NorthSec, une innovation que Martin et Stéphan Sigman considèrent comme pionnière. Contrairement aux challenges synthétiques habituels, cette track simulait un véritable environnement d’entreprise avec Active Directory, partages réseau mal configurés, GPO contenant des mots de passe, et autres vulnérabilités typiques des infrastructures corporatives. Cette approche répondait à une critique importante : les CTF traditionnels développaient des compétences sur des challenges artificiels, tandis que les vrais pentesters doivent attaquer des réseaux d’entreprise réels. La track Windows a forcé les participants à développer des compétences directement applicables au Red Teaming et aux tests d’intrusion internes. Évolution technologique et impact de l’IA La discussion aborde l’évolution technologique du domaine. Martin observe que la sécurité par défaut s’est considérablement améliorée depuis les années 2010, rendant les vulnérabilités basiques moins fréquentes. L’arrivée de l’intelligence artificielle transforme également le paysage professionnel, mais plutôt comme un assistant qu’un remplaçant pour les pentesteurs. L’IA automatise certains aspects du travail de sécurité, notamment dans les outils de défense comme Sentinel pour l’analyse de logs. Cependant, Martin et l’animateur s’accordent sur le fait que l’IA reste un multiplicateur de force nécessitant une direction humaine, particulièrement en Red Team et pentest. Expérimentations mémorables Le podcast évoque plusieurs expérimentations marquantes, notamment les CTF avec des maquettes physiques comme le barrage hydroélectrique de 2013, précurseur des préoccupations actuelles sur la sécurité IoT et OT. Ces innovations visuelles permettaient aux non-participants de comprendre concrètement ce qu’était le hacking. L’expérience la plus mémorable reste les éditions “taupes” : des CTF 12 vs 12 ou 20 vs 20 où certains participants étaient secrètement des espions pour l’équipe adverse, simulant l’espionnage industriel. Ces expérimentations, bien que créatrices de “drama”, démontraient l’importance de prendre des risques calculés pour innover. Communauté et networking professionnel Un aspect crucial souligné est la valeur du réseau professionnel créé par ces événements. La communauté cybersécurité québécoise, bien que pas nécessairement composée ...
    続きを読む 一部表示
    28 分
  • Spécial - Outrunning the Red Queen - Analysis of Ransomware Scripts - Parce que... c'est l'épisode 0x605!
    2025/06/30
    Parce que… c’est l’épisode 0x605! Shameless plug 12 au 17 octobre 2025 - Objective by the sea v810 au 12 novembre 2025 - IAQ - Le Rendez-vous IA Québec17 au 20 novembre 2025 - European Cyber Week25 et 26 février 2026 - SéQCure 2065 Description Dans cet épisode spécial du podcast enregistré lors de l’événement Cyberco, l’animateur reçoit Vicky Desjardins, candidate au doctorat en criminologie à l’Université de Montréal et spécialiste en réponse à incident. Vicky présente les résultats de sa recherche de cinq années sur les rançongiciels, offrant une perspective unique qui combine criminologie et cybersécurité. Parcours et motivation de la recherche Vicky a débuté sa thèse avant la pandémie, cherchant à comprendre pourquoi les défenseurs semblaient toujours surpris et en mode réaction face aux attaques de rançongiciels. Malgré son manque initial d’expertise technique, elle était déterminée à contribuer à résoudre ce problème croissant. L’arrivée du Covid-19 a considérablement amplifié l’ampleur du phénomène qu’elle étudiait. Son expérience dans l’industrie a transformé sa perspective de recherche. Elle a réalisé qu’il existait souvent un fossé important entre la recherche académique et la réalité terrain. Cette prise de conscience l’a amenée à adopter une approche différente, se concentrant non pas sur ce qui change constamment dans les techniques d’attaque, mais plutôt sur les éléments stables et prévisibles du comportement criminel. Approche criminologique des rançongiciels L’originalité de la recherche de Vicky réside dans son approche criminologique. Plutôt que de se concentrer uniquement sur les aspects techniques qui évoluent rapidement, elle a choisi d’analyser les comportements humains sous-jacents aux attaques. Sa philosophie est que les techniques ne sont que des outils utilisés par des humains pour commettre des actes criminels. Cette perspective lui a permis de découvrir que les attaques de rançongiciels sont beaucoup moins sophistiquées qu’on pourrait le croire. En réalité, la plupart peuvent être exécutées en quelques lignes de commande une fois l’accès obtenu. Cette simplicité contraste avec l’image de tours de magie technologiques souvent véhiculée dans les médias. Constats sur la simplicité des attaques L’un des enseignements les plus marquants de sa recherche concerne la banalité technique des attaques. Vicky observe que les méthodes utilisées aujourd’hui sont essentiellement identiques à celles d’il y a six ans. Les attaquants utilisent toujours la même approche : ils “se tapent la tête” sur différents systèmes jusqu’à ce qu’ils trouvent une faille exploitable. La principale évolution qu’elle note est l’augmentation de la spécialisation des tâches. Alors qu’auparavant, un même attaquant gérait l’ensemble du processus, on observe maintenant une séparation entre ceux qui obtiennent l’accès initial (Initial Access Brokers) et ceux qui mènent l’attaque finale. Cette fragmentation n’augmente cependant pas la complexité technique fondamentale des attaques. Problèmes de base en cybersécurité Vicky souligne que beaucoup d’organisations investissent massivement dans des produits de cybersécurité sophistiqués sans maîtriser les fondamentaux. Elle observe fréquemment des entreprises qui possèdent des outils avancés mais mal déployés ou mal configurés, parfois même pas mis en place du tout. Sa première question lors d’interventions de réponse à incident est révélatrice : “Savez-vous ce que vous avez dans votre environnement ?” La réponse est souvent approximative, ce qui illustre le problème fondamental. Sans une connaissance précise de son infrastructure et une configuration appropriée des éléments de base, les investissements en cybersécurité perdent leur efficacité. Dépendance des attaquants à l’infrastructure des victimes L’une des découvertes les plus importantes de la recherche concerne la forte dépendance des attaquants vis-à-vis de l’infrastructure des victimes. Cette observation est cruciale car elle identifie un point de contrôle pour les défenseurs. Contrairement aux outils d’attaque qu’on ne peut pas contrôler, l’infrastructure appartient à l’organisation et peut être configurée de manière à compliquer considérablement le travail des attaquants. Cette dépendance se manifeste dans tous les aspects de l’attaque : reconnaissance, mouvement latéral, élévation de privilèges, et exfiltration de données. En rendant l’infrastructure moins “accueillante” pour les attaquants, on peut augmenter significativement la difficulté de leurs opérations. Importance critique des comptes valides Les comptes valides représentent la technique la plus stable et la plus utilisée dans l’arsenal des attaquants de rançongiciels. Vicky les observe à toutes les étapes ...
    続きを読む 一部表示
    36 分
  • Teknik - Al Trust - Apprentissage automatique - Détection des modèles empoisonnés après entrainement - Parce que... c'est l'épisode 0x604!
    2025/06/25
    Parce que… c’est l’épisode 0x604! Shameless plug 12 au 17 octobre 2025 - Objective by the sea v810 au 12 novembre 2025 - IAQ - Le Rendez-vous IA Québec17 au 20 novembre 2025 - European Cyber Week25 et 26 février 2026 - SéQCure 2065 Description Introduction et présentation de l’expert Dans cet épisode spécial de “Police Sécure Cyber Éco”, Emmanuel Christian Nternanya, expert en cybersécurité d’origine congolaise, présente ses recherches révolutionnaires sur la détection de l’empoisonnement de modèles d’intelligence artificielle. Certifié CISSP avec plus d’une décennie d’expérience dans l’industrie informatique depuis 2012 et cinq années spécialisées en cybersécurité, Emmanuel apporte une expertise technique approfondie à un sujet critique pour l’avenir de l’IA. Le problème de l’empoisonnement des modèles d’IA L’empoisonnement de modèles d’IA représente une menace sophistiquée et souvent invisible. Contrairement à l’expérience utilisateur simplifiée que nous connaissons avec ChatGPT ou d’autres interfaces conversationnelles, la réalité technique est bien plus complexe. Chaque modèle d’IA possède un “cerveau” qui doit être entraîné avec des données pour acquérir ses capacités de prédiction et de classification. Le principe fondamental est simple mais préoccupant : si un modèle est entraîné avec des données corrompues indiquant que 1+1=3, il reproduira fidèlement cette erreur. Les modèles d’IA ne font que reproduire ce qu’ils ont appris, sans capacité de discernement critique. Cette vulnérabilité ouvre la porte à des attaques sophistiquées où des adversaires peuvent corrompre intentionnellement les données d’entraînement. La recherche d’Emmanuel démontre qu’il suffit parfois de contaminer seulement 1% des données d’entraînement pour réussir à modifier significativement le comportement d’un modèle. Cette découverte est particulièrement alarmante car elle révèle qu’une intervention minimale peut avoir des conséquences majeures, tout en restant pratiquement indétectable par les méthodes conventionnelles. La solution innovante : le “docteur” en IA Face à cette menace, l’équipe d’Emmanuel a développé une approche révolutionnaire : créer un “docteur” spécialisé dans le diagnostic des modèles d’IA. Ce système de détection peut identifier si un modèle a été empoisonné en analysant uniquement ses poids internes, sans avoir accès aux données d’entraînement originales. La méthodologie de recherche s’appuie sur une approche rigoureuse et extensive. L’équipe a créé 1000 ensembles de données d’entraînement soigneusement vérifiés et non contaminés, puis a entraîné 1000 modèles correspondants. Parmi ces modèles, les 950 présentant les meilleures performances ont été sélectionnés pour l’analyse approfondie. Le processus d’analyse se concentre sur l’architecture des réseaux de neurones convolutifs, particulièrement sur les trois couches denses et la couche de classification finale utilisant une fonction sigmoïde. Chaque couche contient des neurones qui apprennent et retiennent l’information sous forme de poids, des valeurs numériques représentant la connaissance acquise par le modèle. La transformation des poids en images diagnostiques L’innovation majeure réside dans la transformation des poids du modèle en images analysables. Emmanuel explique que les poids d’un modèle varient généralement entre -1 et 1, des valeurs difficiles à interpréter directement. L’équipe a développé un algorithme propriétaire capable de convertir ces poids en valeurs d’intensité d’image (de 1 à 255), créant ainsi des représentations visuelles des états internes du modèle. Cette approche s’inspire de l’imagerie médicale : tout comme un cerveau humain peut être analysé par radiographie, le “cerveau” d’un modèle d’IA peut être “radiographié” en convertissant ses poids en images. Cette analogie n’est pas qu’une métaphore ; elle constitue la base technique de leur méthode de diagnostic. Le système utilise deux docteurs spécialisés, chacun entraîné sur des images de dimensions différentes extraites de couches distinctes du modèle analysé. Le premier docteur analyse des images de 100x100 pixels, tandis que le second traite des images de 200x200 pixels. Cette approche multicouche permet une analyse plus complète et nuancée des modèles suspects. L’apprentissage d’ensemble et les performances La combinaison des deux docteurs spécialisés à travers l’apprentissage d’ensemble (ensemble learning) produit un diagnostic final plus précis que chaque docteur individuellement. Cette synergie permet d’atteindre des taux de réussite impressionnants de 98% à 99% dans la détection des modèles empoisonnés. La validation de ces performances s’effectue sur des modèles que les docteurs ...
    続きを読む 一部表示
    26 分
  • Actualités Cyber Citoyen au 17 juin 2025 - Parce que... c'est l'épisode 0x603!
    2025/06/23
    Parce que… c’est l’épisode 0x603! Shameless plug 27 et 29 juin 2025 - LeHACK12 au 17 octobre 2025 - Objective by the sea v810 au 12 novembre 2025 - IAQ - Le Rendez-vous IA Québec17 au 20 novembre 2025 - European Cyber Week25 et 26 février 2026 - SéQCure 2065 Description Introduction et contexte Ce cinquième épisode de collaboration entre les balados Super Citoyen et Polysécure, animé par Catherine Dupont-Gagnon et Samuel Harper, avec la participation de Nicolas, aborde deux sujets majeurs touchant la cybersécurité et la vie privée des citoyens canadiens. Après une pause d’une semaine, les animateurs se retrouvent pour discuter d’enjeux critiques qui affectent directement les utilisateurs de technologies et les citoyens. Première partie : Les vulnérabilités de Microsoft Copilot La découverte d’une faille majeure L’épisode débute par l’analyse d’une vulnérabilité critique découverte dans Microsoft Copilot, spécifiquement dans sa version M365. Cette faille permet aux attaquants d’injecter des instructions malveillantes dans des documents de manière invisible pour les utilisateurs humains, mais détectable par l’agent d’indexation de Copilot. Le mécanisme d’attaque L’attaque fonctionne selon un principe relativement simple mais efficace : les cybercriminels cachent du texte dans des documents en utilisant des techniques comme l’écriture en blanc sur fond blanc ou des polices de caractères microscopiques. Lorsque Copilot analyse ces documents pour répondre aux requêtes des utilisateurs, il lit ces instructions cachées et les exécute comme s’il s’agissait de commandes légitimes. Samuel Harper explique que cette vulnérabilité est particulièrement dangereuse avec la version M365 de Copilot car cet agent peut indexer l’ensemble du contenu personnel d’un utilisateur : courriels, documents OneDrive, conversations Teams. Les instructions malveillantes peuvent donc ordonner à Copilot d’effectuer des actions non autorisées, comme envoyer des informations sensibles à des adresses externes. Les implications pour les entreprises Cette faille représente un risque considérable pour les organisations, particulièrement celles possédant des secrets industriels ou des informations confidentielles. Un attaquant pourrait théoriquement envoyer un courriel contenant des instructions cachées demandant à Copilot de transmettre tous les secrets industriels à une adresse spécifique. L’agent exécuterait ces commandes sans que l’utilisateur ne s’en aperçoive. Un problème systémique Les animateurs soulignent que bien que Microsoft ait corrigé cette vulnérabilité spécifique, le problème est plus large. Tous les agents d’intelligence artificielle utilisant des modèles RAG (Retrieval-Augmented Generation) - qui puisent leurs réponses dans des bases de données externes - sont potentiellement vulnérables à ce type d’attaque. Google Gemini, Claude et d’autres plateformes similaires pourraient être ciblés par des méthodes comparables. Deuxième partie : Le projet de loi C-4 et la protection des données Une loi aux multiples facettes Samuel Harper présente ensuite une analyse approfondie du projet de loi C-4 du gouvernement Carney, officiellement intitulé “Loi visant à rendre la vie plus abordable pour les Canadiens”. Si les trois premières parties de cette loi concernent effectivement des mesures d’abordabilité (baisses d’impôts, fin de la taxe carbone, remboursement de la TPS pour l’achat d’une première maison neuve), la quatrième partie introduit des modifications controversées à la loi électorale. L’exemption des partis politiques Cette section du projet de loi soustrait les partis politiques fédéraux aux lois de protection des renseignements personnels. Concrètement, cela signifie que les partis politiques, leurs bénévoles et tous ceux qui travaillent en leur nom peuvent exercer toutes les activités avec les renseignements personnels sans aucune restriction légale. Le contexte juridique Cette modification législative fait suite à une décision de 2022 du commissaire à la vie privée de la Colombie-Britannique, qui avait déterminé que les partis fédéraux devaient également respecter la loi provinciale PIPA (Personal Information Protection Act). Les partis politiques ont contesté cette décision jusqu’en Cour suprême de la Colombie-Britannique et ont perdu leur cause. Une stratégie législative discutable Les animateurs dénoncent la tactique consistant à inclure ces modifications controversées dans un projet de loi sur l’abordabilité. Cette approche, rappelant les “omnibus bills” de l’ère Harper, rend difficile l’opposition à des mesures populaires tout en faisant passer des dispositions problématiques. Les risques pour la démocratie Le micro-ciblage politique Catherine et Samuel discutent des dangers du micro-ciblage politique, comparant les stratégies des partis...
    続きを読む 一部表示
    1 時間 13 分
  • Teknik - Living Off the Pipeline - From Supply Chain 0-Days to Predicting the next XZ-like attacks - Parce que... c'est l'épisode 0x602!
    2025/06/18
    Parce que… c’est l’épisode 0x602! Shameless plug 27 et 29 juin 2025 - LeHACK12 au 17 octobre 2025 - Objective by the sea v810 au 12 novembre 2025 - IAQ - Le Rendez-vous IA Québec17 au 20 novembre 2025 - European Cyber Week25 et 26 février 2026 - SéQCure 2065 Description Introduction et contexte François Proulx fait son retour pour présenter l’évolution de ses recherches sur la sécurité des chaînes d’approvisionnement (supply chain) depuis sa présentation de l’année précédente. Ses travaux portent sur la détection de vulnérabilités dans les pipelines de construction (build pipelines) des projets open source, un sujet qui avait suscité beaucoup d’intérêt suite à l’incident XZ Utils. Évolution de la méthodologie de recherche Depuis l’année dernière, l’équipe de François a considérablement amélioré ses outils et sa stratégie de détection. Plutôt que de scanner massivement tous les dépôts disponibles, ils ont adopté une approche plus ciblée en se concentrant sur des entités majeures comme Google, Red Hat, Nvidia et Microsoft. Ces organisations sont des contributeurs importants de projets open source critiques et bien maintenus. Cette nouvelle approche leur permet de découvrir des centaines d’organisations GitHub par entité, chacune contenant parfois des milliers de dépôts. L’objectif reste le même : détecter des vulnérabilités zero-day dans les build pipelines qui permettent de compiler, tester et distribuer les projets open source, notamment via GitHub Actions. La problématique fondamentale des CI/CD François présente une analogie frappante pour expliquer la dangerosité des systèmes d’intégration continue : “un CI/CD, c’est juste du RCE as a service” (Remote Code Execution as a Service). Ces systèmes sont des applications web qui attendent de recevoir des déclencheurs sur une interface publique accessible via Internet. Dans le cas de GitHub Actions, il suffit d’ouvrir une pull request pour déclencher automatiquement l’exécution de tests. Cette situation rappelle les vulnérabilités des années 1990-2000 avec les débordements de pointeurs. François utilise une formule percutante : “les build pipelines ressemblent à une application PHP moyenne de 2005 en termes de codage sécurisé”. Cette comparaison souligne que malgré les décennies d’évolution en sécurité informatique, les mêmes erreurs fondamentales se répètent dans de nouveaux contextes. Les mécanismes d’exploitation Les vulnérabilités exploitent principalement les entrées non fiables (untrusted input) provenant des pull requests. Même les brouillons de contributions peuvent déclencher automatiquement l’exécution de tests avant qu’un mainteneur soit notifié. Le problème s’aggrave quand les pipelines nécessitent des secrets pour communiquer avec des systèmes externes (notifications Slack, télémétrie, etc.). Par défaut, GitHub Actions hérite parfois d’anciennes permissions en lecture-écriture, ce qui permet aux tests d’avoir accès à un token avec des droits d’écriture sur le dépôt. Cette configuration peut permettre à un attaquant d’écrire dans le dépôt de manière non visible. Résultats impressionnants des analyses L’équipe a considérablement affiné ses outils de détection. À partir de 200 000 résultats initiaux, ils appliquent des règles plus précises pour identifier environ 10 000 cas intéressants. Ces règles valident non seulement la présence de vulnérabilités, mais aussi les critères d’exploitation et la présence de secrets exploitables. Après validation manuelle, environ 25% de ces 10 000 cas s’avèrent facilement exploitables. Ces chiffres démontrent l’ampleur du problème dans l’écosystème open source, même en reconnaissant l’existence probable de nombreux faux négatifs. Cas concrets : Google et les régressions François rapporte avoir découvert des vulnérabilités dans 22 dépôts appartenant à Google, notamment dans un projet lié à Google Cloud (probablement Data Flow). Après avoir signalé et reçu une récompense pour la correction, une régression est survenue une semaine plus tard dans le même workflow, leur valant une seconde récompense. Cette situation illustre un problème récurrent : même les grandes organisations comme Google peuvent reproduire les mêmes erreurs après correction, souvent par méconnaissance des mécanismes sous-jacents de ces nouvelles techniques d’exploitation. L’affaire Ultralytics : un cas d’école L’incident le plus marquant concerne la bibliothèque Python Ultralytics, très populaire pour la détection d’images par apprentissage automatique. En août, l’équipe avait détecté une vulnérabilité dans ce projet mais s’était concentrée sur les découvertes chez Google, négligeant de signaler cette faille. En décembre, Ultralytics a été compromis par l’injection d’un crypto-mineur, exploitant ...
    続きを読む 一部表示
    35 分