エピソード

  • Mali: l’armée ciblée par une opération de désinformation sur fond de tension avec la Mauritanie
    2025/10/31

    Au Mali, le blocus imposé par les jihadistes du Jnim se poursuit. Ce mardi 28 octobre, le groupe terroriste proche d'al-Qaïda a attaqué un nouveau convoi transportant du carburant. Profitant de cette crise sécuritaire, plusieurs infox ciblent actuellement l’armée malienne. Le compte à l’origine de cette opération de désinformation vise à attiser les tensions avec la Mauritanie, dans un contexte diplomatique tendu entre les deux voisins.

    Tout commence ce mardi 28 octobre, avec la publication d’une vidéo mensongère sur TikTok. On y voit plusieurs jeunes hommes lancer des projectiles sur des militaires. Les soldats répondent par des tirs de sommation. L’affrontement se déroule en ville, sur une route bitumée. La légende affirme, à tort, que « l’armée mauritanienne aurait pris la ville de Tombouctou, détruit une base militaire et tué 200 soldats maliens ».

    Vérification faite, cette vidéo n’a rien à voir avec le Mali ou la Mauritanie. Cet affrontement a été filmé en Somalie. En réalité, l’armée mauritanienne n’a pas envahi le Mali et les deux pays ne sont pas entrés en guerre. Comme le confirment plusieurs habitants de Tombouctou dans les commentaires, ce récit a été inventé de toutes pièces.

    Une manifestation à Mogadiscio

    Grâce à une recherche par image inversée, nous avons retrouvé cette vidéo sur des comptes Facebook basés à Mogadiscio, en Somalie. En nous appuyant sur les éléments visuels les plus marquants, la route, les lampadaires, la végétation, nous avons pu géolocaliser précisément la scène, dans le district de Dayniile, en périphérie de la capitale.

    Selon la presse locale, des Somaliens manifestaient en septembre dernier contre les expulsions forcées de certains habitants.

    Opération de désinformation

    Cette infox s’inscrit dans une véritable opération de désinformation. Nous avons en effet identifié toute une série de contenus diffusant ce même narratif mensonger. Une autre vidéo prétend par exemple montrer des véhicules blindés de l’armée mauritanienne en direction de la ville de Nara, au Mali.

    Vérification faite, la vidéo a été filmée en Libye, par un soldat de l'Armée nationale libyenne. L'abréviation RIB, peinte sur la portière avant gauche du véhicule, indique qu’il s’agit d’une unité spéciale, chargée de la sécurité des frontières sud de la Libye.

    Un obscur compte TikTok à la manœuvre

    Derrière cette désinformation, on retrouve un obscur compte TikTok francophone créé en 2021. La plupart de ces contenus sont des infox faisant croire à un affrontement direct entre Bamako et Nouakchott. Ce récit fictionnel vise à dénigrer l’armée malienne et à attiser les tensions entre les deux voisins.

    Nous avions déjà épinglé ce profil en décembre 2024, avec une infox similaire. Inactif depuis plusieurs mois, il revient à la charge en exploitant la crise sécuritaire malienne et les récentes tensions diplomatiques avec la Mauritanie. Cet opportunisme lui permet de gagner en visibilité. La stratégie semble payante puisque ses 40 vidéos trompeuses totalisent plus de 24 millions de vues.

    続きを読む 一部表示
    3 分
  • Sora 2: le générateur de vidéos par IA qui a tout pour devenir une usine à infox
    2025/10/24

    Les vidéos de Sora 2, le nouveau générateur de vidéos artificielles développé par Open AI, la start-up derrière Chat GPT, sont partout sur les réseaux sociaux. Tout comme Veo 3 de Google, cet outil permet de transformer un simple texte en un clip ultra-réaliste. Lancée en septembre, l’application est à ce jour uniquement disponible aux États-Unis et au Canada, sur invitation. La cellule Info Vérif de RFI a tout de même pu l’essayer, et le constat est assez inquiétant.

    La conclusion de notre essai est sans appel, il n’a jamais été aussi simple de produire des deepfakes, des hypertrucages ultra-réalistes. En seulement quelques clics, nous avons pu générer des dizaines de vidéos artificielles sur des sujets humoristiques, un crocodile faisant ses courses par exemple, mais aussi sur des sujets d’actualité beaucoup plus sensibles. Le résultat est bluffant à l’image, mais aussi au niveau du son.

    Contrairement à la première version, Sora 2 propose un rendu fidèle des gestes, des visages, des mouvements. Pour Marc Faddoul, chercheur en intelligence artificielle, directeur d’AI Forensics, « c'est une des premières fois qu'on arrive à avoir vraiment des vidéos qui font illusion pour la majorité des utilisateurs, donc il est vrai qu'on assiste encore à une nouvelle étape ».

    Un potentiel énorme de désinformation

    Ce tournant inquiète les experts de la lutte contre la désinformation. À juste titre puisque ce type d’outil peut rapidement devenir une arme de désinformation massive. Des chercheurs de la société NewsGuard ont ainsi mis Sora à l’épreuve en lui demandant explicitement de générer des infox. Résultat, l’outil accepte dans 80 % des cas de produire du faux sans le moindre message d’avertissement.

    L’un des seuls garde-fous mis en place par Open AI, c’est la présence d’un petit logo Sora, apposé sur les images qu’il génère. C’est ce que l’on appelle un watermark, une sorte de marque de fabrique.

    Mais dans les faits, certains parviennent à le supprimer ou à le dissimuler. Cette semaine, une fausse vidéo d’un coup d’État en Espagne a fait des millions de vues sur les réseaux sociaux. Le logo de Sora avait été dissimulé derrière un smiley.

    Distinguer le vrai du faux

    Avec le perfectionnement de ce type d’outil, il est de plus en plus difficile, voire parfois impossible, de distinguer visuellement une vraie vidéo d’une vidéo artificielle. Les IA génératives ne commettent presque plus d’erreurs grossières, comme des mains à six doigts ou des yeux perdus dans le vide.

    Le meilleur conseil, c’est d’abord de faire attention à la durée de la vidéo. Aujourd’hui, Sora permet de générer des vidéos de dix secondes maximum. La qualité visuelle est également limitée, les images sont donc souvent légèrement floues. En cas de doute, analysez bien le contexte, demandez-vous qui partage cette vidéo et cherchez à croiser l’information avec des sources fiables.

    La guerre des modèles

    Un autre processus de vérification consiste à utiliser des outils de détection d’IA. Le problème majeur, c’est que les résultats ne sont jamais fiables à 100 %.

    Marc Faddoul, rappelle que les modèles de vérification progressent toujours moins vite que les modèles de génération : « À partir du moment où vous avez un modèle qui est capable de détecter votre modèle, il suffit d'entraîner votre modèle existant face à ce modèle de détection pour lui apprendre à ne plus se faire détecter. Il y a vraiment un jeu de chat et de la souris qui est inéluctable. C'est donc difficile de penser qu'à terme, on aura une solution de vérification qui sera systématiquement fonctionnelle ».

    続きを読む 一部表示
    4 分
  • Présidentielle au Cameroun: RFI dans le viseur de la désinformation
    2025/10/17

    Après l’élection présidentielle du 12 octobre, les Camerounais attendent toujours la publication des résultats définitifs par le Conseil constitutionnel. Une attente sous tension, alimentée par un flot de fausses informations sur WhatsApp et sur les réseaux sociaux. Notre rédaction est l’une des cibles privilégiées de ces infox.

    Tout commence le dimanche 12 octobre, quelques heures seulement après la fermeture des bureaux de vote. Le dépouillement vient tout juste de commencer quand de premiers faux résultats provisoires font leur apparition sur les réseaux sociaux. L’exemple le plus marquant et le plus viral est une série de faux articles web portant le logo de RFI. Le but, c'est de faire croire, à tort, que notre rédaction aurait d’ores et déjà publié un article sur le vainqueur de cette élection présidentielle.

    Ces articles qui circulent sur Facebook, TikTok et WhatsApp n’ont en aucun cas été produits par notre rédaction. Notre logo a été grossièrement détourné, apposé sur un texte inventé de toutes pièces. Nous n’avons jamais affirmé qu’Issa Tchiroma Bakary ou Paul Biya était le vainqueur du scrutin.

    Dans les faits, RFI ne donne pas de tendances, encore moins de suppositions sur l'issue du scrutin. Nous nous conformons strictement au Code électoral camerounais et attendons donc les résultats définitifs proclamés par le Conseil constitutionnel. L’instance a jusqu’au 26 octobre pour les officialiser.

    À lire aussiPrésidentielle au Cameroun: l'identité de RFI détournée avant la publication des résultats

    Un extrait de la Deutsche Welle

    Au-delà du détournement de notre logo, d’autres modes opératoires sont également utilisés pour usurper l’identité de RFI. Dernier exemple en date ce mercredi 15 octobre avec la publication d’une vidéo mensongère montrant un poste radio filmé dans une voiture. Durant près de cinq minutes, on y entend une voix féminine parler de l’attente des résultats. La journaliste commente les premières tendances du scrutin. Un texte apposé sur ces images assure, à tort, qu’il s’agirait d’un extrait de RFI.

    Vérification faite, cet extrait est tiré d’un journal radio diffusé par la Deutsche Welle, le lendemain du vote, le 13 octobre, dans son édition de 17 H en temps universel. La tranche d’information d’une heure dans laquelle on retrouve notre extrait est disponible sur la chaîne YouTube de la radiotélévision internationale allemande.

    À lire aussiPrésidentielle au Cameroun: un extrait de la Deutsche Welle attribué à tort à RFI

    Semer le trouble

    Ces opérations de désinformation cherchent à tirer profit de notre crédibilité pour semer le trouble dans un contexte électoral particulièrement sensible. Les auteurs de ces infox essayent de détourner la confiance de nos auditeurs pour rendre leurs fausses informations virales. Une pratique dangereuse et surtout illégale.

    Si vous avez le moindre doute face à un contenu portant notre logo, le meilleur réflexe, c'est de consulter notre site internet, nos réseaux officiels ou notre application Pure Radio. Si l’information en question n’y figure pas, vous êtes face à une fausse information.

    続きを読む 一部表示
    3 分
  • Une infox sur un luxueux bunker destiné à la famille Macron bat des records sur les réseaux
    2025/10/10
    En France, l’instabilité politique perdure. Ce vendredi 10 octobre, Emmanuel Macron doit tenter de trouver une issue à la crise gouvernementale. Ces derniers jours, des appels, au départ du président de la République ont été lancés par une partie de la classe politique. Dans un contexte international tendu avec la Russie, une vidéo affirmant, à tort, qu'Emmanuel Macron a entrepris la construction d’un coûteux bunker de luxe, a totalisé des millions de vues en moins de huit jours. De nombreux utilisateurs des réseaux sociaux, ont émis des doutes dans leurs commentaires dès l’apparition de cette infox. Mais depuis le 1ᵉʳ octobre, sa circulation n'a fait qu'augmenter sur les réseaux sociaux. Il s’agit d’une vidéo de 2 minutes 20 secondes, intitulée : « Macron construit un bunker de 148 millions d’euros au cas d’une 3ᵉ guerre mondiale ». On note déjà une formulation incorrecte, on dirait plutôt : « en cas de guerre » ou « si la 3ᵉ guerre mondiale éclate ». Une voix off, en français, avec un fort accent étranger, détaille, en images, le prétendu projet de bunker présidentiel et dénonce un financement occulte impliquant un proche du président. La vidéo se termine par une courte interview « face caméra » d’un pseudo-ingénieur qui donne quelques détails techniques sur la future construction. Faux site d'information Afin de renforcer la crédibilité de cette vidéo, une source est citée. Ces révélations proviendraient d'une enquête publiée par un obscur site d’information se faisant appeler « Brutinfo.fr » Après vérifications, c'est un site « bidon » créé de toutes pièces, fin septembre. Ce site enregistré chez un hébergeur lituanien n’est plus accessible. Il a été conçu uniquement dans le cadre de la diffusion de cette infox, et son existence a été réduite à quelques jours. Il était destiné à tromper les utilisateurs en se faisant passer pour le média-vidéo « Brut », considéré comme sérieux, et rassemblant une audience significative en France, particulièrement auprès des jeunes. Le site trompeur mélange des infos authentiques et des infox, et publie une galerie de portraits de journalistes connus présentés comme étant les auteurs de l’ensemble des articles. Parmi eux, Benoît Viktine, journaliste au quotidien Le Monde. Il a confirmé à nos confrères de la radio France Info qu’il n’est pas l’auteur de cet article. Son identité a donc été usurpée. Non sans ironie, Benoit Viktine, est l’auteur d’un article authentique, qui parle d’un président retranché dans son bunker, mais il s’agit de celui de Vladimir Poutine, et cela remonte à 2020 durant la crise du Covid-19 ! Ce qui ne fait qu'ajouter à l'ambiguïté. Nous avons retrouvé cet article ici. Acteur ou personnage créé par IA De sérieux doutes pèsent aussi sur l’identité de la personne qui apparait dans la vidéo : un personnage qui répondrait au nom de José Meier et qui travaillerait comme ingénieur, pour une société suisse spécialisée dans les constructions souterraines. Vérifications faites : l’entreprise Oppidum, - cité dans la vidéo -, n’existe plus : elle a été liquidée au printemps dernier. Par ailleurs, le visage de l’ingénieur présente de très fortes similitudes, avec d’autres visages découverts dans le catalogue d’une banque d’image en ligne. Il s'agit de visages créés à l’aide d’un outil d’intelligence artificielle générative et utilisée le plus souvent à des fins commerciales. Comme le fait remarquer le collectif Gnida-Project qui lutte contre la désinformation russe, ce même visage apparait dans une précédente vidéo offensante visant l’épouse du président Macron. Dans cette ancienne vidéo, l’avatar ou le comédien, avait pris l’apparence d’un médecin. À y regarder de près, les traits sont exactement les mêmes, mais la coupe de cheveux diffère. Le visage de l'homme présent dans l'infox sur le prétendu bunker, a été retrouvé dans un grand nombre de portraits, utilisés ou modifiés par le passé, comme le laisse apparaitre une recherche via un outil de reconnaissance faciale. Une fois de plus cela rappelle en partie, le mode opératoire informationnel russe Storm-1516, aussi bien dans la production : en faisant appel à un « hypertrucage » puis en s’appuyant sur un site internet dédié, mais également dans la diffusion : avec toute une série de relais de la propagande russe ou de thèses anti-occidentales. Ces comptes sont chargés d’amplifier la propagation de l’infox. L'agence Viginum qui en France surveille les ingérences numériques étrangères, rappelle que « Le schéma de diffusion de Storm-1516 a évolué au fil du temps. Il se caractérise par la primo-diffusion de contenus par des comptes jetables maîtrisés par les opérateurs, ou via des comptes rémunérés, éventuellement ...
    続きを読む 一部表示
    4 分
  • Côte d’Ivoire: l’élection présidentielle face à la désinformation
    2025/10/03

    En Côte d’Ivoire, la campagne présidentielle bat son plein. Dans un contexte politique tendu, les Ivoiriens seront appelés aux urnes le 25 octobre 2025. Sur les réseaux sociaux, ce vote n’échappe pas à la désinformation, à tel point qu’il est difficile de distinguer le vrai du faux.

    Si vous cherchez à vous informer sur l’élection présidentielle en Côte d’Ivoire en parcourant les réseaux sociaux, vous allez très probablement tomber sur des fausses informations. TikTok en est le parfait exemple. Le premier résultat proposé par l’algorithme lorsque nous avons tapé « Côte d’Ivoire » dans la barre de recherche, est une vidéo mensongère affirmant que « l’élection est annulée ». Ce clip évoque, à tort, une décision prise par l’Organisation des Nations unies, face aux « graves irrégularités dans le processus électoral ».

    En réalité, la présidentielle ivoirienne n’a pas été annulée. Cette vidéo a été fabriquée de toutes pièces pour semer le doute et mettre en cause l'intégrité du scrutin.

    Laurent Gbagbo et Vladimir Poutine

    Au-delà de la sincérité du scrutin, certaines infox ciblent directement certaines figures politiques ivoiriennes. À commencer par l’ancien chef de l’État, Laurent Gbagbo. D'après une vidéo mensongère diffusée sur TikTok, le leader du Parti des peuples africains-Côte d'Ivoire (PPA-CI), dont la candidature a été rejetée par le Conseil constitutionnel, aurait reçu le soutien de Vladimir Poutine.

    Ce clip affirme, à tort, que le président russe aurait menacé de lourdes conséquences si Laurent Gbagbo n'apparaissait pas sur la liste électorale. Sauf qu’une nouvelle fois, tout est faux.

    Vladimir Poutine n’a en réalité jamais tenu une telle déclaration. Pour le savoir, nous avons consulté l’ensemble des canaux de communication officiels du Kremlin. Cette citation, introuvable, a été inventée de toutes pièces afin d’influencer l’opinion publique ivoirienne.

    Un mode opératoire en pleine expansion

    Ces deux infox utilisent le même mode opératoire, avec une recette de fabrication presque millimétrée. Une voix, générée par intelligence artificielle, prétend qu’une annonce très importante vient de tomber. Le commentaire, robotique, est accompagné d’une musique angoissante. Côté visuel, des images d’illustrations sorties de leur contexte défilent dans un rythme soutenu.

    Le but de ces produits sensationnels, c’est de capter l’attention des utilisateurs et de désinformer en jouant sur leurs émotions. Ce mode opératoire est omniprésent sur TikTok, en Afrique, mais aussi en Europe.

    Des comptes anonymes aux noms trompeurs

    Derrière ses fausses informations, on retrouve un véritable écosystème de comptes anonymes dédiés à la production de ces contenus trompeurs. Certains cherchent principalement à faire des vues pour monétiser leur audience. D’autres, au contraire, semblent vouloir désinformer massivement en ciblant certains pays, comme c’est le cas de la Côte d'Ivoire.

    Le meilleur conseil pour ne pas se faire avoir, c’est de se méfier fortement de tous ces contenus comportant une voix artificielle. Cela doit devenir un signal d’alerte. Attention aussi, certains tentent de se faire passer pour des médias avec des noms volontairement trompeurs, comme Info+ ou Live News. Alors, en cas de doute, pensez à consulter des sources d’informations fiables.

    続きを読む 一部表示
    3 分
  • Élections en Moldavie: la désinformation russe comme moyen de déstabilisation
    2025/09/26

    En Moldavie, les électeurs sont appelés aux urnes ce dimanche 28 septembre pour les élections législatives. Le scrutin s’annonce déterminant pour l’avenir de cette ex-république soviétique, tiraillée entre l’Europe et la Russie. Pour faire valoir ses intérêts, Moscou a intensifié sa guerre de l'information dans le pays. Dernier exemple en date cette semaine, avec une nouvelle opération de désinformation russe ciblant la Moldavie et la France.

    À en croire une vidéo mensongère devenue virale sur les réseaux sociaux ces dernières heures, la France serait sur le point de « transférer plusieurs tonnes de déchets toxiques en Moldavie ». Cette fausse information évoque un prétendu accord trouvé entre Maia Sandu et Emmanuel Macron lors de leur rencontre en août dernier. En réalité, tout est faux. Paris ne va pas transférer ses déchets toxiques en Moldavie.

    Cette infox évoque les 42 000 tonnes de déchets actuellement stockés sur le site de Stocamine, en France, dans le Haut-Rhin. Nous avons contacté la société des Mines de Potasse d’Alsace (MDPA), responsable du site. Sa directrice, Céline Schumpp, confirme que cette infox a été inventée de toutes pièces.

    IA et images décontextualisées

    Cette vidéo est fausse sur le fond, mais aussi sur la forme. Côté son, la voix anglophone, présentée comme celle d’un journaliste, a été générée par intelligence artificielle (IA). L'intonation et le rythme ne sont pas naturels.

    Côté visuel, des images d’illustration défilent durant deux minutes et 18 secondes. On retrouve notamment un extrait d’interview du géologue suisse Marcos Buser. Ce passage est sorti de son contexte. Grâce à une recherche par image inversée, on sait qu’il a été diffusé sur France 24 en juin 2025. La Moldavie n’est jamais citée durant les dix minutes d’entretien. Le bandeau textuel a été falsifié.

    On retrouve également une capture d’écran d’un article publié le 18 juin 2025 par la rédaction anglophone de RFI.

    Comme pour l’interview de nos confrères de France 24, l’article en question n’évoque à aucun moment la Moldavie.

    Un mode opératoire informationnel russe

    Ce n’est pas la première fois qu’un tel narratif circule sur les réseaux sociaux. En juillet dernier, une vidéo similaire affirmait, à tort, que la France envoyait secrètement des déchets d’uranium en Arménie. Là aussi, tout était faux. Le mode opératoire et le narratif trahissent une opération semblable.

    En se penchant sur la circulation de cette nouvelle vidéo ciblant la Moldavie et la France, nous avons identifié un schéma de diffusion identique. Cette infox est apparue pour la première fois, le 23 septembre 2025, sur un obscur site internet.

    Le nom de domaine, gbreporter.com, a été enregistré seulement deux jours auparavant. Cela indique que ce site assure le rôle de primo-diffuseur, de premier vecteur de diffusion de l’infox. Élément important, tous les articles présents sur ce site ont été générés par IA. Tous, sauf celui concernant la France et la Moldavie.

    Une fois en ligne, cette vidéo mensongère a été blanchie et diffusée par un écosystème de comptes habitué à diffuser ce type d'infox.

    Des acteurs russes à la manœuvre ?

    Les caractéristiques techniques, le schéma de diffusion ainsi que le narratif, correspondent parfaitement au mode opératoire informationnel russe baptisé Storm-1516. Cette campagne de désinformation protéiforme s'attaque principalement à l’Ukraine, mais aussi à ses voisins européens.

    À deux jours des élections législatives, la Moldavie et sa présidente pro-européenne n'échappent pas à cette énième tentative de déstabilisation menée par le Kremlin.

    À lire aussiLa France ciblée par une nouvelle opération de désinformation russe

    続きを読む 一部表示
    3 分
  • La France ciblée par une nouvelle opération de désinformation russe
    2025/09/19
    Alors que la France s’apprête à reconnaître l'État de Palestine, une énième opération de désinformation cible actuellement le pays. Une vidéo mensongère prétend montrer des militants pro-palestiniens menaçant de transformer l’Hexagone en État Islamique. Cette mise en scène coche toutes les cases d’une campagne de désinformation russe baptisée Storm-1516. La vidéo dure précisément 23 secondes. On y voit trois hommes, le visage masqué par un keffieh, filmés devant un mur en béton décoré d’un drapeau palestinien. Un couteau à la main, l’individu au centre s’exprime en arabe. Il menace de « transformer la France en État islamique », avant de déchirer un drapeau français. Pour vérifier l’authenticité et la crédibilité de cette vidéo, la cellule Info Vérif de RFI s’est penchée sur le mode opératoire. Ce qui frappe dans un premier temps, c’est la ressemblance de cet extrait avec deux autres vidéos mensongères diffusées ces dernières années. L’une, apparue en juillet 2024, prétendait montrer un membre du Hamas menaçant de conduire des attentats durant les Jeux olympiques de Paris. L’autre, plus récente, était censée illustrer des djihadistes menaçant d’incendier la cathédrale Notre-Dame de Paris. La présence d’hommes encagoulés, le mur en béton, le jeu d’acteur, les valeurs de plan ainsi que le narratif trahissent une mise en scène répétitive et millimétrée. En plus de ces similitudes visuelles, le déroulé des trois vidéos est identique. Un seul homme arabophone profère des menaces avant de dégrader un symbole de la France : Notre-Dame de Paris, le personnage de Marianne ou le drapeau tricolore. Des acteurs russes à la manœuvre D’après les différents travaux menés en sources ouvertes, ces vidéos s’inscrivent dans une vaste opération de désinformation russe baptisée Storm-1516. Cette campagne comporte différents objectifs : décrédibiliser l’Ukraine, dénigrer les politiques occidentales, mais aussi troubler le débat public en désinformant sur des sujets brûlants ou anxiogènes comme l’immigration et le terrorisme. Cette nouvelle mise en scène s’inscrit donc dans ce troisième angle d’attaque. L’implication d’un réseau de bots Au-delà du mode opératoire informationnel, l’analyse du schéma de diffusion, c’est-à-dire d'où provient cette mise en scène et comment elle s’est propagée en ligne, confirme l’origine de cette infox. La vidéo est d’abord apparue sur X (ex-Twitter), le 14 septembre 2025 à 17h06, sur un compte arabophone créé en septembre 2012. Ce sont jusqu'ici les seules images qu’il a publiées. Nous nous sommes aussi intéressés à ses quelque 140 abonnés. Cela nous a permis d’identifier un réseau de comptes créés en août 2025. Chacun de ses profils comporte entre 345 et 347 abonnés et arbore une photo de profil issu de l’univers manga. De plus, ils ont chacun publié un tweet, plus exactement un proverbe, le jeudi 11 août, précisément entre 21h06 et 23h16. Tous ces éléments montrent l’implication directe d’un réseau de bots, des faux comptes automatisés. Un schéma de diffusion bien connu Une fois publiée sur X, par ce que l’on appelle un compte jetable, dédié uniquement à cette opération de désinformation, la vidéo a ensuite été relayée par d’obscures médias égyptiens. Les deux articles que nous avons repérés utilisent la même photo d’illustration et diffusent exactement la même capture d’écran. Ce schéma de diffusion correspond parfaitement au mode opératoire informationnel russe Storm-1516. Dans un premier temps, des acteurs sont recrutés pour produire une mise en scène. Un compte jetable, crédibilisé par un réseau de bots, sert ensuite de premier canal de diffusion sur les réseaux. Dans un second temps, des médias étrangers sont alors rémunérés pour diffuser la vidéo et la blanchir. L’étape finale consiste à amplifier cette fausse information à l’aide d’un écosystème de comptes pro-russes déjà installé dans le pays ciblé. Une menace pour le débat public Cette stratégie de propagation, déjà largement documentée, permet aujourd’hui à cette infox de cumuler plus de 3 millions de vues sur les réseaux sociaux. Dans son rapport sur ce mode opératoire informationnel russe, le service technique et opérationnel français chargé de la vigilance et de la protection contre les ingérences numériques étrangères (Viginum), considère que les activités de Storm-1516 « représentent une menace importante pour le débat public numérique, à la fois en France et dans l’ensemble des pays européens ».
    続きを読む 一部表示
    3 分
  • Drones russes en Pologne: la guerre hybride s’intensifie
    2025/09/12

    Dans la nuit du 9 au 10 septembre, près de 20 drones russes ont violé l’espace aérien polonais. Trois appareils ont été abattus, seize ont été retrouvés dans différentes parties du pays. Varsovie dénonce une « attaque sans précédent » et a convoqué une réunion d’urgence au Conseil de sécurité de l’ONU. Sur le front informationnel, cet incident s’accompagne d’une intense guerre des récits.

    Une véritable bataille informationnelle se joue actuellement sur les réseaux sociaux autour de cette incursion de drones russes en Pologne. Les récits mensongers se concentrent principalement sur les responsables de cette attaque. À en croire de nombreuses publications mensongères, c'est l’Ukraine qui aurait directement lancé ses engins sur son voisin. Des milliers de posts diffusent la thèse d’une prétendue « attaque sous faux drapeau dans le but d’étendre la guerre à l’ouest ».

    En réalité pourtant, les drones retrouvés sur le sol polonais sont bien des modèles russes. Les images d’engins tombés sur le sol polonais, analysées par la cellule Info Vérif de RFI, montrent en effet des drones de type Gerbera. Ces modèles, fabriqués par Moscou, sont assez proches des fameux Shahed-136 iraniens.

    Le soir de cette incursion, la Russie avait lancé plus de 450 drones et missiles sur l’Ukraine, ce que Moscou n’a pas démenti. Certains ont traversé l’espace aérien biélorusse avant de terminer leur course en Pologne.

    Les récits dominants

    Malgré ça, les accusations ciblant l’Ukraine sont particulièrement populaires sur les réseaux sociaux. L’ONG polonaise, Res Futura, spécialisée dans la sécurité de l’information en ligne, s’est penchée sur la viralité des récits dominants à propos de cette incursion.

    Résultat, sur environ 32 000 commentaires évoquant les responsables de l’attaque, 38 % l’impute à l'Ukraine. C’est quatre points de plus que pour la Russie. Le rapport pointe ainsi « une forte saturation de récits répétitifs, caractéristiques d'actions coordonnées plutôt que de simples réactions spontanées ».

    Désinformer pour terroriser

    L’autre narratif en vogue sur les réseaux sociaux, c’est l’imminence d’une troisième guerre mondiale. C’est ce que cherchent à faire croire de nombreuses vidéos publiées en ligne ces dernières heures. L’une d’entre-elle montre une dizaine de navires de guerre, en pleine mer, alignés derrière un porte-avions américain. Le convoi, très impressionnant, est survolé par un escadron d’avions de chasse. Le compte TikTok qui diffuse ces images parle, à tort, d’une scène filmée, ce jeudi 11 septembre 2025, au large de la Pologne.

    Vérification faite, cette vidéo est sortie de son contexte. Ces images n’ont rien à voir avec la Pologne. L’alignement des navires de guerre, la présence d’un avion de patrouille maritime japonais Kawasaki P-1, ainsi qu’une recherche par image inversée, montrent qu’il s’agit d’un exercice militaire de l’Otan. Cette démonstration a eu lieu bien avant l’incursion des drones en Pologne.

    Nouveau mode opératoire

    Cette vidéo décontextualisée n’est pas la seule à semer le doute sur les réseaux. Le détournement d’images d’exercices militaires pour faire croire à une escalade du conflit en Ukraine est devenu un véritable mode opératoire. Ces images, souvent impressionnantes, sont difficiles à vérifier et deviennent rapidement virales. Comme souvent quand on parle de désinformation, ce type d’infox cible directement nos émotions. Le but, ici, c’est de faire peur, de polariser l’opinion publique, et de fragiliser notre résilience informationnelle.

    続きを読む 一部表示
    3 分