エピソード

  • Drones russes en Pologne: la guerre hybride s’intensifie
    2025/09/12

    Dans la nuit du 9 au 10 septembre, près de 20 drones russes ont violé l’espace aérien polonais. Trois appareils ont été abattus, seize ont été retrouvés dans différentes parties du pays. Varsovie dénonce une « attaque sans précédent » et a convoqué une réunion d’urgence au Conseil de sécurité de l’ONU. Sur le front informationnel, cet incident s’accompagne d’une intense guerre des récits.

    Une véritable bataille informationnelle se joue actuellement sur les réseaux sociaux autour de cette incursion de drones russes en Pologne. Les récits mensongers se concentrent principalement sur les responsables de cette attaque. À en croire de nombreuses publications mensongères, c'est l’Ukraine qui aurait directement lancé ses engins sur son voisin. Des milliers de posts diffusent la thèse d’une prétendue « attaque sous faux drapeau dans le but d’étendre la guerre à l’ouest ».

    En réalité pourtant, les drones retrouvés sur le sol polonais sont bien des modèles russes. Les images d’engins tombés sur le sol polonais, analysées par la cellule Info Vérif de RFI, montrent en effet des drones de type Gerbera. Ces modèles, fabriqués par Moscou, sont assez proches des fameux Shahed-136 iraniens.

    Le soir de cette incursion, la Russie avait lancé plus de 450 drones et missiles sur l’Ukraine, ce que Moscou n’a pas démenti. Certains ont traversé l’espace aérien biélorusse avant de terminer leur course en Pologne.

    Les récits dominants

    Malgré ça, les accusations ciblant l’Ukraine sont particulièrement populaires sur les réseaux sociaux. L’ONG polonaise, Res Futura, spécialisée dans la sécurité de l’information en ligne, s’est penchée sur la viralité des récits dominants à propos de cette incursion.

    Résultat, sur environ 32 000 commentaires évoquant les responsables de l’attaque, 38 % l’impute à l'Ukraine. C’est quatre points de plus que pour la Russie. Le rapport pointe ainsi « une forte saturation de récits répétitifs, caractéristiques d'actions coordonnées plutôt que de simples réactions spontanées ».

    Désinformer pour terroriser

    L’autre narratif en vogue sur les réseaux sociaux, c’est l’imminence d’une troisième guerre mondiale. C’est ce que cherchent à faire croire de nombreuses vidéos publiées en ligne ces dernières heures. L’une d’entre-elle montre une dizaine de navires de guerre, en pleine mer, alignés derrière un porte-avions américain. Le convoi, très impressionnant, est survolé par un escadron d’avions de chasse. Le compte TikTok qui diffuse ces images parle, à tort, d’une scène filmée, ce jeudi 11 septembre 2025, au large de la Pologne.

    Vérification faite, cette vidéo est sortie de son contexte. Ces images n’ont rien à voir avec la Pologne. L’alignement des navires de guerre, la présence d’un avion de patrouille maritime japonais Kawasaki P-1, ainsi qu’une recherche par image inversée, montrent qu’il s’agit d’un exercice militaire de l’Otan. Cette démonstration a eu lieu bien avant l’incursion des drones en Pologne.

    Nouveau mode opératoire

    Cette vidéo décontextualisée n’est pas la seule à semer le doute sur les réseaux. Le détournement d’images d’exercices militaires pour faire croire à une escalade du conflit en Ukraine est devenu un véritable mode opératoire. Ces images, souvent impressionnantes, sont difficiles à vérifier et deviennent rapidement virales. Comme souvent quand on parle de désinformation, ce type d’infox cible directement nos émotions. Le but, ici, c’est de faire peur, de polariser l’opinion publique, et de fragiliser notre résilience informationnelle.

    続きを読む 一部表示
    3 分
  • Sahel: l’armée française accusée à tort de ravitailler des terroristes au Mali
    2025/09/05

    Au Sahel, une opération de désinformation cible actuellement la France. L’armée française, qui a quitté le Mali en août 2022, est accusée, à tort, d’armer les terroristes dans le nord du pays. Ce narratif mensonger, bien connu dans la région, est réapparu cette semaine, avec une vidéo sortie de son contexte.

    La scène se déroule en pleine montagne. On y voit un hélicoptère couleur camouflage, en vol stationnaire, à seulement quelques mètres du sol. Rapidement, un homme est hélitreuillé. Il rejoint alors plusieurs individus réunis sous l’appareil. Les comptes qui diffusent cette vidéo évoquent, à tort, des images « diffusées par les Russes pour prouver le ravitaillement des terroristes par les forces françaises, au nord du Mali ».

    Une opération de sauvetage à Oman

    Vérification faite, cette vidéo n’a rien à voir avec l’armée française ou le Mali. Ces images ont, en réalité, été filmées à Oman, au Moyen-Orient. Pour le savoir, nous nous sommes d’abord intéressés à l’immatriculation visible sur la partie arrière de l’hélicoptère. Comme le veut l’Organisation de l'Aviation Civile Internationale, les trois premiers caractères désignent le pays d’enregistrement de l’appareil.

    Dans notre vidéo, le préfixe « A40 » désigne le sultanat d’Oman, ce que confirme le petit drapeau blanc, rouge et vert, visible en dessous du rotor de queue.

    Grâce à une recherche par image inversée, nous avons retrouvé la vidéo originale. Elle a été postée sur les réseaux sociaux officiels de la Police royale d’Oman, le 18 avril 2024. La légende précise qu’il s’agit d’une opération de recherche et de sauvetage menée dans un wadi, après la chute d’un randonneur. L’hélicoptère utilisé est un Leonardo AW139 de fabrication européenne.

    La France, cible privilégiée au Sahel

    D’après nos recherches, l’infox est partie d’un mystérieux compte TikTok habitué à cibler la France. Cet utilisateur arbore un portrait de Vladimir Poutine en photo de profil. Pour tenter de la rendre virale, il a diffusé la même infox une dizaine de fois en seulement quelques jours.

    Résultat, sa vidéo a été partagée par différents comptes en Afrique de l’Ouest et cumule près d’un million de vues. Cette fausse information circule même dans plusieurs langues, notamment en soninké.

    Malgré son désengagement dans la région, l’armée française continue d’être la cible de ce type de désinformation. Paris est régulièrement accusé, à tort, d’appuyer les différents mouvements terroristes dans la zone. Les modes opératoires varient, mais les vidéos sorties de leur contexte pullulent sur les réseaux sociaux.

    À lire aussiMali: une infox accuse la France de former des terroristes

    Ce récit mensonger cache un double objectif : alimenter le sentiment anti-français, mais aussi justifier la difficulté des pouvoirs en place à endiguer la menace djihadiste, de plus en plus présente dans la région.

    続きを読む 一部表示
    3 分
  • Guerre en Ukraine: une vague de faux journaux TV alimente la désinformation
    2025/08/29

    En Ukraine, la Russie a tiré jeudi 28 août plus de 620 drones et missiles sur Kiev, tuant au moins 23 personnes. Vladimir Poutine préfère « continuer à tuer plutôt que de mettre fin au conflit », a déclaré le président ukrainien. Dans ce contexte, des rumeurs d’extension du conflit se propagent actuellement sur les réseaux sociaux. Engagement direct de l’Otan, mobilisation aux États-Unis : les fausses informations se propagent notamment à travers le détournement de journaux télévisés.

    À en croire une vidéo mensongère vue plus d’un million de fois ces dernières heures, « le monde entier viendrait de basculer dans la guerre ». À l’image, un extrait de journal télévisé défile. On reconnaît la journaliste de la chaîne française TF1, Audrey Crespo-Mara.

    Côté son, une voix féminine affirme, à tort, que la Troisième Guerre mondiale viendrait d’éclater. On y entend également que des explosions auraient retenti dans plusieurs grandes villes européennes, dont Bucarest et Varsovie.

    Évidemment, tout est faux. La Troisième Guerre mondiale n’a pas commencé. La Russie n’a pas bombardé la Roumanie ni la Pologne. L’Otan n’a pas non plus déclaré la guerre à Moscou. Cette vidéo est fausse sur le fond, mais aussi sur la forme puisque la rédaction de TF1 n’est pas à l’origine de cette publication.

    La mode des faux journaux TV

    Ce type d’infox se multiplie sur les réseaux sociaux ces derniers mois, à commencer par TikTok où ce mode opératoire est particulièrement à la mode. Il faut dire que la recette est plutôt simple. Une bande son générée par intelligence artificielle est apposée sur un vieil extrait de journal télé.

    Certains y ajoutent d’autres images sorties de leur contexte, une musique angoissante, et le tour est joué. Ce procédé peut se répéter à l’infini. Il est simple à mettre en œuvre et le nombre de vues montre malheureusement que ces infox touchent quotidiennement des millions de personnes.

    Parmi ceux qui diffusent ces faux journaux TV, on retrouve souvent des comptes uniquement dédiés à ce genre de pratique. Ils diffusent chaque jour de nouveaux faux journaux en usurpant l’identité de différents médias comme TF1, CNN ou France 24. Leur activité consiste à désinformer avec des contenus sensationnels pour faire le plus de vues possible. Leur popularité leur permet ensuite de gagner un peu d’argent, en monétisant leur audience, en vendant leur compte ou en diffusant des publicités.

    Perte de confiance dans les médias

    Cette désinformation de masse est particulièrement nocive. Ce flot d’infox participe en effet à éroder la confiance accordée aux médias. Certains en viennent à douter de l’authenticité de contenus authentiques produits par des rédactions reconnues. Enfin, il y a aussi l’impact sur la réalité des faits puisque ces fausses informations invisibilisent les vraies productions journalistiques.

    Pour se protéger efficacement de ces fausses informations, le meilleur moyen, en cas de doute, c’est d’abord de consulter les sites internets et les réseaux sociaux officiels des médias en question. De plus, si une infox de ce type arrive dans votre fil d’actualité, n’hésitez pas à bloquer le compte qui en est à l’origine. L’algorithme de recommandation devrait finir par comprendre que cela ne vous intéresse pas.

    続きを読む 一部表示
    3 分
  • Incendies en Espagne: les flammes attisent les théories complotistes
    2025/08/22

    L’Espagne est toujours confrontée à une vague inédite de feux de forêt. Les pompiers, appuyés par l’armée, combattent encore une vingtaine d’incendies dans l'ouest et le nord-ouest du pays. Sur les réseaux sociaux, cette catastrophe n'échappe pas à la désinformation. Des dizaines d’infox sèment la confusion, notamment sur l’origine de ces méga-feux.

    À en croire une rumeur mensongère diffusée sur les réseaux sociaux, un des incendies en cours en Espagne aurait été « provoqué intentionnellement par l’armée espagnole ». Cette fausse information s’appuie sur une photo, vue près de deux millions de fois en seulement 48 heures. On y voit un départ de feu en pleine forêt et un rayon lumineux juste au-dessus des fumées. Les commentaires parlent d’un « rayon laser tiré par un drone militaire ».

    Un départ de feu aux États-Unis

    Vérification faite, cette image n’a rien à voir avec la vague d’incendies qui frappe le pays. Grâce à une recherche par image inversée, on sait qu’elle n’a pas été prise en Espagne, mais aux États-Unis, dans le parc national de la forêt de Klamath, dans l’Oregon. Le cliché a été publié par le compte Twitter officiel du service des forêts, le 24 mai 2018.

    Depuis, cette image a été détournée à de nombreuses reprises : en 2019, dans le contexte des incendies en Amazonie, mais aussi en Europe en 2022.

    Effet d'optique en raison d'une trace de graisse sur l'appareil photo

    Dans les faits, cette photo ne montre ni un drone militaire, ni un pseudo-rayon laser destiné à lancer des incendies. Ce faisceau lumineux est un simple effet d'optique provoqué par une trace de graisse sur l'objectif de l’appareil photographique. Un test qui peut être fait à la maison : si l'on prend une photo dans un environnement très lumineux et après avoir essuyé le capteur avec le doigt, des traînées lumineuses verticales peuvent apparaître, exactement comme sur notre photo.

    En 2018 déjà, un journaliste américain s’est plié à l’exercice pour démystifier les théories les plus farfelues.

    Théories complotistes

    Parmi ceux qui propagent cette infox, on retrouve principalement des comptes adeptes des théories complotistes. Certains affirment, à tort, que le gouvernement de Pedro Sánchez « provoquerait ces incendies dans les régions contrôlées par la droite ». D’autres parlent de « feu contrôlé pour exploiter des zones contenant des terres rares ». Ces théories, inventées de toutes pièces, sont populaires auprès d’un public d'une sensibilité politique particulière.

    À cela s'ajoutent aussi les images générées par intelligence artificielle. Pour faire de l’audience, certains n’hésitent pas à diffuser massivement des fausses images en les faisant passer pour des photos de presse. Le dernier exemple en date est une image censée montrer des pompiers espagnols à bout de force. La photo est émouvante, mais elle fausse puisqu’elle a été générée par une IA.

    Reconnaître une image générée par IA

    Pour reconnaître une image artificielle, le meilleur conseil consiste à analyser tous les détails visuels. L’intelligence artificielle peine encore parfois à représenter fidèlement certaines parties du corps et à intégrer du texte dans l’image. Dans notre cas, un pompier semble avoir deux bras gauches et l’inscription dans son dos ne veut rien dire.

    Ces images, même proches de la réalité, sont nocives, car elles participent directement à invisibiliser les vraies photos de cette catastrophe.

    続きを読む 一部表示
    3 分
  • Comment la désinformation alimente les discours xénophobes en Europe
    2025/08/15

    Le détournement d’images destiné à attiser le sentiment anti-immigration en Europe est un mode opératoire particulièrement à la mode sur les réseaux sociaux ces derniers mois. Le dernier exemple en date est une vidéo mensongère censée montrer l’arrivée de centaines de migrants sur les côtes italiennes.

    Ce clip, filmé à la tombée de la nuit, dure précisément dix-neuf secondes. On y voit des centaines d’hommes et de femmes en train de débarquer d’un bateau de couleur bleu. La rampe d’accès n’a même pas entièrement touché le sol que des dizaines de passagers se ruent sur le quai. Un message en majuscule, accompagné d’un panneau attention, est apposé sur ces images : « Voilà comment l'Europe est en train d'être conquise ». Plusieurs utilisateurs parlent de « demandeurs d’asile » arrivant sur le sol italien.

    Un ferry kényan

    Vérification faite, cette vidéo n’a rien à voir avec l’Italie ni même avec l’Europe, puisque ces images proviennent en réalité du Kenya. Pour savoir exactement où se déroule la scène, nous nous sommes intéressés à ce bateau très caractéristique. Grâce à une recherche par image inversée, nous l’avons retrouvé. Il s’agit du Likoni, un ferry utilisé au Kenya dans la ville de Mombasa.

    Ce navire ne transporte pas de passagers en Europe. Le ferry fonctionne uniquement entre l’île de Mombasa et le quartier Likoni. La géolocalisation des images, grâce aux arbres visibles en arrière-plan, confirme que la scène se passe du côté de Mombasa.

    La vidéo originale a d’ailleurs été publiée par un compte TikTok kényan le 13 mars 2025, avant d’être détournée par des utilisateurs mal intentionnés.

    De détournement en détournement

    Par ailleurs, ce n’est pas la première fois que cette vidéo est sortie de son contexte. Ce même extrait a déjà été détourné pour illustrer, à tort, l’arrivée de migrants en Allemagne, en Grèce ou encore en Espagne. À chaque fois, la vidéo, accompagnée de messages xénophobes, cumule rapidement des millions de vues sur les réseaux sociaux.

    Dans notre cas, c’est sur X et Instagram que les indicateurs de viralité sont les plus alarmants. Malgré les vérifications et les alertes de certains utilisateurs, la vidéo circule toujours.

    Alimenter les discours xénophobes

    D’après nos recherches, on retrouve tout un écosystème de comptes européens d'extrême droite à la manœuvre. Leur activité numérique se résume à la diffusion massive d’images de faits divers, sans contexte, en jetant la faute sur l’immigration. Sur les réseaux sociaux, ces contenus, clivants, souvent spectaculaires, sont automatiquement mis en avant par les algorithmes de recommandation. C’est particulièrement le cas sur X, ex-Twitter, depuis le rachat d’Elon Musk.

    Ce mode opératoire répond à un double objectif : alimenter les discours xénophobes, tout en polarisant les opinions publiques. Une stratégie relativement efficace si l’on en croit les échanges tendus et les messages racistes dans les commentaires.

    続きを読む 一部表示
    3 分
  • Les images spatiales n’échappent pas à la désinformation
    2025/08/08
    La tendance s’affirme de plus en plus sur les réseaux sociaux : la diffusion de fausses images satellites. Le plus souvent, il s’agit de vues aériennes retouchées de manière à tromper le public. Parfois, des procédés plus complexes sont employés via l’intelligence artificielle (IA).Un phénomène problématique, car les images satellites, sont régulièrement employées par les fact checkers dans le cadre de leur travail de vérification. Les manipulateurs l’ont bien compris… Plusieurs images satellites falsifiées ont attiré votre attention ces derniers mois. Premier exemple lors des raids indiens sur le Pakistan en mai dernier. Il y a eu une très forte désinformation, autour de ces opérations aériennes. Nous vous en parlions ici. A la veille du déclenchement des hostilités, des comptes mettaient en ligne de prétendues photos satellites montrant des avions de combat Rafale prêts à entrer en action. Selon les commentaires, ces avions de chasse indiens avaient été surpris par les caméras d’un satellite sur une base non identifiée. Cette image était une infox. Cela n’avait pas échappé à certains utilisateurs. Rafale de désinformation Après vérification, il s’agissait d’un trucage. Pour schématiser, quatre petits avions gris, étaient copiés-collés sur une photo satellite pour faire croire à une preuve. Cette infox devait contribuer à préparer l’opinion à l’entrée en guerre de l’Inde avec ses Rafale. L’avion français fut dans les jours suivant l’objet d’une vaste campagne de désinformation orchestrés par le Pakistan et la Chine. Ailleurs dans le monde, les images satellites ont été largement utilisées pour documenter les résultats du spectaculaire raid ukrainien contre des bases stratégiques russes début juin. Ce fut aussi l'occasion de détecter de fausses vues aériennes destinée à amplifier les dégâts. Des images trop nettes pour être honnêtes. Autre exemple, les fameuses images de la frégate nord coréenne endommagé lors de la cérémonie de lancement devant le dictateur Kim Jong Un. Très vite des photos du chantier naval de Chongjin ou a eu lieu l’accident ont été diffusée. Pour masquer l’ampleur du désastre, des grandes bâches bleues avaient été disposées sur la coque du bateau. Suite à une défaillance du système de mise l’eau, le navire s’était couché, à moitié dans le port, à moitié sur le quai. Quelques heures plus tard, des photos, encore plus précises, ont été diffusées sur les réseaux. A priori, il s’agissait de la même scène : une vue verticale, même orientation, même angle, mais ces images avaient été améliorées par IA pour les faire passer pour des photos en HD. Résultat : l’IA avait oublié certains éléments, comme l’un des portiques du chantier tout simplement effacé, ou avait exagéré d’autres éléments afin de produire une image plus spectaculaire. Cette image a donc été altérée, et qui ne peut pas constituer une base de travail pour les fact-checker, ni un élément probant. Image qui ne portrait aucune mention annonçant l’utilisation d’un outil d’intelligence artificielle. Comment détecter les images satellites entièrement générés par IA ? Comme ces clichés récents, censés montrer un important déploiement de troupes russes dans la région de Briansk proche de l’Ukraine ou encore les dégâts causés par de récentes frappes de drones à Kiev. A première vue, ces images sont très réalistes, mais elles ne sont pas authentiques. Alors comment savoir ? Il existe bien des détecteurs d’IA, toutefois ils ne sont pas fiables à 100%. Comme à chaque fois en pareil cas, il convient d’effectuer une recherche par image inversée pour voir si les photos douteuses apparaissent t sur des publications sérieuses et dans quel contexte. Il faut aussi rechercher la source de ces images. Assez facile, car les fournisseurs d’images spatiales, (des agences publiques ou des entreprises privées), ne sont pas très nombreuses. Rfi travaille régulièrement avec Airbus Space, Planet-Labs et Maxar. Par ailleurs, ces entreprises sont très soucieuses de leur réputation compte tenu des enjeux commerciaux. Elles sont donc vigilantes et peuvent coopérer avec les modérateurs ou les médias afin d’améliorer la traçabilité des images. L’utilisateur pourra aussi comparer des images douteuses à des images fiables, même si elles sont plus anciennes, par exemple, en utilisant Google Earth. Enfin, il convient de rechercher les incohérences graphiques assez caractéristiques des images produites grâce à l’intelligence artificielle générative. Vérifier par exemple la symétrie des bâtiments, les proportions, ou encore les murs et les fenêtres d’un immeuble qui peuvent « pencher » et qui visuellement s’inscrive mal dans la géométrie de l’ensemble. Prudence donc, car à l'avenir, pour chaque image ...
    続きを読む 一部表示
    4 分
  • Infox et bataille d’images autour de la famine à Gaza
    2025/08/01
    Les images de la famine à Gaza ont suscité des réactions d’indignations depuis la semaine dernière. Le Programme alimentaire mondial (Pam), évoque un risque de famine généralisé. Sur les réseaux sociaux, la diffusion de photos d'enfants malnutris a donné lieu à une virulente contre-attaque des comptes de la sphère nationaliste israélienne. Dans leur viseur : les journalistes qui ont témoigné de la situation humanitaire dans le territoire palestinien. L’infox qui a retenu notre attention, a l’apparence d’un fact-checking (un exercice de vérifications de faits). Dès la publication du journal Libération daté du 24 juillet, la photo à la une du quotidien a été visée. On y voit un enfant de dos. Il n’a plus que la peau sur les os. Le journal titre « Gaza, la Faim ». Aussitôt, de nombreux comptes ont accusé, à tort, ce quotidien de gauche, d’avoir sorti cette image de son contexte. Un ancien président départemental du Conseil représentatif des institutions juives de France (Crif), en Provence, martèle dans un post rageur que « cette photo est celle d’un enfant yéménite, prise dans un hôpital d’Al Hodeïda en 2016 ». Il parle de : « mensonge et de manipulation ». Après vérifications, il apparait que la photo a bien été prise à Gaza, mais sur X, le post mensonger de ce militant a été vu plus de 800 000 fois et n’a été ni modéré, ni modifié, au moment où nous mettons en ligne cet article. À lire aussiÀ la Une: à Gaza, la famine se poursuit et s’affiche sur les écrans du monde entier Une photo facilement identifiable Pour savoir précisément d’où provient cette photo, nous sommes remontés à la source. La rédaction de Libération mentionne le nom du photographe auteur du cliché : il s’agit du photo-reporter Omar El-Qattaa, qui travaille pour l’AFP, il est d’ailleurs l’un des derniers journalistes à encore pouvoir faire son travail dans l’enclave palestinienne. La rédaction de Libération explique que l’enfant sur la photo s’appelle Yazan, qu’il est âgé de deux ans et qu’il a été photographié le 23 juillet dans le camp de réfugiés d'Al-Shati, à Gaza. On retrouve d’ailleurs ce cliché sur le site internet de l’Agence France-Presse, avec le reportage complet d’Omar El Qattaa, sur la famine à Gaza. Des images également mises en lignes sur les comptes personnels du photographe sur Facebook, Instagram et X. Une nouvelle fois, Grok se trompe Rappelons-le ici, l’intelligence artificielle d’Elon Musk n’est pas infaillible et surtout ce n’est pas un outil de fact-checking. Ainsi, après la diffusion des contenus dénigrants le travail de journaliste de Libération, Grok a assuré que « la photo était prise au Yemen et était le fruit d’une manipulation pour illustrer Gaza ». Mais un peu plus tard, Grok a changé d’avis, pour donner cette fois-ci une réponse correcte, comme le souligne Libération dans son fact-checking. La meilleure manière de vérifier la photo aurait été de faire une recherche par image inversée. (voir ici comment faire). Aujourd’hui, cette image renvoie sur des dizaines de comptes évoquant la famine Gaza, et le 23 juillet au moment de sa publication, son analyse aurait au moins permis de dater de cliché, et de déduire qu’il n’avait rien à voir avec le Yémen en 2016. Une autre image fait polémique Toujours à Gaza, une autre photo d’enfant squelettique a été pointé par les comptes pro-israéliens. Cette image a fait la une du New York Times et a donné lieu à une levée de boucliers de la part de comptes ouvertement favorables à la politique jusqu'au-boutiste du Premier ministre Benyamin Nétanyahou, ainsi que sur des comptes officiels comme celui de l’ambassade d’Israël en France. Dans son reportage, le journaliste précise que l’enfant sur la photo est né durant la guerre à Gaza, et souffre depuis toujours d’une malformation. D’après des témoignages, faute de soins et d’une alimentation adaptée, son état de santé n’a fait qu’empirer. Pour mes comptes pro-israéliens, cette image a été volontairement sortie de son contexte, afin de mieux accuser les autorités israéliennes et disculper le mouvement islamiste armé « Hamas » mis en cause dans le détournement de l’aide alimentaire. La documentation de la famine à Gaza suscite depuis quelques jours une véritable bataille d’images, sur fond de propagande, mais aussi de manque d'information sur ce qui se passe à Gaza. Toutefois, la position gouvernementale israélienne a évolué ces derniers jours avec l’autorisation de la reprise des largages d'aide humanitaire, et une pause des combats dans certains secteurs. Gazawood en ordre de bataille Cela étant, les comptes les plus radicaux, ont mené ces derniers jours une large compagne destinée à minimiser les souffrances des palestiniens. On retrouve notamment les comptes de la galaxie Gazawood ...
    続きを読む 一部表示
    4 分
  • En Moldavie, la cause LGBTQ+ utilisée comme vecteur de la désinformation anti-UE
    2025/07/25
    À l’approche des élections législatives moldaves de septembre, les attaques informationnelles se multiplient dans ce pays. Sur les réseaux sociaux, on ne compte plus les faux articles ou les vidéos mensongères qui s’en prennent à la présidente Maia Sandu qui œuvre à l’intégration de son pays à l’Union européenne. Une désinformation de longue haleine, derrière laquelle se cache la main de Moscou. Dernier épisode, en date, cette vidéo qui vise la communauté gay du pays, afin de mieux s’en prendre au processus de rapprochement avec l’UE. Il s’agit d’un clip d’ 1 min 40 sec. Sur une musique de fond, une voix-off prétend à tort que la fondation du milliardaire américain George Soros a versé 10 millions de dollars au pouvoir en place dans le but de promouvoir la cause LGBTQ+ en Moldavie. Plus largement, selon ce narratif, cette aide viendrait favoriser l'intégration de la Moldavie dans l’Union européenne grâce à une série de réformes, dans l’éducation et la santé, permettant, « de transformer rapidement la Moldavie en paradis pour les homosexuels ». Après vérification, tout cela a été inventé de toute pièce. Il n’y a aucune trace d’un tel versement, aucune prise de position sur le sujet par la part de présidente Maia Sandu, et aucun résultat correspondant à une telle activité sur le site internet de la fondation Soros en Moldavie. La présidente pro-européenne de Moldavie, Maia Sandu, réélue en 2024, a déjà été visée par une série d’infox au mois de juin, pour nuire à sa carrière politique et dénigrer son travail à la tête de la Moldavie, petit pays européen enclavé entre la Roumanie et l’Ukraine. Il s’agissait de fausses informations faisant partie d’une opération d’ingérence russe, en amont des élections moldaves. Les attaques à son encontre continuent donc avec ce narratif autour d’un soutien aux minorités sexuelles - sujet très sensible en Moldavie, pays catholique et orthodoxe. Globalement, il y a une forte augmentation du ciblage depuis plusieurs mois de la Moldavie via des modes opératoires informationnels pro-russes en amont des élections de septembre. Cette infox est apparue le 21 juillet, elle a été vue des milliers de fois rien que sur le réseau X. Elle s’appuie sur un faux site internet présenté comme la source de cette vidéo. Baptisé Proud Europe (Europe Fière), il est, selon nos recherches, l’œuvre d’une agence de marketing digital, qui l’a conçu le 15 juillet dernier, donc spécialement pour cette opération de désinformation visant la Moldavie. La technique employée et le schéma de diffusion sont très proches de ceux suivis par la propagande du Kremlin. Les spécialistes ont immédiatement noté les similitudes avec le système de baptisé Storm 15-16. Depuis 2023, on retrouve ce mode opératoire dans des opérations de désinformation visant les pays européens, notamment en détournant l’identité de publications connues et sérieuses. Cette fois, c'est un site internet « bidon » qui a été utilisé. Il mélange de fausses informations et des articles récupérés sur des sites authentiques sous la bannière d’un prétendu site d’actualité destinée à la communauté LGBTQ+. Sans surprise, dans les heures qui ont suivi la diffusion de l’infox sur la Moldavie, la vidéo a été relayée par les comptes complotistes des sphères russes et MAGA - Make America Great Again, le fameux slogan ultra-conservateur nord-américain. En fin de semaine, l’infox est apparue aussi sur quelques comptes panafricanistes. Objectif : alimenter l’euroscepticisme, affaiblir l’Europe, et jouer sur les émotions du public moldave et de sa diaspora autour des sujets liés à la famille et aux valeurs traditionnelles, en prévision des élections… Concernant enfin Georges Soros, il est une cible de choix pour les complotistes anti-progressiste L’homme d’affaires est souvent visé, par les ultra-conservateurs aux États-Unis qui veulent lui faire payer son soutien aux idées démocrates. Mais d’une manière générale, on peut dire que ce philanthrope d’origine juive incarne, dans l’imaginaire complotiste, la figure fantasmée du milliardaire américain qui cherche à influencer la marche du monde.
    続きを読む 一部表示
    4 分