エピソード

  • Retour au franc, fin des espèces? L'euro ciblé par les infox
    2025/04/25

    Ces derniers jours, l’euro, partagé par vingt pays de l’Union européenne, est la cible d’une vaste campagne de désinformation sur les réseaux sociaux. Alors que la Banque centrale européenne (BCE) ambitionne d’émettre une monnaie virtuelle dans les prochaines années, certains évoquent, à tort, l’interdiction de l’argent liquide en France et la fin de la zone euro. Ces fausses informations, diffusées principalement sur TikTok, cumulent des millions de vues.

    À en croire une vidéo mensongère devenue virale sur TikTok cette semaine, la France aurait décidé « de quitter la zone euro pour utiliser le franc CFA ou retourner au franc ». Cette fausse information repose sur un montage composé de plusieurs extraits de journaux télévisés, attribués aux chaînes de télévisions françaises M6 et BFM TV. Cette vidéo, vue plus de 4 millions de fois sur les réseaux sociaux, suscite beaucoup d’interrogations, notamment sur le continent africain.

    Dans les commentaires, plusieurs internautes pointent, à raison, plusieurs incohérences. Un extrait présente par exemple Mariano Rajoy comme l’actuel chef du gouvernement espagnol, alors qu’il a quitté ses fonctions en 2018. De même, Angela Merkel est présentée comme la chancelière allemande. Or, elle a été remplacée en 2021 par Olaf Scholz.

    Des journaux fictifs réalisés en 2012

    En réalité, ces journaux sont sortis de leur contexte. À l’aide d’une recherche avec les mots-clés « M6 » « BFM TV » et « sorti de l’euro », on retrouve rapidement leur trace en ligne. Dans les faits, il s’agit de journaux fictifs réalisés en 2012, en pleine campagne présidentielle. La sortie de l’euro, argument poussé par le Front National de Marine Le Pen, était, à l’époque, au cœur de l’actualité. M6 et BFM TV avaient alors fait le choix de simuler le retour au franc qui n’aura finalement jamais eu lieu.

    Ce n’est pas la première fois que cette fausse information circule. Chaque année, ces vieux journaux fictifs refont surface sur les réseaux sociaux, au gré de l’actualité économique. Des comptes de désinformation les diffusent pour faire des vues et semer le trouble.

    L’argent liquide bientôt interdit ?

    Dans la même veine, une vidéo partagée cette semaine sur TikTok affirme, à tort, qu’une loi viendrait tout juste d’être votée en France pour interdire les espèces.

    Une nouvelle fois, tout est faux. Nous avons vérifié dans le Journal officiel, et aucune loi de ce type n’a été promulguée en avril. Cette infox détourne en fait le projet d’euro numérique voulu par la Banque centrale européenne et qui génère beaucoup de fantasmes.

    D’après les documents officiels de la BCE, l’euro numérique n’est pas destiné à remplacer l’argent liquide, mais à proposer une forme complémentaire de paiement. Si la carte bancaire est aujourd’hui le moyen de paiement le plus utilisé en France, plus d’un français sur deux estime qu’il est important de pouvoir payer en espèce.

    続きを読む 一部表示
    3 分
  • Non, l’armée malienne ne vient pas d’acquérir des chasseurs F-35 et Soukhoï-35
    2025/04/18

    Au Mali, la crise diplomatique avec l’Algérie s’enlise. Les relations entre les voisins se sont dégradées après la destruction d’un drone malien par l’armée algérienne à Tinzaouatène, dans la nuit du 31 mars au 1ᵉʳ avril. Dans ce contexte, de nombreuses infox circulent sur les réseaux, notamment à propos des capacités militaires des deux pays. La dernière rumeur affirme, à tort, que l’armée malienne aurait reçu des avions de combat ultra-modernes fabriqués en Russie et aux États-Unis.

    À en croire des dizaines de vidéos mensongères sur TikTok, l’armée malienne viendrait de « recevoir plusieurs modèles du célèbre F-35 américain ». Cet avion de combat furtif multirôle de 5ᵉ génération figure aujourd’hui parmi les chasseurs les plus performants au monde. En réalité, l’armée malienne ne dispose pas de ce type d’appareils.

    Cette fausse information repose sur une vidéo de deux minutes montrant un convoi militaire filmé à la sortie d’une autoroute. Les visages d’Assimi Goïta et de Vladimir Poutine sont apposés sur ces images. Rapidement, on constate plusieurs incohérences. D’abord, le F-35 est un avion de fabrication américaine, et non russe, comme le suppose l'auteur de cette publication. Ensuite, le convoi ne comporte que des véhicules terrestres, notamment des blindés de reconnaissance de type Fennek. De plus, l’environnement, la végétation et les panneaux de circulation ne correspondent pas au paysage malien.

    Un convoi filmé en Allemagne

    Grâce à une recherche par image inversée (voir ici comment faire), on sait que ces images ont été filmées en Allemagne et diffusées sur YouTube en novembre dernier.

    La légende parle du 8ᵉ bataillon de reconnaissance de Freyung sur la route vers le centre d'entraînement de Colbitz, dans le nord-est du pays. Ce que nous avons pu vérifier en géolocalisant précisément la scène grâce à des outils de cartographie satellite comme Google Maps ou Yandex Maps.

    Des Soukhoï-35 à Bamako ?

    D’autres rumeurs évoquent aussi « l’arrivée au Mali de chasseurs russes Soukhoï-35 ». C'est ce qu’affirment, une nouvelle fois à tort, plusieurs vidéos vues des centaines de milliers de fois sur les réseaux sociaux. Le mode opératoire est cette fois différent puisque l’infox repose ici sur le détournement de journaux de médias reconnus.

    Visuellement, la vidéo est coupée en deux. Sur la partie haute, des images d’un chasseur présenté comme un Soukhoï-35, mais qui est en fait un Eurofighter Typhoon, défile. Sur la partie basse, on y voit une journaliste en train de présenter un journal télévisé. Le tout est accompagné d’une voix générée par intelligence artificielle.

    Cette voix synthétique prétend reprendre les propos des journalistes visibles à l’image. Sauf qu’en réalité, les extraits utilisés n’ont aucun rapport avec le Mali ou des avions de combats. L’identité de France 24 et d’Africa 24 ont ainsi été usurpées dans le but de crédibiliser l’infox. Sur le fond, le Mali ne dispose ni de F35 ni de Soukhoï-35.

    Des comptes influents à la manœuvre

    À l’origine de cette désinformation, on retrouve différents comptes influents sur TikTok qui désinforment régulièrement sur les capacités militaires des pays du Sahel. Certaines de leurs vidéos atteignent des millions de vues, notamment dans le contexte actuel tendu avec l’Algérie. Leurs publications sont constamment reprises par des dizaines de comptes qui propagent ensuite l’infox sur d’autres plateformes, principalement Facebook et WhatsApp.

    続きを読む 一部表示
    3 分
  • Tensions Mali-Algérie: la désinformation souffle sur les braises
    2025/04/11

    Une semaine après la destruction d'un drone malien par l'armée algérienne à la frontière, la tension ne redescend pas entre Alger et Bamako. Les deux voisins ont respectivement rappelé leur ambassadeur et fermé leur espace aérien. Cette crise diplomatique sans précédent est alimentée par un flot de désinformation sur les réseaux sociaux. D’un côté comme de l’autre, des comptes influents soufflent sur les braises, en diffusant massivement de fausses rumeurs et images sorties de leur contexte.

    À en croire plusieurs vidéos mensongères publiées sur TikTok ces derniers jours, « des affrontements auraient eu lieu entre l’armée malienne et algérienne ». La dernière en date montre une colonne de chars d’assaut légers, progressant sur une piste en terre, entourée de végétation. Le commentaire, apposé sur ces images, affirme, à tort, que le Mali contrôlerait une partie de l’Algérie. En réalité, il n’y a pas eu d’affrontements entre les deux pays. Cette vidéo est sortie de son contexte.

    L’identification du matériel montre que les trois chars légers visibles sont des Stingray, des véhicules de fabrication américaine uniquement en service dans l’armée thaïlandaise. Raison pour laquelle cette vidéo a d’abord été diffusée sur YouTube, sur le compte d’un militaire thaïlandais. Il est donc impossible de voir ce type d’équipement au Mali ou en Algérie.

    Vidéos détournées

    Les images ainsi sorties de leur contexte se comptent par dizaines ces derniers jours. Il suffit de taper « Algérie - Mali » sur les réseaux sociaux pour tomber très rapidement sur ce genre d’infox. L’une des plus consultées ces derniers jours prétend montrer des avions algériens, deux Soukhoï Su-30, volant en patrouille serrée dans le ciel malien.

    Grâce à une recherche par image inversée, on sait que la vidéo provient en réalité d’un reportage diffusé sur Arte, il y a plus de 13 ans, en 2012.

    Fausses rumeurs d’implications étrangères

    À cela s’ajoutent également les fausses rumeurs d’implications étrangères. La Libye, la Mauritanie, le Niger ou le Burkina Faso sont régulièrement cités par des comptes habitués à désinformer sur la situation régionale. Plusieurs publications affirment notamment, sans aucune preuve, que le maréchal Haftar aurait envoyé des milliers de soldats libyens en soutien aux Forces armées maliennes.

    D’autres assurent aussi que l’Iran aurait fourni des drones suicides aux Fama, une nouvelle fois, sans en apporter la moindre preuve. Des fausses rumeurs similaires circulent par ailleurs côté algérien.

    Un écosystème de désinformation

    À l’origine de ce flot d’infox, on retrouve un écosystème de comptes suivis par des centaines de milliers de personnes, principalement sur TikTok. Certains s’affichent directement face caméra, d’autres se contentent de diffuser des montages vidéo mensongers. Leur influence repose presque intégralement sur la diffusion de fausses informations, spécifiquement à propos de la situation sécuritaire au Sahel et au Sahara.

    La dégradation des relations entre Bamako et Alger s’accompagne d’une véritable bataille numérique entre les comptes pro-maliens et pro-algériens. Le sujet suscite de l’engagement et représente donc pour eux une occasion inestimable de faire des millions de vues facilement et rapidement. Les commentaires des utilisateurs montrent que cet opportunisme alimente les tensions et radicalise les militants de chaque camp.

    続きを読む 一部表示
    3 分
  • RDC: de faux journaux radio attribués à RFI sèment le trouble
    2025/04/04

    En République démocratique du Congo, la situation reste tendue dans l’est, entre les rebelles de l’AFC/M23 soutenus par le Rwanda, et les Forces armées congolaises et leurs soutiens. Les affrontements se déroulent sur le terrain, mais aussi en ligne où la désinformation est omniprésente. Parmi ce flot d’infox, on retrouve des faux journaux de RFI. L’identité de la radio du monde a été plusieurs fois usurpée, dans le but de désinformer massivement la population.

    Si vous suivez la situation en RDC, ou que vous êtes membres de groupes congolais sur WhatsApp, vous avez probablement vu passer cet audio faussement attribué à RFI. Durant 4 minutes et 44 secondes, on y entend plusieurs voix synthétiques se succéder, comme dans un véritable journal radio. La première imite celle de notre journaliste au service Afrique, Arthur Ponchelet.

    S'ensuit celle de Corneille Nangaa, le coordinateur de l’Alliance Fleuve Congo (AFC) dont fait partie le M23.

    Enfin, l’extrait se conclut sur une imitation de la voix de la correspondante de France 24 en RDC, Aurélie Bazzara-Kibangula.

    En réalité, RFI n’est pas à l’origine de ce contenu. Cet audio a été entièrement généré via l’intelligence artificielle. Les propos attribués aux trois interlocuteurs ont été fabriqués de toutes pièces. Ce contenu est faux sur la forme, mais aussi sur le fond, puisque contrairement à ce que l’on entend, Corneille Nangaa n’a ni annoncé qu’il déposait les armes, ni demandé des excuses ou une grâce présidentielle.

    Une infox virale sur WhatsApp

    D’après nos recherches et les alertes de plusieurs auditeurs, ce faux journal de RFI a d’abord été diffusé sur WhatsApp dans différents groupes congolais. Plusieurs comptes se présentant comme des médias en ligne l’ont ensuite repartagé sur TikTok, Facebook, YouTube et X. Aujourd’hui, l’infox circule sous différentes formes avec divers visuels qui usurpent l’identité de RFI.

    RFI cible prioritaire

    Ce n’est pas le premier faux extrait de RFI qui circule en République démocratique du Congo. Début mars, un audio siglé RFI affirmait que Félix Tshisekedi allait « démissionner après un accord historique entre Kinshasa et le M23 ». Mais là encore, cette infox avait été générée par intelligence artificielle. Ce type de manipulation se multiplie ces derniers mois et touche différents médias internationaux.

    Distinguer le vrai du faux

    Le meilleur moyen de s’assurer de l’authenticité d’un contenu attribué à RFI est de consulter directement notre site internet ou nos réseaux sociaux officiels. Si l’audio ou l’article en question n’y figure pas, alors c’est un faux.

    En étant vigilant et observateur, on peut également se rendre compte de l’utilisation de l’intelligence artificielle. Dans le cas de ce faux journal, plusieurs utilisateurs ont pointé le ton robotique et la mauvaise qualité sonore. Mais au moindre doute, le réflexe à adopter reste de remonter à la source.

    続きを読む 一部表示
    3 分
  • Musiques artificielles: l'IA utilisée à des fins de propagande politique
    2025/03/28

    C’est un phénomène à la mode sur les réseaux sociaux : les musiques générées par intelligence artificielle. Le mode opératoire est simple, la voix d’un artiste mondialement connu est détournée pour chanter à la gloire d’un chef d’État. Ce phénomène monte en puissance sur le continent africain, et n’épargne aucune personnalités.

    Ces dernières semaines, presque toutes les stars du rap et du RnB ont été victimes de ce phénomène. Les voix de Beyoncé, Aya Nakamura, 50 Cent, Drake ou encore Ninho ont notamment été manipulées. Côté personnalités politiques, la plupart des chefs d’État africains ont eu le droit à leur musique artificielle : le Béninois Patrice Talon, le Sénégalais Bassirou Diomaye Faye ou encore le Guinéen Mamadi Doumbouya. Le dernier son en date, publié cette semaine, cible le capitaine burkinabè Ibrahim Traoré.

    Cette voix artificielle imite presque parfaitement celle du rappeur congolais Gims. Un autre audio en l’honneur du président ivoirien, Alassane Ouattara, circule également ces derniers jours.

    Cette fois-ci, c’est la voix du rappeur Booba qui a été détourné. En réalité, ces sons, qui se comptent par dizaines sur les réseaux sociaux, ne sont pas authentiques. Ils ont été générés via l’intelligence artificielle. Dans les faits, ni Gims ni Booba n’a fait l’éloge d’Ibrahim Traoré ou d’Alassane Ouattara en musique. Pour s’en rendre compte, il suffit de consulter les réseaux sociaux officiels des deux rappeurs.

    De YouTube aux autres réseaux sociaux

    D’après nos recherches, la plupart de ces musiques artificielles proviennent d’un petit nombre de chaînes YouTube qui diffusent régulièrement ce genre de contenus. Même s’il faut chercher pour la trouver, la mention « générée par IA » est bien présente dans la légende.

    Sur YouTube, ces contenus dépassent rarement les 100 000 vues, au contraire de TikTok, Facebook et Instagram où certaines d’entre elles dépassent les cinq millions de vues. Le problème réside dans le fait que les comptes qui repartagent ces musiques inauthentiques ne mentionnent pas l’utilisation de l’intelligence artificielle.

    Ce qui a été généré initialement à des fins humoristiques, se retrouve utilisé à des fins de désinformation. Des comptes très influents se servent de ces infox pour faire de la propagande et les commentaires montrent que des milliers d’utilisateurs tombent dans le panneau.

    Des contenus illégaux

    En utilisant les bons outils, il est possible de générer rapidement et gratuitement ce type de musique artificielle. On peut donc faire dire ce que l’on veut à n'importe quel artiste. Mais attention, certaines législations encadrent la pratique.

    En France, l’article 226-8 du Code pénal puni d’un an et de 15 000 € d’amende « le fait de porter à la connaissance du public ou d'un tiers, par quelque voie que ce soit, le montage réalisé avec les paroles ou l'image d'une personne sans son consentement, s'il n'apparaît pas à l'évidence qu'il s'agit d'un montage ou s'il n'en est pas expressément fait mention. Est assimilé à l'infraction mentionnée au présent alinéa et puni des mêmes peines le fait de porter à la connaissance du public ou d'un tiers, par quelque voie que ce soit, un contenu visuel ou sonore généré par un traitement algorithmique et représentant l'image ou les paroles d'une personne, sans son consentement, s'il n'apparaît pas à l'évidence qu'il s'agit d'un contenu généré algorithmiquement ou s'il n'en est pas expressément fait mention ». La plupart des publications sont donc illégales.

    続きを読む 一部表示
    3 分
  • Canada: le Premier ministre Mark Carney visé par une campagne de désinformation
    2025/03/21
    Alors que le Canada se tourne vers l'Europe pour tenter de faire front à Donald Trump, qui multiplie les déclarations hostiles à Ottawa, des photos discréditant le nouveau Premier ministre libéral, Mark Carney, ont fait leur apparition sur les réseaux sociaux. Ces images trompeuses, fabriquées de toutes pièces, font suite à une campagne de désinformation visant le nouveau chef du gouvernement, à quelques semaines d'élections fédérales anticipées qui devraient être annoncées officiellement ce dimanche 23 mars. La formule de désinformation la plus courante consiste à faire apparaître le candidat libéral devenu Premier ministre du Canada, le 14 mars 2025, en compagnie de personnalités sulfureuses, comme l'explique l'AFP. Une photo a particulièrement retenu notre attention. Elle fait penser à une photo de vacances, mais on y verrait Mark Carney assis sur une chaise de plage aux côtés de l'acteur américain Tom Hanks et de Ghislaine Maxwell, la petite amie de Jeffrey Epstein.Jeffrey Epstein est un tristement célèbre homme d'affaires et criminel sexuel accusé d'avoir réduit en esclavage des dizaines de jeunes filles au profit de la haute société américaine. Ce prédateur a été retrouvé mort dans sa cellule en 2019, alors qu'il attendait d'être jugé pour trafic de mineurs. Mais son image toxique est régulièrement employée sur les réseaux pour discréditer tous ceux qui sont prétendument apparus à ses côtés. Idem pour l'image de son ex-compagne Ghislaine Maxwell, considérée comme la co-organisatrice du trafic et condamnée à 20 ans de prison en 2022, avant de faire appel.Une campagne lancée début 2025Fin janvier déjà, était apparue une photo trompeuse, censée montrer Mark Carney aux côtés de Jeffrey Epstein dans la piscine de la propriété du milliardaire. Cette image, non datée, avait été relayée par plusieurs comptes de la sphère pro-Trump.On estime qu'elle a été vue plus de 200 000 fois, rien que sur X. La photo est apparue pour la première fois en ligne en janvier, lorsque l'ancien Premier ministre Justin Trudeau a annoncé sa démission et lancé la course à la direction du Parti libéral. Elle est devenue virale peu après la victoire de Mark Carney à la tête du parti, le 9 mars. La plateforme Disinfowatch pointe pour sa part la responsabilité de la propagande russe. Une image générée par IAL'image en question est plutôt bien faite. Ses auteurs en ont volontairement dégradé la qualité afin de brouiller les pistes. Toutefois, si on s'attarde sur l'arrière-plan, on distingue plusieurs incohérences. Les filles en maillot de bain ont le visage déformé et l'avant-bras de l'une des baigneuses (sur la gauche de l'image) a une forme en « S » qui ne correspond à la réalité. De plus, même en prenant en compte le phénomène de réfraction de la lumière dans l'eau de la piscine, le bras de Mark Carney apparaît surdimensionné à l'image. Il s'agit d'une infox, comme le détaillent les équipes du collectif Newsguard.Constat similaire sur la photo avec Tom Hanks et Ghislaine Maxwell. Là encore, les doigts sont déformés, et une partie du siège est manquant sous la cuisse droite de Mark Carney. Enfin, si on effectue une recherche par image inversée, on s'aperçoit aussi que cette image a déjà été partagée en ligne, qu'elle porte en bas à droite la mention « Grok ». C'est la signature de l'intelligence artificielle générative d'Elon Musk.Une part d'ambiguïtéEn effectuant des recherches, on retrouve une photo a priori authentique de Mark Carney, à deux pas de Ghislaine Maxwell. Cette photo a refait surface sur les réseaux en janvier 2025, mais elle date de 2013. Mark Carney, alors gouverneur de la Banque d'Angleterre, avait été photographié lors d'un festival avec sa femme Diana Fox et d'autres personnalités de la société mondaine britannique, dont Ghislaine Maxwell. Lors de la republication, l'équipe de campagne de Carney a démenti tout lien affirmant que Carney et Maxwel « ne sont pas amis ».À lire aussiCanada: le Premier ministre Mark Carney va annoncer des législatives anticipées pour le 28 avril
    続きを読む 一部表示
    4 分
  • Syrie: la désinformation s'ajoute aux violences subies par la communauté alaouite
    2025/03/14
    Depuis le 6 mars, il ne se passe pas un jour en Syrie sans que de nouvelles images viennent documenter les exécutions de masses qui ont visé la minorité alaouite. Les ONG estiment que plus d'un millier de civils ont été tués. Certaines images sont d’une rare violence. Mais dans ce flot d’images répandues sur les réseaux sociaux, il y a aussi beaucoup d’infox. Ce mélange de documents authentiques et d’images anciennes accentue la confusion, et alimente les tensions communautaires. Depuis la semaine dernière, la cellule Info Vérif de RFI a passé en revue des dizaines de vidéos. Une nouvelle fois, on a assisté à une véritable guerre de l’information autour des massacres survenus dans les villes et les villages de la côte syrienne et de la montagne dans l'ouest du pays. Ce déchaînement de violence laisse des traces sur les réseaux sociaux. On peut y lire beaucoup de commentaires : des condamnations à propos de la responsabilité des nouvelles autorités de Damas, mais aussi une forme de satisfaction affichée par certains qui tentent de légitimer ces actes de vengeances après quatorze ans de guerre civile, et après cinquante-quatre ans de domination alaouite sous le régime el-Assad, père et fils. Dès le vendredi 7 mars, nous avons été confrontés à une multitude de vidéos, provenant de comptes plus au moins fiables. Des images de véritables exécutions sommaires visant la communauté alaouite, parfois combinées à des infox qui ont été relayées et amplifiées par des comptes pro-israéliens, pro-russes ou anti-occidentaux afin de discréditer les nouveaux maîtres de Damas.Ces images choquantes et ces prises de positions ne sont que très peu modérées sur la plateforme X. Certaines vidéos apparaissent régulièrement sur des chaînes Telegram avant de se répandre sur le réseau social d’Elon Musk.Désinformation multiformeDes documents truqués circulent, comme ce faux communiqué attribué à Hayat Tahrir al-Sham (HTS), la formation rebelle qui a pris le pouvoir fin 2024. Un prétendu texte officiel en arabe censé demander aux partisans de HTS de ne plus filmer les exactions dont ils seraient les auteurs. C’est un faux. Vérification faite, il s’agit d’un trucage réalisé à partir d’un communiqué du ministère syrien de la Défense datant du mois dernier. Ce faux a été vu plus de 150 000 fois, rien que sur X.On trouve par ailleurs beaucoup d’images sorties de leur contexte afin de tromper le public et attiser les tensions, par exemple, l’image d’un supplicié attaché à une croix et abattu d’une balle en pleine tête. Les auteurs du post affirment que HTS a entamé une campagne d’élimination des chrétiens. Une recherche par image inversée permet d’établir que cette scène d’exécution remonte en réalité à 2015 et ne se déroulait pas sur la côte syrienne, mais dans la Ghouta, près de Damas.Autre exemple, une rumeur a circulé annonçant la mort d’un haut représentant chrétien de l’Église de Tartous. Démenti formel des autorités religieuses qui assurent qu'elles ne connaissent personne répondant au nom du prêtre cité dans l'infox.Des infox comme celles-ci, il y a en des dizaines sur les réseaux sociaux depuis la semaine dernière. Toutefois, ce constat ne doit pas minimiser la portée des exactions réelles commises ces derniers jours. Les autorités de Damas ont d'ailleurs annoncé la formation d’une « Commission d’enquête indépendante sur les exactions contre les civils, afin d’identifier les responsables et de les traduire en justice ». Les autorités ont communiqué sur l'arrestation d'au moins sept personnes depuis lundi, accusées d'avoir commis des exactions contre des civils, et les ont déférées devant la justice militaire.Un moment propice aux tentatives de déstabilisationLa désinformation n’est pas nouvelle en Syrie, mais elle n’a pas disparu avec la fin du régime Assad. Selon la plateforme de fact-checking « Misbar » qui fournit un gros travail de vérification et d’analyse sur le Moyen-Orient, un réseau de comptes suspects, très actifs depuis l'effondrement du régime syrien propagent « des discours de haine et incitent à la violence sectaire en exacerbant les divisions au sein de la société syrienne à un moment critique ». Prudence donc à propos de ce qu'on peut voir, lire ou entendre concernant les évènements en cours en Syrie.
    続きを読む 一部表示
    4 分
  • Ukraine: Volodymyr Zelensky dans l’œil de la désinformation pro-russe
    2025/03/07

    Une semaine après l’altercation entre Donald Trump, JD Vance et Volodymyr Zelensky à la Maison Blanche, le contexte informationnel autour des relations entre les deux pays s’est particulièrement tendu. Énormément de fausses informations circulent sur les réseaux sociaux. Cible prioritaire de cette campagne de désinformation, le président ukrainien est attaqué de toutes parts, à tel point qu’il est difficile de distinguer le vrai du faux.

    Le dernier exemple de cette campagne de dénigrement est une vidéo montrant Volodymyr Zelensky dans une usine d’armement aux États-Unis. Accompagné de Josh Shapiro, le gouverneur de l’État de Pennsylvanie, on le voit signer le corps d’un obus de 155 mm. En commentaire, les utilisateurs qui partagent ces images écrivent : « avant d’avoir de la sympathie pour Zelensky, n’oubliez pas qu’il a signé, avec le sourire, des bombes destinées à être larguées sur des enfants dans la bande de Gaza ». Au total, ce récit a été vu plusieurs millions de fois ces derniers jours.

    Vérification faîte, ces images n’ont rien à voir avec la bande de Gaza. Ces obus signés par Volodymyr Zelensky étaient en réalité destinés à l’armée ukrainienne et non aux soldats israéliens. En effectuant une recherche avec les mots clés « Volodymyr Zelensky », « Josh Shapiro » et « Pennsylvanie », on retrouve cette vidéo publiée sur la chaine YouTube de l’Agence France Presse, le 23 septembre 2024.

    Le président ukrainien était en déplacement en Pennsylvanie où il a visité l’usine de munitions de l'armée de Terre de Scranton qui a fourni l’Ukraine en obus de 155 mm. Un compte-rendu détaillé de sa visite est disponible sur le site internet de la présidence ukrainienne.

    Volodymyr Zelensky en costume ?

    Largement commentée lors de sa visite à la Maison Blanche, la tenue du président ukrainien fait aussi l’objet de nombreuses rumeurs. Si Volodymyr Zelensky s’est engagé à ne plus porter de costume avant la fin de la guerre, certains affirment, photo à l’appui, qu’il aurait récemment dérogé à la règle lors d’une rencontre avec Klaus Schwab, le fondateur du Forum de Davos. « Voilà ce qui se passe quand on rencontre son vrai patron », commentent plusieurs utilisateurs adeptes des théories complotistes et de la propagande pro-russe.

    Sauf que là encore, cette image est sortie de son contexte. Une recherche par image inversée permet de retrouver l’origine de ce cliché. Il a été pris le 22 janvier 2020 lors de la 50ᵉ édition du forum économique. L’invasion à grande échelle de l’Ukraine par la Russie n’avait pas commencé, ce qui explique le costume porté par Volodymyr Zelensky.

    La propagande par l’humour

    Au-delà de ces infox, certains se servent aussi de l’humour pour dénigrer l’image du président ukrainien. Ces derniers jours, les vidéos de Volodymyr Zelensky, modifiées grâce à l’intelligence artificielle, se sont multipliées sur les réseaux sociaux. On peut le voir sur Fox News en train d’évoquer son addiction à la cocaïne, ou encore face à Donald Trump en train de proposer des actes sexuels contre de l’argent pour son pays.

    Si ces contenus sont pris au second degré, le message de fond, lui, n’a pas été choisi au hasard. Le narratif est toujours aligné sur ce que diffusent les propagandistes russes depuis maintenant plus de trois ans. L’analyse de la propagation de ces vidéos artificielles montre d’ailleurs l’implication directe d’acteurs déjà maintes fois identifiés comme des relais de la propagande du Kremlin.

    続きを読む 一部表示
    3 分