エピソード

  • Blocus américain du détroit d'Ormuz: le vrai du faux sur les images qui circulent
    2026/04/17

    Le détroit d’Ormuz est sous blocus américain depuis lundi 13 avril. Le Commandement central des États-Unis assure qu’aucun navire n’a pu rejoindre les ports iraniens, parlant d’au moins dix bateaux refoulés. De son côté, l’Iran affirme que ses bateaux continuent de naviguer, mais à un rythme très lent. Téhéran menace d’entraver le trafic maritime dans la région si les États-Unis maintiennent leur blocus. Ce brouillard de guerre favorise la prolifération des fausses informations.

    Les rumeurs mensongères autour de la situation actuelle dans le stratégique détroit d’Ormuz se multiplient sur les réseaux sociaux ces derniers jours. La dernière en date affirme que la Chine serait intervenue militairement dans la zone pour rétablir la liberté de navigation. Cette fausse information repose sur une vidéo montrant un imposant dispositif naval et aérien en pleine mer.

    On y voit une dizaine d’avions de combat et au moins six bâtiments de guerre. « La Chine vient de briser le blocus américain », indique la légende de ce clip, vu plusieurs centaines de milliers de fois sur TikTok.

    En réalité, l’armée chinoise n’est pas intervenue pour briser le blocus américain. Si la Chine a haussé le ton, dénonçant « un comportement dangereux et irresponsable » de la part du gouvernement de Donald Trump, Pékin n’a pas mis sur la table une potentielle intervention militaire.

    Aucune information ne laisse présager une confrontation directe entre les deux marines les plus puissantes du monde, dans le détroit d’Ormuz.

    Un exercice militaire

    L’analyse de cette vidéo montre qu’il s’agit de matériel militaire occidental et non chinois. Nous avons identifié un porte-hélicoptères japonais de la classe Hyuga, quatre avions de combat F-18, quatre F-35 ainsi qu’un avion radar embarqué. Ces aéronefs sont tous de fabrication américaine.

    L’alignement des navires et la formation resserrée des chasseurs indiquent que cette scène a été filmée lors d’un exercice naval, probablement lors d’un RIMPAC, un exercice militaire réalisé tous les deux ans par différentes marines occidentales sous la supervision de l’armée américaine.

    Une recherche par image inversée montre que cette vidéo circule dans différents contextes, depuis plus de quatre ans.

    Un sous-marin à quai américain dans un port iranien ?

    Cette vidéo, sortie de son contexte, est loin d’être un cas isolé. Ce type d’images détournées autour du blocus américain se compte par centaines. C’est le cas de cette vidéo, relayée cette fois par des comptes pro-américains. On y voit un sous-marin naviguer en surface, avec une partie de l'équipage fièrement alignée sur la coque. La légende parle d’un port iranien sous contrôle américain.

    Vérification faite, ce clip montre l’arrivée du sous-marin nucléaire d'attaque britannique, HMS Anson, à la base navale de Stirling en Australie, en février 2026.

    Guerre de l'information

    D’un côté comme de l’autre, les comptes de propagande pro-iraniens et pro-américains cherchent à tout prix à imposer leur narratif. La désinformation est au cœur de la bataille informationnelle qui se joue actuellement en ligne. Les informations vérifiées et les vidéos authentiques sont les premières victimes de cette guerre de l’information qui fait rage sur les réseaux sociaux.

    続きを読む 一部表示
    3 分
  • Hongrie: l’intelligence artificielle et la désinformation brouillent les élections
    2026/04/10

    En Hongrie, des élections législatives cruciales se tiennent ce dimanche 12 avril. Le Premier ministre nationaliste Viktor Orbán, du parti Fidesz, espère briguer un cinquième mandat mais son concurrent, Péter Magyar, chef du Tisza, est jusqu’ici en tête dans les sondages. La campagne électorale a été marquée par un flot constant de fausses informations. Péter Magyar et sa formation politique sont notamment la cible de plusieurs vidéos générées par intelligence artificielle.

    Péter Magyar en train de se droguer dans une boîte de nuit, de câliner le président ukrainien Volodymyr Zelensky, ou de brûler volontairement des billets de banque. Les vidéos artificielles détournant l’image du favori du scrutin se comptent par centaines sur les réseaux sociaux ces dernières semaines. Accompagnés de messages politiques, ces contenus mensongers cherchent à dénigrer le candidat du Tisza et, au contraire, à vanter le Fidesz, parti de Viktor Orbán. Certaines de ces infox cumulent des centaines de milliers de vues.

    L’analyse des comptes à l’origine de ces infox (leur date de création, leur photo de profil) montre qu’il s’agit d’une vaste opération d’influence multi-plateformes. En décembre dernier, TikTok avait annoncé la suppression d’une trentaine de faux comptes. Ce réseau amplifiait artificiellement « les discours favorables au parti politique de Viktor Orbán ».

    Des animaux tenant des propos anti Péter Magyar, des faux articles de presse : les formats sont variés. On ne sait pas, à ce stade, qui est le commanditaire.

    L’IA, instrument de communication politique

    Depuis le lancement de la campagne, le parti de Viktor Orbán ne s’est pas privé d’utiliser l’intelligence artificielle pour s’attaquer à son adversaire. Le Fidesz a multiplié ce type de vidéo synthétique sur des sujets variés. La plus commentée raconte l’histoire d’une petite fille qui attend que son père, parti à la guerre, rentre à la maison. L’homme est finalement exécuté par balles.

    « Pour l'instant, ce n'est qu'un cauchemar, mais Bruxelles se prépare à le concrétiser », indique la légende, en référence à la guerre en Ukraine.

    L’Ukraine comme bouc émissaire

    L’Ukraine occupe une place majeure dans la campagne. Le Fidesz répète à tort et à travers que le Tisza va entraîner la Hongrie dans la guerre. Dans plusieurs vidéos artificielles, Péter Magyar est présenté comme une marionnette de Kiev et Bruxelles. Viktor Orbán, allié de Vladimir Poutine, a fait de l’Ukraine son bouc émissaire.

    Le Fidesz agite la peur pour conserver le pouvoir. Une stratégie de longue date selon Gábor Polyák, directeur de recherche au sein de l’ONG hongroise Mertek Media Monitor : « Cette construction constante de nouveaux ennemis et le fait de se présenter comme le défenseur de la nation hongroise sont la méthode typique du Fidesz depuis 2015. C’est à cette époque que ce genre de campagne a commencé. Il y a d’abord eu les migrants, puis George Soros et ses agents, puis Bruxelles, puis la communauté LGBTQ+... ».

    Reste à savoir si cette stratégie sera payante, ce que les derniers sondages semblent contredire.

    続きを読む 一部表示
    3 分
  • Non, le Japon ne vient pas d’adopter une loi anti-islam
    2026/04/03

    Le Japon vient-t-il de voter une série de lois anti-islam ? C’est ce qu’affirme, à tort, une rumeur devenue virale sur les réseaux sociaux ces derniers jours. Des comptes influents évoquent de nouvelles mesures particulièrement contraignantes pour les citoyens musulmans dans un pays pourtant laïque, comme la France. Cette fausse information n’est pas nouvelle. Elle resurgit régulièrement, sous différentes formes, depuis plus de dix ans.

    Cette rumeur circule à travers une vidéo vue plus de dix millions de fois sur X, Facebook et TikTok. On y voit un homme politique prendre la parole dans ce qui ressemble à l’une des chambres du Parlement japonais. S’ensuivent des cris de soutien d’une partie de l'hémicycle. La légende parle, à tort, de nouvelles lois anti-islam votées ces derniers jours. Interdiction des mosquées, des prières dans la rue, du port du voile, de la nourriture halal : « Les musulmans ne sont plus les bienvenus au Japon », commentent plusieurs utilisateurs.

    Vérification faite, tout est faux, sur le fond comme sur la forme. Comme l’indiquent les comptes rendus du Parlement, aucune loi de ce type n’a été promulguée au Japon. Une telle mesure aurait évidemment fait du bruit, que ce soit dans la presse locale ou à l’international. Dans les faits, le Japon est un pays laïque. La liberté de culte est régie par l’article 20 de la Constitution nippone.

    Dissolution de la Chambre basse

    Grâce à une recherche par image inversée, nous avons retrouvé la trace de cette vidéo sur le site internet de la télévision en ligne de la Chambre des représentants. On y apprend que ce clip montre l’annonce de la dissolution de la Chambre basse du Parlement japonais, le 23 janvier 2026.

    La traduction des propos de Fukushirō Nukaga, l’ancien président de cette chambre, le confirme. Il annonce en japonais : « La Chambre des représentants est dissoute conformément à l'article 7 de la Constitution du Japon ». Cette dissolution, décidée par l’actuelle Première ministre ultra-conservatrice Sanae Takaichi, a permis à son camp, le Parti libéral-démocrate, de remporter une majorité des deux tiers à la Chambre basse.

    Une infox récurrente

    Ce type de rumeurs circule en ligne depuis maintenant plus de dix ans. Le premier article de vérification que nous avons trouvé sur le sujet remonte au 17 novembre 2015. Cette fausse information resurgit presque chaque année au gré de l’actualité. Elle prend souvent différentes formes : des vidéos sorties de leur contextes, des mèmes, des déclarations mal traduites, etc.

    Certains influenceurs ouvertement xénophobes diffusent cette infox en parlant d’une décision historique, souhaitable en Europe. D’autres s’en servent au contraire pour critiquer le Japon, jugé comme un pays trop conservateur. Dans tous les cas, cette fausse information génère beaucoup de débat, d’engagement et donc beaucoup de vues. Cela explique qu’on la retrouve régulièrement relayée par des comptes qui ont fait de la désinformation une véritable source de revenus.

    続きを読む 一部表示
    3 分
  • CAN 2026 : l’IA alimente la polémique sur le vainqueur de la finale
    2026/03/27

    L’annonce de la victoire sur tapis vert de la sélection marocaine contre le Sénégal après la finale mouvementée de la dernière CAN donne lieu depuis quelques jours à un déferlement d’infox, notamment sous formes de vidéos crées par intelligence artificielle, mettant en scène des supporters marocains prenant la défense des sénégalais. Des infox, dans lesquelles ils remettent en cause l’impartialité de la confédération africaine de football (CAF).

    À l’heure ou la fédération sénégalaise de football a décidé de saisir le tribunal arbitral du sport, ces images trompeuses totalisent des millions de vues rien que sur la plate-forme TikTok. Les interviews sont toutes filmées en format vidéo vertical, caractéristique des contenus destinés aux réseaux sociaux. Elles mettent en scène des supporters marocains rejetant la décision des instances africaines du football. Ils s’expriment tous en français et non en darija, le dialecte marocain.

    Certaines vidéos s'articulent autour d'un slogan totalement inventé par l'auteur et qu'on ne retrouve nulle part ailleurs : « la dignité du Maroc vaut plus qu'un trophée ». Des voix synthétiques, des images générées par IA : tout celà est faux et ne fait qu’attiser la polémique.

    Si on se réfère au nombre de vues annoncées par TikTok, certaines vidéos ont fait le buzz, avec plus de cinq millions de vues pour les plus populaires. Au moins une vingtaine de vidéos créées par IA reprenant cette thématique ont été publiées depuis huit jours. Commentaires : « Ce supporter marocain est honnête quand il dit que son pays ne méritait pas la coupe », ou encore « pour garder votre dignité il faut refuser cette coupe ».

    Des vidéos attractives 100% IA

    Il faut reconnaître que ces vidéos sont très bien faites. Pour ajouter à la confusion, à l'image, certains supporters créés par IA ont des traits extrêmement proches de fans du Maroc apparaissant dans des vidéos authentiques.

    Dans le cas présent, c’est souvent la voix synthétique qui trahit l’IA, mais aussi la durée de vidéo, qui n'excède pas quinze secondes : c’est la durée maximale des vidéos créées par l’outil Sora d’Open AI dans sa version gratuite.

    Par ailleurs, plusieurs éléments à l’image ont attiré notre attention. Les logos des micros tendus ne correspondent à rien de connu, et l’écusson qui apparaît sur les tee-shirts des supporters ne ressemblent pas exactement à celui de la fédération royale marocaine de football.

    Enfin, si l'on passe nos vidéos de supporters marocains dans un outil de détection d'IA, certaines sortent à 99% générés par l’intelligence artificielle, et l’outil SORA-2 est régulièrement cité.

    Un compte qui prospère sur les polémiques footballistiques

    Sur TikTok, tout part d’un unique compte, on ne sait pas vraiment si l’objectif de l’auteur est de discréditer la CAF, le Maroc, ou encore diviser les pays africains... Difficile enfin de savoir si l’auteur a cherché à effectuer une projection sur les supporters marocains en leur attribuant ses propres arguments ou simplement s’il a voulu générer des clics, et gagner en visibilité. Toutefois, si l'on passe en revue ses contenus, on remarque que son compte diffuse de nombreux autres infox, qui ne parlent pas de la CAN mais qui sont en lien avec le monde du football. Les équipes, les supporters, l'arbitrage : des sujets qui fonctionnent bien sur les réseaux sociaux, qui permettent à son auteur de monétiser son audience.

    続きを読む 一部表示
    4 分
  • Burkina Faso: non Ibrahim Traoré n’a pas été arrêté par Donald Trump
    2026/03/20

    Au Burkina Faso, une rumeur cible actuellement le président de la transition. Une série de vidéos diffusées sur les réseaux sociaux affirme, à tort, que le capitaine Ibrahim Traoré aurait été arrêté à Ouagadougou. Si cette fausse information grossière peut prêter à sourire, elle illustre en réalité un mode opératoire devenu systémique.

    Tout commence sur TikTok avec l’apparition d’une vidéo plutôt étrange. Dès la première seconde, ce clip prétend sonner l’alerte : « Urgence au Burkina Faso. C’est fini pour Ibrahim Traoré ». Cette voix robotique affirme ensuite, à tort, que le capitaine burkinabè viendrait d’être arrêté : « Le président Ibrahim Traoré vient d’être arrêté. Et ce n’est pas n’importe qui. C’est Donald Trump qui aurait ordonné son arrestation ».

    Cette prétendue arrestation aurait été justifiée par des propos « injurieux envers le président américain ». En réalité, tout est faux. Cette histoire a été inventée de toutes pièces. Ibrahim Traoré n’a pas été arrêté. Pour preuve, il est apparu jeudi 19 mars 2026, libre, lors du Conseil des ministres.

    Une infox reprise en boucle

    D’après nos recherches, plusieurs dizaines de vidéos de ce type circulent sur TikTok. On retrouve toujours le même narratif, cette même voix masculine générée par intelligence artificielle, ainsi que des images d’illustration plus ou moins récentes.

    Certaines de ces publications apparaissent dans les premiers résultats quand on cherche à s’informer sur le Burkina Faso. Cette fausse information cumule aujourd’hui près de 3 millions de vues, rien que sur TikTok.

    Le rôle central des algorithmes

    Le succès de ce type d’infox assez grossières s’explique d’abord par une recette de fabrication qui plaît aux algorithmes de recommandation. La vidéo est sensationnaliste, courte, le montage est dynamique. Même si le narratif est assez farfelu, ces clips suscitent également beaucoup de commentaires. Certains se moquent, d’autres se font avoir. Cet engagement pousse les algorithmes à mettre en avant ces publications.

    À ce stade, nous n’avons pas pu déterminer qui est précisément à l’origine de ce type de contenus. Ce que l’on sait, c’est que des centaines de comptes TikTok diffusent quotidiennement ce genre de vidéos. Les sujets, souvent en lien avec l’actualité, n'épargnent aucun pays ni aucune thématique.

    Pour gagner en crédibilité, une bonne partie de ces comptes tentent de se faire passer pour des médias : « Actualités français » (sic), « Minutes politique » (sic) ou « Brut FR politique ». Ces noms, volontairement trompeurs et proches de médias existants, brouillent les pistes et mettent les utilisateurs en confiance.

    Motivation financière

    En analysant les contenus que ces comptes publient, leur motivation semble davantage financière qu’informationnelle. On ne retrouve pas de positionnement idéologique très clair. Certaines vidéos se contredisent parfois. Leur but semble donc d'inonder TikTok avec des vidéos mensongères pour faire des vues, et monétiser leur audience. Une vague de faux qui sème le doute et ajoute au désordre informationnel.

    À lire aussiComment un réseau de désinformation tente de déstabiliser les pays de l'AES

    続きを読む 一部表示
    3 分
  • Iran: l’absence de Mojtaba Khamenei suscite rumeurs et désinformation
    2026/03/13

    En Iran, le nouveau guide suprême n’est toujours pas apparu en public. Dans son premier message officiel, lu à la télévision d’État, Mojtaba Khamenei, a juré de mener la vengeance jusqu’au bout. Le nouvel homme fort du pays n’est pas apparu à l’écran. C’est une journaliste qui a lu sa déclaration. Invisible depuis sa nomination, Mojtaba Khamenei aurait été blessé durant le raid aérien qui a tué son père, Ali Khamenei. Son absence entraîne beaucoup de rumeurs et de fausses informations.

    Dès l’annonce de sa nomination, dimanche 8 mars, une vidéo fait son apparition sur les réseaux sociaux. On pense y voir Mojtaba Khamenei, turban noir sur la tête, en pleine déclaration officielle. Le décor est assez sobre. On retrouve un drapeau iranien à sa droite, ainsi que les portraits d’Ali Khamenei et du fondateur de la République islamique d'Iran, l’Ayatollah Khomeini, à sa gauche. Durant trente-deux secondes on pense l’entendre parler en persan.

    Il semble notamment affirmer que l’Iran combattra « jusqu’au dernier homme pour repousser l’agression barbare de l’Occident ». Les comptes à l’origine de ce clip saluent « le premier discours de Mojtaba Khamenei ».

    Vérification faite, cette vidéo n’est pas réelle. Il s’agit d’un deepfake, un hypertrucage généré par intelligence artificielle. En réalité, Mojtaba Khamenei n'est toujours pas apparu en public depuis sa nomination. L’image et le son ont été manipulés. Ce type d’outil permet de faire dire n’importe quoi à n’importe qui, de façon plus ou moins réaliste.

    Comment détecter un hypertrucage ?

    Le premier élément de vérification consiste à observer avec attention le mouvement de ses lèvres qui ne colle pas avec les mots qu’il prononce. Ce problème de synchronisation labiale est typique des deepfake. Nous avons ensuite fait analyser la bande son à plusieurs locuteurs persanophones. Le résultat est sans appel. L'utilisation d’un outil d’intelligence artificielle est facilement détectable quand on parle la langue.

    Enfin, pour savoir comment a été fabriqué cet hypertuquage, nous avons effectué plusieurs recherches par image inversée (voir ici comment faire). Cela nous a permis de retrouver cette photo d’Ali Khamenei prise en juin 2025.

    On y retrouve les mêmes éléments de décor, au centimètres près, à l’exception de son portrait. C’est donc probablement ce discours qui a été fourni à une IA pour générer le deepfake.

    La plupart des comptes qui ont partagé cette vidéo font la propagande du régime iranien. L’infox a ensuite été reprise volontairement ou par mégarde par plusieurs médias, notamment arabophones. Ce deepfake cumule ainsi plusieurs millions de vues.

    Un portrait de Mojtaba Khamenei dans le bureau de Donald Trump ?

    Cette fausse information n’est pas un cas isolé. D’autres vidéos mensongères circulent. La plus virale prétend, à tort, que Donald Trump aurait affiché un portrait de Mojtaba Khamenei dans son bureau de la Maison Blanche.

    Mais là encore, tout est faux. Quelqu’un a manipulé une vidéo diffusée par la présidence en mars 2025. Donald Trump avait affiché une copie de la Déclaration d'indépendance et non la tête du nouveau guide suprême iranien.

    続きを読む 一部表示
    3 分
  • Guerre au Moyen-Orient: les images artificielles saturent l’espace informationnel
    2026/03/06

    Près d’une semaine après les premières frappes israélo-américaines sur l’Iran, la Guerre au Moyen-Orient se poursuit. Téhéran, toujours sous les bombes, poursuit sa riposte. Jusqu’ici, les Émirats arabes unis, l’Irak, le Qatar, le Koweït, l'Azerbaïdjan ou encore Bahreïn ont été ciblés par des missiles et des drones iraniens. Dans ce contexte, les images générées par intelligence artificielle inondent les réseaux sociaux, à tel point qu’il est difficile de distinguer le vrai du faux.

    Le symbole de cette guerre informationnelle en cours n’est autre que le porte-avions américain Abraham Lincoln. Pièce maîtresse du dispositif maritime de l’US Navy, le navire a été ciblé par des missiles iraniens en début de semaine. Plusieurs vidéos assez impressionnantes ont alors fait leur apparition sur les réseaux sociaux. La plus virale prétend montrer l’USS Lincoln en feu, en train de couler. En commentaires, certains parlent, à tort, d’une « démonstration de force historique de l’armée iranienne ».

    Sauf que ces images ne sont pas réelles. Cette vidéo, vue plus de 50 millions de fois, a été générée par intelligence artificielle. Plusieurs éléments visuels le prouvent, comme ces avions de chasse méconnaissables qui flottent étrangement à la surface.

    Le Commandement du département de la Défense des États-Unis a en réalité annoncé le 1er mars que « les missiles iraniens sont tombés loin de leur cible ». Le Centcom ajoute que « le Lincoln continue de lancer des avions en soutien aux bombardements » en cours en Iran.

    Propagande iranienne pro-régime

    Cette vidéo synthétique n’est pas un cas isolé, loin de là. Les contenus générés par IA autour de la riposte iranienne se comptent par centaine. Certains narratifs reviennent en boucle : des soldats israéliens ou américains en pleurs, des gratte-ciels comme le Burj Khalifa de Dubaï en flammes, des villes israéliennes rayées de la carte.

    Ces vidéos, ultra-réalistes, sont parfois difficiles à vérifier à l'oeil nu. Toujours très sensationnalistes, elles attirent l'œil et cumulent ainsi des centaines de millions de vues.

    La plupart des comptes qui diffusent ces vidéos artificielles font la propagande du régime iranien. Leurs publications visent à exalter la puissance militaire de Téhéran, et, au contraire, à dénigrer l’armée américaine et israélienne.

    À lire aussiRiposte iranienne: les images générées par intelligence artificielle sèment le doute

    Brouillard informationnel

    Ce bruit de fond sature l’espace numérique et génère un brouillard informationnel dans lequel on ne sait plus quelle vidéo est vraie ou fausse. Tout ça sème le doute, et invisibilise les images authentiques filmées sur le terrain par des témoins et des journalistes.

    Ce fléau a poussé certaines plateformes à réagir, à l’image de X, anciennement Twitter, dont les équipes ont annoncé une révision des règles de partage de revenus. Concrètement, un utilisateur qui publie une vidéo générée par intelligence artificielle sans le mentionner ne pourra plus monétiser son audience pendant 90 jours. Cela pourrait représenter un véritable manque à gagner pour les comptes spécialisés dans les fausses informations générées par IA.

    La liberté d’expression totale, défendue quoi qu’il en coûte par son propriétaire Elon Musk, n'aura visiblement pas résisté à cette vague de contenus anti-américains.

    続きを読む 一部表示
    3 分
  • Tensions États-Unis-Iran: une opération de désinformation pro-iranienne est en cours sur TikTok
    2026/02/27

    Les États-Unis et l’Iran ont entamé jeudi 26 février un troisième round de négociations informelles à Genève au sujet du nucléaire iranien. Après avoir déployé un important dispositif militaire au Moyen-Orient, Washington agite toujours le spectre d’une intervention militaire. Dans ce contexte inflammable, nous avons identifié une opération de désinformation en cours sur le réseau social TikTok, à l’aide de vidéos générées par intelligence artificielle.

    Mercredi 24 février, une vidéo loufoque de dix secondes a attiré notre attention sur TikTok. On pense y voir un bombardier furtif américain, B2 Spirit, sortir d’un tunnel caché quelque part dans les montagnes iraniennes. Ces images, générées par intelligence artificielle, sont assez grossières. Les ailes de l’appareil traversent la montagne.

    En nous intéressant au compte à l’origine de ce clip, nous avons trouvé 41 vidéos, toutes générées par intelligence artificielle. Elles montrent soit du matériel militaire aux couleurs iraniennes, soit des femmes se présentant comme des pilotes. Ces contenus mensongers cumulent plus de 30 millions de vues.

    Écosystème de comptes

    En poursuivant nos recherches, nous avons identifié plusieurs centaines de vidéos de ce type, diffusées par des dizaines de comptes TikTok. Ces clips sont accompagnés de la même légende, à la lettre près.

    Nous avons ensuite sélectionné 25 de ces comptes pour analyser précisément leur activité. Résultat, ces profils ont été créés entre janvier et février 2026. L’analyse de la date précise de leur première publication montre que cette opération a débuté autour du 19 janvier, avant de s’intensifier courant février.

    Ces deux indicateurs traduisent une action coordonnée. L’audience cumulée de ces 25 comptes dépasse les 120 millions de vues.

    Exalter la puissance de l’armée iranienne

    L’objectif derrière la diffusion massive de ces vidéos générées par intelligence artificielle semble d’exalter la puissance de l’armée iranienne aux yeux d’un public jeune et international. Même si le caractère artificiel de certaines vidéos saute aux yeux, d’autres sont ultra-réalistes. Dans un contexte de vives tensions entre les États-Unis et l’Iran, il s’agit là d’une forme de propagande et de course aux clics.

    Manipulation de hashtags ?

    Si on ne sait pas concrètement qui est derrière cette opération de désinformation, plusieurs éléments sont importants à prendre en compte. Certains de ces profils ont d'abord déjà diffusé des contenus en faveur du régime en place à Téhéran. Certains arborent même le visage du guide suprême Ali Khamenei en photo de profil.

    Autre élément très intéressant, ce sont les hashtags accolés à toutes ces vidéos. On retrouve toujours #FreeIran #IranProtest, #WomanLifeFreedom ou encore #StandWithIran. Ces mots-clés sont traditionnellement associés au mouvement de contestation, très violemment réprimé par le régime iranien.

    Comment expliquer que des comptes en apparence pro-régime utilisent des hashtags associés, au contraire, aux opposants ? Cela pourrait être simplement pour surfer sur la popularité de ces hashtags et faire du clic. Mais cela pourrait aussi être destiné à invisibiliser les vraies images des manifestations partout dans le pays. Aujourd’hui, lorsque l'on cherche ces hashtags sur TikTok, ces vidéos militaires générées par IA inondent les résultats.

    Le faux finit donc par prendre le dessus sur la réalité. Cela pourrait être un moyen, parmi d'autres, de cacher ce qu’il se passe vraiment en Iran.

    続きを読む 一部表示
    3 分