エピソード

  • Non, des missiles Javelin ukrainiens n’ont pas fini entre les mains de jihadistes nigérians
    2026/02/13
    Alors que les attentats et les enlèvements se multiplient au Nigéria, les États-Unis renforcent leur lutte antiterroriste dans la région. Dans ce contexte, une infox est apparue sur les réseaux. Selon une vidéo trompeuse, l’organisation terroriste État islamique en Afrique de l’Ouest s’adresserait au président Donald Trump, en le menaçant d’utiliser des armes récupérées en Ukraine pour frapper les intérêts occidentaux. Un faux message qui a soulevé des interrogations sur la toile. Le message dure 52 secondes. Son auteur a tenté de faire croire à une publication officielle du groupe ISWAP. Sur cette vidéo, on distingue cinq hommes en armes. Au premier plan, un combattant le visage enturbanné s’exprime en anglais. Il menace directement Donald Trump, et conseille aux Américains de « ne pas interférer dans le conflit interne au Nigéria ». La séquence est précédée d’une introduction où apparait un logo sur fond noir identique à celui que l’on retrouve sur certaines publications de l’État islamique. Ce montage est destiné à donner du crédit à cette infox. Pour analyser la vidéo, nous avons tout d’abord utilisé un outil de détection d’IA (Hive) afin de savoir si cette séquence a été générée artificiellement. Résultat : selon le logiciel, les images proviennent d’un véritable enregistrement vidéo, peut-être une mise en scène avec des acteurs, mais le son a été fabriqué de toutes pièces. Attention, on sait que les outils employés par la détection des images créées par IA ne sont pas fiables à 100 %. Nous avons donc recherché parallèlement des invraisemblances ou des aberrations graphiques pour nous permettre d’en savoir plus. Visuellement, deux éléments ont attiré notre attention. Plusieurs personnages ont le regard fixe, sans aucun battement de cils durant la totalité de la vidéo. Par ailleurs, le missile portable posé sur l’épaule de l'un des prétendus combattants de l’État islamique, situé à l’arrière-plan, est incomplet. Il manque le poste de tir, c’est-à-dire la poignée et le système de visé. Tel qu’il apparait à l’image, son utilisation est impossible. Pas de missiles Javelin ukrainiens au Nigeria Le tube de missile montré à l’écran, semble identique à ceux des FGM-148 Javelin livrés par les États-Unis à l’Ukraine. C’est un élément central dans cet infox. Pour ses auteurs, c’est une sorte de preuve par l’image de la dispersion de ces armes. Un narratif récurrent. Sauf qu’aucun de ces missiles anti-char trés modernes, n’a été retrouvé au Nigéria. Cependant, on estime que Washington a fourni plus de dix-mille engins de ce type à l’armée Ukrainienne. Sur la piste son, une voix synthétique, enfonce le clou, en anglais, en affirmant que « le groupe islamique ​​​​​a récupéré des missiles Javelin en Ukraine, et qu’ils vont être utilisés contre les infidèles ». En quelques jours, la vidéo a été vue plusieurs millions de fois rien que sur X. Les commentaires fusent. Un utilisateur s’interroge : « Encore combien de missiles perdus, dans la nature ? (...) C’est effrayant, la question est à présent de savoir comment ces missiles sont arrivé là (...) Il est largement temps de rendre des comptes », écrit un autre LÉtatt islamique n’a pas produit cette vidéo Les spécialistes des mouvements djihadistes que nous avons consulté, n’ont pas cru une seconde que cette vidéo provenait de l’État islamique. L’un d’entre eux note sur X : « L’utilisation de deux traductions simultanées en arabe et en anglais est contraire aux pratiques médiatiques de l’organisation terroriste. L’utilisation d’un bandeau blanc pour la traduction ne correspondant pas aux vidéos déjà vérifiées. Enfin, le logo de l'EI est absent dans le coin supérieur droit de l'image ». Un message qui reprend les codes de la désinformation russe À l’écran, la mise en scène est très proches de celle de trois précédentes vidéos, dont nous avions déja parlé ici : à savoir de prétendues menaces jihadistes contre la France en Juillet 2024 juste avant les JO, mais aussi janvier 2025, et septembre 2025. La fausse nouvelle apparue à partir du 30 janvier dernier, a d’abord circulé à bas bruit, avant d’être amplifiée par une poignée de comptes pro-Trump, complotistes ou d’extrême droite principalement sur X, le réseau d’Elon Musk. Selon plusieurs contributeurs, cette infox présente des caractéristiques communes avec l’opéraiton de désinformation russe baptisée STORM 15-16. Cette campagne comporte différents objectifs : décrédibiliser l’Ukraine dénigrer les politiques occidentales, tout en jouant sur les peurs du public autour de sujets comme le terrorisme ou l’immigration. Risque réel de dissémination des armes utilisées en Ukraine Si la vidéo est le fruit d’une mise en scène ou ...
    続きを読む 一部表示
    4 分
  • Cameroun: des cuves de fermentation de bière présentées comme des armes nucléaires
    2026/02/06

    Au Cameroun, une vidéo mensongère sème le doute sur Tik Tok. Ce clip prétend montrer, à tort, l’arrivée de plusieurs missiles nucléaires de fabrication russe dans le pays. En réalité, il s’agit de cuves de fermentation destinées à une usine de production de bière, à Bafoussam. Si ces images détournées prêtent à sourire, elles illustrent en réalité un mode opératoire récurrent sur les réseaux sociaux.

    La vidéo est assez impressionnante. Durant 37 secondes, on voit deux camions gros porteurs transporter deux énormes machines de forme cylindrique. Ce convoi exceptionnel circule sur une route bitumée, sous le regard surpris de quelques passants. La légende parle, à tort, de l’arrivée au Cameroun d’au moins deux « Satan », des missiles balistiques intercontinentaux de fabrication russe. Ces engins de 35 mètres de long sont capables de transporter des ogives nucléaires.

    Dans les faits, ces images n’ont rien à voir avec des missiles nucléaires. Plusieurs éléments permettent rapidement de douter de cette version. D’abord, ni les Russes ni les Camerounais n'ont communiqué sur une telle livraison. Ce convoi exceptionnel n’est d’ailleurs pas escorté par des véhicules militaires, ce qui est la norme quand on transporte du matériel aussi sensible. Enfin, un missile nucléaire ne serait certainement pas protégé par une simple bâche en plastique et quelques morceaux de bois, comme c’est le cas ici.

    Des cuves de fermentation inoffensives

    Pour savoir ce que montre réellement cette vidéo, nous nous sommes intéressés à cette inscription visible sur la partie avant de l’une de ces grosses machines. Il y est écrit SABC. Il s‘agit du nom de la Société Anonyme des Boissons du Cameroun.

    Nous avons contacté la société qui produit notamment de la bière et des spiritueux. « Les équipements visibles dans la vidéo sont des TOD (Tank Out Door) destinées à notre usine de Bafoussam. Il s’agit de deux cuves de fermentation utilisées dans le cadre normal de notre processus de production », précise l’entreprise qui nous a envoyé plusieurs photos de ces cuves sur le site de Bafoussam.

    Ces nouveaux tankers sont arrivés à destination le vendredi 30 janvier 2026. Ils permettent de faire de la bière mais certainement pas de fabriquer des missiles.

    Un mode opératoire en vogue

    Ce n’est pas la première fois qu’une machine industrielle est présentée, à tort, comme une arme de destruction massive. En novembre 2024, nous avions déjà épinglé une infox similaire à propos d’une prétendue « nouvelle bombe nucléaire russe en cours de fabrication ». En réalité, il s’agissait d’une gigantesque colonne de régénération qui sert au traitement des produits issus du raffinage.

    À chaque fois, on retrouve une énorme machine de forme cylindrique accompagnée d'une légende racoleuse à coups de bombe nucléaire ou de missiles supersoniques. À en croire les indicateurs de viralité, cette recette fonctionne. Cette fausse information au Cameroun approche par exemple les 2 millions de vues, rien que sur Tik Tok.

    Il faut dire que le cocktail images impressionnantes et narratif spectaculaire plaît aux algorithmes qui mettent en avant la vidéo, même si celle-ci est mensongère. En règle générale, il vaut mieux se méfier de ces comptes qui affirment repérer des armes nucléaires circulant dans la nature.

    続きを読む 一部表示
    3 分
  • Syrie: une vieille infox ciblant la Croix-Rouge refait surface
    2026/01/30

    En Syrie, les forces gouvernementales mènent depuis début janvier une vaste offensive dans le nord-est du pays. Le président Ahmed al-Charaa cherche à reprendre le contrôle des territoires dirigés par l’Administration autonome du nord et de l’est de la Syrie. Alors qu’un cessez-le-feu entre Damas et les Forces démocratiques syriennes, à majorité kurde, a été prolongé, la désinformation gagne du terrain. La dernière infox en date cible les Forces démocratiques syriennes et la Croix-Rouge.

    Tout repose sur une vidéo mensongère diffusée sur les réseaux sociaux en début de semaine. Durant quarante-neuf secondes, on y voit des dizaines de caisses métalliques, remplies d’argent liquide, entassées dans un hangar. Ces boîtes portent le logo du Comité international de la Croix-Rouge (CICR). Les commentaires affirment, à tort, que « les services de renseignement turc et syrien viendraient ainsi de saisir une importante cargaison d’argent liquide en provenance des Émirats arabes unis, à destination des Forces démocratiques syriennes ».

    En réalité, ces images n’ont rien à voir avec la situation en cours en Syrie. Grâce à une recherche par image inversée, on sait que cette vidéo est ancienne. Elle circule en ligne depuis maintenant plus de huit ans.

    Nous nous sommes également intéressés à ce texte en arabe visible sur l’une des caisses métalliques. Il y est écrit « Grande Jamahiriya arabe libyenne populaire et socialiste - Tripoli - 15 juillet 2011 ». Il s’agit du nom utilisé par l'État libyen sous le régime de Mouammar Kadhafi.

    Le CICR dément

    Cette vidéo est similaire à deux photos publiées dans un rapport de l’ONU en juin 2017. Il y est question de la transition politique en Libye, et de potentiels transferts d'argent dissimulés en Afrique de l’Ouest après la chute du dictateur. On y apprend que ces caisses étaient entreposées dans un hangar à Accra, au Ghana. Sur ces clichés, on retrouve le même sol, les mêmes caisses métalliques, et surtout la même inscription en arabe, que sur cette vidéo.

    Cette vidéo mensongère avait poussé le Comité international de la Croix-Rouge à réagir. Début 2018, le CICR déclarait, dans un communiqué, qu'il n’avait « absolument rien à voir avec le stockage ou le transport d'argent liquide mentionné dans cette vidéo ». L’organisme dénonçait une « utilisation abusive de son logo » et « une vidéo alimentant de fausses théories du complot ».

    Une infox à la mode

    Depuis son apparition en 2018, ce clip refait régulièrement surface dans différents contextes. De l’argent envoyé par l’Union européenne à des combattants ukrainiens, des millions de dollars détournés au Brésil, des billets envoyés par les Américains à Haïti pour encourager la corruption : les narratifs mensongers collés à cette vidéo se comptent par dizaines. Avec très peu d’éléments de contexte, ces images sont faciles à détourner, au gré de l’actualité.

    Une chose est sûre, elle ne documente pas un transfert d’argent des Émirats arabes unis, à destination des Forces démocratiques syriennes.

    続きを読む 一部表示
    3 分
  • Ukraine: une opération de désinformation pro-russe cible la France et ses «Rafale»
    2026/01/23

    Alors que les frappes russes sur les infrastructures énergétiques ukrainiennes se multiplient, les attaques informationnelles se poursuivent aussi sur les réseaux sociaux. Une énième opération de désinformation pro-russe ciblent actuellement l’Ukraine et la France. Cette fausse information, assez complexe, repose sur une affaire de corruption, inventée de toutes pièces.

    Tout commence avec l’apparition d’une vidéo assez étrange sur les réseaux sociaux le 18 janvier. Il y est question d’un supposé « scandale » autour du projet d’achat de chasseurs français Rafale par l’Ukraine. On y entend une voix robotique, avec un accent très prononcé, affirmer, à tort, que des hauts fonctionnaires et des militaires français et ukrainiens, auraient ainsi « détourné 2 milliards d’euros ».

    Le major général des armées français et des proches du président Volodymyr Zelensky sont notamment cités. L’infox cumule près de quatre millions de vues, rien que sur X (ex-Twitter).

    Typosquatting

    Cette opération de désinformation s’appuie sur une enquête prétendument publiée par le Bureau national anticorruption d'Ukraine (NABU). La vidéo renvoie directement vers une page internet qui se présente comme le site officiel de cet organisme ukrainien. On y retrouve leur logo, leur charte graphique ainsi que des liens vers leurs réseaux sociaux.

    Dans les faits, cette page internet n’est pas authentique. Si visuellement, tout porte à croire qu’il s’agit du site officiel, c’est en réalité un clone. Le nom de domaine n'est pas correct. L’adresse du vrai site internet commence par nabu.gov.ua. Or, cette copie utilise nabu-gov.com.

    Ce site miroir a été enregistré le 15 janvier 2026. Il s’agit donc d'une page jetable, dédiée uniquement à cette opération de désinformation.

    Ce mode opératoire s’appelle le typosquatting. Cette technique consiste à enregistrer des noms de domaine, presque identiques à ceux d’institutions ou de médias reconnus pour tromper et désinformer.

    Le Bureau national anticorruption d'Ukraine dément

    Vérification faite, cette prétendue enquête n’existe pas. Ces accusations sont introuvables sur le site officiel du Bureau national anticorruption d'Ukraine. L’organisme a d’ailleurs rapidement démenti cette fausse information, dénonçant une usurpation d’identité. Ce scandale de corruption a été totalement inventé afin de nuire à l’image de Kiev et de Paris, l’un de ses principaux alliés.

    À l’origine de cette infox, on retrouve un écosystème d’acteurs pro-russe participant régulièrement à ce type d’opération de désinformation. Ces comptes, aux centaines de milliers d’abonnés sur X ou Telegram, servent à viraliser et à blanchir des narratifs mensongers, en français et dans d’autres langues. Grâce à ce réseau, ces infox parviennent souvent à atteindre des millions de vues.

    Le mode opératoire informationnel Storm-1516

    Cette infox s’inscrit dans une vaste campagne de désinformation pro-russe baptisée Storm-1516. Ce n’est pas la première fois qu’on en parle dans cette chronique. Ce mode opératoire informationnel (MOI) prend différentes formes, des faux sites internet, au mise en scène en passant par les hypertrucages générés par intelligence artificielle.

    À lire aussiLa France ciblée par une nouvelle opération de désinformation russe

    Ces attaques informationnelles visent à dénigrer l’Ukraine, critiquer les politiques occidentales, mais aussi troubler le débat public en désinformant sur des sujets d’actualité.

    続きを読む 一部表示
    3 分
  • CAN 2025: les vidéos générées par intelligence artificielle occupent le terrain
    2026/01/16

    Quand l’intelligence artificielle s’empare de la Coupe d’Afrique des Nations. Alors que la finale opposera le Maroc et le Sénégal ce dimanche 18 janvier, à Rabat, la désinformation autour de cette CAN 2025 ne faiblit pas sur les réseaux sociaux. Des centaines de vidéos artificielles ciblent notamment l’arbitrage, et le Maroc, pays hôte de cette 25e édition.

    Depuis le lancement de cette CAN 2025, les accusations d’un arbitrage maison, en faveur des Lions de l’Atlas, sont alimentées par une vague de contenus mensongers sur les réseaux sociaux. Parmi les exemples les plus marquants, on retrouve une vidéo à propos du 8e de finale remporté 1-0 par le Maroc contre la Tanzanie. Durant dix secondes, on pense y voir, à tort, l'arbitre de la rencontre présenter ses excuses aux supporters tanzaniens.

    Vérification faite, cette vidéo n’est pas réelle. Ces images, vues plus de 5 millions de fois, ont été entièrement générées par intelligence artificielle. Plusieurs éléments le prouvent, comme cet homme qui ne ressemble pas du tout à Boubou Traoré, l’arbitre malien au sifflet de ce match. On note aussi l’absence de bleu sur les drapeaux tanzaniens, un texte illisible sur le logo de la Fifa, ou encore un public anormalement immobile.

    Les joueurs pris pour cible

    Ces infox générées par IA détournent également l’image des joueurs, à commencer par la sélection algérienne éliminée en quart de finale contre le Nigeria sur le score de deux à zéro. Une vidéo prétend montrer un Fennec critiquer violemment l’arbitrage et le Maroc en conférence de presse.

    Mais là encore, tout a été généré par intelligence artificielle. Le maillot algérien ne correspond pas à la tenue officielle. Le logo de la Confédération africaine de football n’est pas correct.

    Une économie du faux

    Ce type de vidéos artificielles se comptent par centaine sur les réseaux sociaux. En effet, nous avons identifié plusieurs comptes TikTok qui diffusent quotidiennement ce genre d’infox.

    Des interviews d’après-match qui dérapent, des arbitres en pleurs, des coachs giflant leurs joueurs dans les vestiaires : les mises en scène touchent toutes les sélections et tous les acteurs, sur ou en dehors du terrain. Au total, ces vidéos cumulent plus de 50 millions de vues, rien que sur TikTok.

    Si certaines prêtent à sourire, d’autres visent délibérément à désinformer et à attiser les tensions. Les commentaires montrent que certains supporters se font avoir.

    Comment détecter l’IA

    Pour détecter l’usage de l’intelligence artificielle, il faut être attentif aux détails visuels. Les logos, les inscriptions textuelles comportent régulièrement des défauts. Les visages des joueurs ne sont pas ressemblants. Le son aussi est souvent trop lisse, trop parfait. De plus, il ne faut pas oublier l’indicateur temporel. Toutes ces fausses vidéos durent de 5 à 15 secondes. C’est un élément qui peut trahir l’utilisation d’un outil d’intelligence artificielle.

    続きを読む 一部表示
    3 分
  • Groenland: la désinformation accompagne les propos de Donald Trump
    2026/01/09
    Début janvier, le président américain Donald Trump a de nouveau tenu des propos hostiles envers les autorités danoises qui, selon lui, ne sont pas capables de défendre le Groenland face aux appétits chinois et russes en Arctique. Dans le même temps, sur les réseaux sociaux, des propos outranciers et des images détournées circulent dans le but de décrédibiliser l’armée danoise chargée d’assurer la sécurité de ce territoire. Le président américain parle d’une « priorité de sécurité nationale pour les États-Unis » afin de justifier son intention de faire main basse sur le Groenland, ce territoire situé non loin du pôle Nord, entre l’Europe et les États-Unis. Selon Donald Trump, « le Danemark ne fait rien pour la sécurité du Groenland (...) Ils ont seulement ajouté un traineau à chiens », a-t-il affirmé le 4 janvier devant quelques journalistes présents à bord de l’avion présidentiel Air Force One. Visiblement, cette histoire amuse beaucoup le président américain et pourtant, c’est une affaire très sérieuse. Après vérification, ces traineaux appartiennent à une unité spéciale danoise, baptisée patrouille Sirius et rattachée au commandement danois pour l'Arctique. Depuis 2012, ce commandement interarmées assure des missions militaires, des missions de garde-côtes et des interventions en cas de catastrophe, le tout au sein d'une seule organisation. L'unité Sirius est capable de mener des missions de surveillance à longue distance dans ce territoire glacial. Jusqu’alors, la patrouille Sirius disposait de six équipages avec deux hommes et de 11 à 15 chiens. De l’avis des experts, il s'agit du moyen le plus fiable pour opérer en autonomie dans une région du monde où les conditions météo sont extrêmement dures pendant l’hiver. Préoccupations stratégiques Une fois de plus, Donald Trump exagère beaucoup quand il dit « que le Danemark ne fait rien pour la sécurité du Groenland ». Ainsi, la Première ministre danoise Mette Frederiksen a immédiatement dénoncé ces propos en rappelant que Copenhague avait alloué l’an dernier 1,2 milliard d’euros à la sécurité de la région et pas seulement en achetant des traineaux. Mais aussi en se dotant, dans les années à venir, de drones, de navires spécialisés, de radars et d’avions de patrouille maritime tout en passant commande également de 16 chasseurs supplémentaires : des F-35, fabriqués aux États-Unis. Nuire à l’image de l’armée danoise L'armée danoise a été visée par des infox, ou des propos déplacés provenant le plus souvent des sphères pro-russe ou MAGA (Make America Great Again), proches du président Donald Trump. Comme ce compte qui diffuse une vidéo où l’on voit un soldat chuter en tentant de descendre d’un véhicule de transport de troupe. Commentaire moqueur : « Quand l’armée danoise débarque pour stopper l’invasion américaine du Groenland ». Vérification faite, l’image a été détournée. Elle montre des soldats suisses et non des forces spéciales danoises. Cette vidéo sortie de son contexte a été vue plus de deux millions de fois rien que sur ce compte. D’autres vidéos cherchent à tourner au ridicule l’équipement de l’armée danoise, ou laissent supposer que les soldats danois ne seraient pas assez virils. À lire aussiPeut-on contrer les volontés expansionnistes de Donald Trump ? Donald Trump a la mémoire courte Beaucoup d’utilisateurs rappellent que l’armée danoise n’a pas failli à ses engagements, soulignant qu'elle a perdu 44 soldats dans la mission de l’Otan en Afghanistan, aux côtés des États-Unis, dans les années 2010. Durant cette crise politico-diplomatique, les responsables danois ont utilisé les réseaux sociaux (dont le réseau X d'Elon Musk) avec beaucoup d'agilité, afin d'essayer de faire valoir leur point de vue. Sur son compte X, l’ambassadeur du Danemark à Washington conclut : « Le Danemark prend la sécurité dans l’Arctique très au sérieux (...) les États-Unis ont la possibilité d’établir des bases militaires supplémentaires au Groenland en vertu d’un traité datant de 1951. »
    続きを読む 一部表示
    4 分
  • Non, cette vidéo ne montre pas une résidence de Vladimir Poutine attaquée par des drones ukrainiens
    2026/01/02

    En pleine négociation avec les États-Unis, la Russie accuse l’Ukraine d’avoir attaqué une résidence appartenant à Vladimir Poutine. Sans preuves tangibles, l’armée russe évoque un raid de 91 drones. Kiev et ses alliés dénoncent des mensonges destinés à saper les pourparlers diplomatiques en cours. Dans ce contexte, une vidéo générée par intelligence artificielle sème le doute sur les réseaux sociaux.

    La vidéo a dépassé les 10 millions de vues en seulement vingt-quatre heures. Durant quinze secondes, on y voit deux drones tirer un projectile sur une résidence luxueuse, située en pleine forêt. La toiture prend feu, pendant qu’un véhicule stationné sur le parvis essaye de prendre la fuite. Des éléments visuels comme l’heure, la date ou la mention « REC », poussent à croire, à tort, que ces images auraient été filmées par une caméra de surveillance.

    Les comptes qui diffusent ce clip parlent d’une « preuve » qui viendrait confirmer le narratif diffusé par le Kremlin. Mais vérification faite, ces images ne sont pas réelles. Cette vidéo a été entièrement générée par intelligence artificielle. Plusieurs incohérences visuelles le prouvent, à l’image de cette voiture qui roule à travers une fontaine et ne fait aucune trace sur la neige.

    On remarque, de plus, une explosion qui ne provoque aucun dégât, ou encore les secondes de l’horloge qui ne défilent pas dans le bon ordre.

    Désinformer pour combler le vide

    D’autres éléments prouvent l’utilisation d’un outil d’intelligence artificielle. Il y a la bande son, anormalement trop parfaite. On se croirait dans un film d’action alors que les micros des caméras de surveillance sont souvent de mauvaise qualité voire inexistants. Enfin, il ne faut pas oublier l’indicateur temporel. Cette vidéo dure précisément quinze secondes. C’est la durée standard permis par certains outils d’IA comme Sora 2 de la start-up américaine Open AI.

    À lire aussiSora 2: le générateur de vidéos par IA qui a tout pour devenir une usine à infox

    Derrière cette infox, on retrouve différents comptes influents, habitués à diffuser de la désinformation. Certains sont déjà identifiés comme des vecteurs importants de la propagande du Kremlin.

    L’auteur de cette infox a profité de la rareté des images liées à cette attaque présumée d’une résidence de Vladimir Poutine, pour viraliser son infox. Une stratégie payante, puisque cette vidéo artificielle cumule plus de 11 millions de vues. Mais contrairement à ce que certains affirment, le Kremlin n’a pas diffusé ce clip sur ses canaux de communication officiels.

    Aucune preuve tangible

    À ce stade, Moscou n’a apporté aucune preuve tangible. La vidéo d’un débris de drone diffusé par les autorités russes ne permet en aucun cas de confirmer l’existence de cette supposée attaque. Ces images ont été filmées en gros plan, de nuit, en plein milieu d’une forêt, rendant tout travail de vérification et de géolocalisation impossible. Les experts pointent l’absence d’images amateurs alors que la Russie affirme que 91 drones auraient survolé la région concernée. À ce stade, aucune preuve factuelle ne vient corroborer la version du Kremlin, démentie par Kiev et ses alliés.

    À lire aussiGuerre en Ukraine: quand la propagande pro-russe recourt aux vidéos artificielles

    続きを読む 一部表示
    3 分
  • «Slop»: quand l’intelligence artificielle inonde les réseaux de contenus faux et absurdes
    2025/12/26

    En guise de mot de l’année 2025, le dictionnaire américain Merriam-Webster a choisi « slop ». Cette expression définit les contenus numériques de mauvaise qualité produits en masse par l’intelligence artificielle. Cette bouillie de photos absurdes, de sons loufoques, ou de vidéos plus ou moins réalistes, inondent les réseaux sociaux. Ces contenus « slop » polluent de plus en plus l’espace numérique, à tel point que le phénomène inquiète.

    Un chat avec la tête du président américain Donald Trump, une baleine qui mange un ours polaire, des bébés qui parlent comme des adultes. Si vous êtes un utilisateur de TikTok, Facebook, X ou Instagram, vous avez forcément déjà été confronté à du « slop ». Ces contenus, plus ou moins réalistes, sont très populaires sur les réseaux sociaux. Certains cumulent des dizaines voire des centaines de millions de vues.

    Grâce à leur caractère surréaliste, choquant ou humoristique, ces productions jouent sur nos émotions et attirent l’attention des utilisateurs. Les algorithmes l’ont bien compris, et amplifient donc artificiellement ce type de contenu. Cela aboutit à une saturation de l’espace informationnel sur les réseaux sociaux. Si certaines plateformes proposent des filtres pour échapper au « slop », la plupart surfent sur le phénomène.

    L’économie du « slop »

    Derrière ces contenus « slop », on retrouve différents acteurs qui ont saisi l’opportunité pour gagner de la visibilité et monétiser leur audience. Les derniers outils d’IA leur facilitent la tâche puisqu'il n’a jamais été aussi simple de créer ce type de contenus.

    Une véritable économie s’est donc mise en place autour de ce phénomène. Une vidéo vue près de 20 millions de fois peut vous rapporter, selon la plateforme, plus de 1 000 dollars. En Asie, plusieurs « fermes à slop » ont ainsi vu le jour ces dernières années.

    Quand le faux prend le dessus

    Si ça ne fait pas de mal de rigoler devant une vidéo loufoque, certains contenus artificiels posent problème, car ils prennent le dessus sur la réalité. Dans leur guerre au clic, certains producteurs de « slop » adaptent leur contenu à l'actualité et tombent dans la désinformation.

    C’est particulièrement le cas lors de catastrophes naturelles. Récemment, lors des inondations mortelles au Maroc, des dizaines de vidéos artificielles censées documenter la catastrophe ont circulé sur les réseaux sociaux. Pour le buzz, certains n’hésitent pas à générer des faux témoignages de victimes. Ces infox invisibilisent les vraies images, masquent les messages d’alerte des secours et bouleversent notre rapport à la réalité.

    Vers une auto-intoxication des IA ?

    Ces contenus artificiels omniprésents sur les réseaux sociaux pourraient-ils intoxiquer les intelligences artificielles qui les produisent ? C’est le risque pointé par plusieurs experts du numérique. Puisque les intelligences artificielles IA se nourrissent de ce qui circule en ligne, elles pourraient bel et bien finir par s'auto-intoxiquer.

    À cela s’ajoute aussi la prolifération des faux comptes se faisant passer pour des humains. Reste à savoir si les publics vont finir par se lasser de cette nouvelle esthétique, plus que jamais à la mode sur les réseaux sociaux.

    続きを読む 一部表示
    3 分