『Les dessous de l'infox』のカバーアート

Les dessous de l'infox

Les dessous de l'infox

著者: RFI
無料で聴く

今ならプレミアムプランが3カ月 月額99円

2026年5月12日まで。4か月目以降は月額1,500円で自動更新します。

概要

Repérer le faux dans l’info, ça n’est pas toujours facile. Sur Radio France internationale, on vous aide à y voir plus clair. En compagnie de tous ceux qui traquent l’infox, l’observent et l’analysent, au plus près, « Les dessous de l'infox », le magazine est diffusé tous les vendredis. Une émission présentée par Sophie Malibeaux. Diffusions le vendredi à 17h30 TU (vers toutes cibles).

France Médias Monde
政治・政府
エピソード
  • Intelligence artificielle et idéologie, quand les grands patrons de la tech font le lit de l'illibéralisme
    2026/05/01
    Algorithmes, intelligence artificielle agentique, modèle d’apprentissage... La recherche se penche sur le rôle des patrons de la tech, derrière ces innovations technologiques. Des concepteurs animés d’un désir de toute-puissance, aux valeurs fondamentalement contraires au projet démocratique ? La conjonction entre un courant illibéral en pleine croissance et l’accélération technologique interroge. Émanant de la Silicon Valley, les thèses illibérales se propagent jusqu'en Europe. Lauréate de Choose France for Science, qui vise à faire de la France une destination de référence pour la recherche et l'innovation, Marlène Laruelle vient d'inaugurer à l'Inalco à Paris le programme des « Illiberalism studies », qu'elle conduisait jusque-là aux États-Unis, à l'Université George-Washington. L’essor accéléré de l’intelligence artificielle (IA) et de sa mise à disposition du grand public pousse à s'interroger sur son rôle dans la montée des courants illibéraux, ces idéologies qui remettent en cause les fondements des démocraties libérales. L'illibéralisme de la Silicon Valley Marlène Laruelle, historienne et politologue, souligne que les géants de la tech, notamment ceux de la Silicon Valley tels Peter Thiel ou Elon Musk, ont en partage des valeurs illibérales favorisant un pouvoir exécutif fort, à l'encontre des principes d'équilibre des pouvoirs entre le judiciaire, le législatif et l'exécutif. On trouve aussi dans cette famille idéologique un rejet des minorités, une tendance à l'homogénéisation culturelle, teintée de racisme et de xénophobie, et une opposition radicale au progressisme sur les questions de mœurs, de sexualité et de genre. Sur les très grandes plateformes numériques, émanant de ce milieu très particulier qu'est la Silicon Valley, le public se trouve soumis à des algorithmes de recommandation totalement opaques, qui en viennent à amplifier la polarisation de nos sociétés, et qui alimentent la désinformation et l’érosion de la frontière entre réel et fiction. C'est un constat, l’IA semble accélérer la fragmentation du vivre ensemble, tout en servant des intérêts lucratifs plutôt que l’intérêt général. « Toutes les grandes sociétés d’intelligence artificielle sont des sociétés privées. Ce qui pose la question de la transparence et de la responsabilité démocratique de grandes sociétés privées qui travaillent pour le profit et non pour le bien public. » La soi-disant neutralité technologique Contrairement à ce que prétendent les idéologues de la Silicon Valley – tel un Elon Musk qui revendique avec sa société xAI être en mesure de servir la vérité vraie sur un plateau à travers son chatbot Grok – la neutralité de ces outils est loin d'être un fait établi. De nombreux projets de recherche se penchent sur la question en France et en Europe, indique Marlène Laruelle. Il s'agit de tenter de déconstruire l'idée que le modèle d'intelligence artificielle serait neutre parce qu'il est technologique et algorithmique. Au contraire, ces chercheurs tendent à démontrer que la simple création de l'algorithme est biaisée. L'algorithme est entraîné par toutes les bases de données qu'il a pu lire, qui sont pleines de préjugés, explique Marlène Laruelle. Il y a aussi toutes les petites mains qui doivent entraîner la machine, avec leurs propres biais humains, et ensuite, certains projets qui apparaissent eux nettement politiques. Celui d'Elon Musk par exemple, dont l'objectif avoué est un modèle d'intelligence artificielle qui serait idéologiquement détaché de ce qu'il appelle la gauche woke. L'idée que les algorithmes sont neutres est un mensonge technique, puisqu'on sait très bien qu'il y a tout plein de biais qui sont reproduits dans les algorithmes. Cet entretien est le sixième épisode de notre série « L'Europe face aux menaces informationnelles », diffusée dans le cadre du projet CLIC, cofinancé par l'Union européenne, en partenariat avec France 24, l'AFP, et le média d'investigation slovène Oštro. Nos chroniques de fact-checking Ces nouvelles technologies qui permettent l’accélération de la circulation de l’information favorisent aussi la viralité des contenus mensongers, et l’on s’attache dans cette émission à dévoiler la mécanique de la désinformation. Comme souvent en cas de tensions, les infox pullulent sur les réseaux sociaux. C'est le cas au Sahel. Depuis les attaques menées par le Jnim et le FLA au Mali, de nombreuses infox viennent alimenter les peurs et brouiller la compréhension des faits. La chronique de Grégory Genevrier : Mali: l’armée malienne et l’Algérie voisine au cœur des rumeurs Quant au conflit entre Israël et le Hezbollah au Liban, il nourrit la désinformation jusqu'en Côte d'Ivoire : La chronique de Kahofi Suy d'AFP factuel : Cette vidéo ne montre pas des Libanais agressant un ...
    続きを読む 一部表示
    30 分
  • Guerre d'influence: le verrouillage de l'espace informationnel, enjeu vital pour la Russie de Poutine
    2026/04/24

    Connexions perturbées, blocage des messageries WhatsApp et Telegram continuent d'isoler la Russie du reste d'internet. En dépit du bruit fait par les influenceurs, financièrement affectés par ces coupures, et malgré l'impact de ces mesures sur le front ukrainien, le Kremlin parachève le verrouillage interne. Tout en poursuivant -à l'extérieur- une stratégie offensive de diffusion des narratifs pro-russes.

    Notre invité est le spécialiste du cyberespace russophone Kévin Limonier. Professeur des universités en géographie à l’Institut Français de Géopolitique, il est aussi directeur adjoint du laboratoire GEODE pour Géopolitique de la data sphère, partenaire de cette émission.

    Une vidéo devenue virale montre Victoria Bonya, une influenceuse russe suivie par des millions d'abonnés sur les plus grandes plateformes, s’adressant directement à Vladimir Poutine pour dénoncer la peur qui paralyse la société russe. Son message, envoyé depuis Monaco où elle réside, résonne avec de nombreuses autres publications ces dernières semaines, d'internautes résidant en Russie et déplorant l'état désastreux de l'économie russe et les effets néfastes des coupures d'internet, suppression de l'accès aux messageries privées WhatsApp et Telegram.

    Une tendance irréversible, malgré la colère

    « Aujourd’hui, les personnes qui décident de la politique de blocage des applications sont des officiers du FSB pour qui le contrôle de l’information est une nécessité, pour assurer la survie du régime. »

    En fait, depuis une quinzaine d'années, nous explique Kévin Limonier, la Russie construit un système de contrôle en ligne, aujourd’hui piloté par le FSB, héritier du KGB, pour étouffer toute velléité de contestation. Les blocages de Telegram, WhatsApp ou les restrictions sur les VPN ne sont que la partie émergée d’une machine bien huilée, où le contrôle de l’information prime même sur les intérêts économiques ou militaires – comme l’a montré l’impact tactique désastreux de ces blocages pour les soldats russes sur le front ukrainien.

    Laboratoire d’oppression numérique

    « Dans les territoires occupés par la Russie en Ukraine, les Russes testent des systèmes de censure et de surveillance qui sont ensuite déployés dans toute la Fédération. C’est un laboratoire d’oppression numérique. »

    Et si le Kremlin coupait ainsi les ailes de sa propagande à l’étranger ?

    La question se pose alors que Telegram, sorte d'incubateur des campagnes de désinformation ciblant l'Europe notamment, est désormais dans le collimateur du Kremlin. Il est cependant possible d'imaginer un système de passe-droits au profit d'officines et agences de marketing digital, épargnant la diffusion des contenus propagandistes ou mensongers à destination de l'étranger. Mais il est encore trop tôt pour le dire.

    続きを読む 一部表示
    30 分
  • Tiktok et META en tête du palmarès de la désinformation en ligne en Europe
    2026/04/17

    Les très grandes plateformes numériques que nous sommes des milliards à fréquenter -les Tiktok, Facebook, Instagram, Youtube, Linkedin et X (twitter)- sont en train de laisser infox et mésinformation inonder la toile. Ces plateformes sont soumises au règlement européen sur les services numériques. Mais dans les faits, elles ont du mal à s’y plier, et ce que l’on constate, c’est que l’information du public en souffre. D'où l'importance d'un état des lieux chiffré et documenté.

    La propagation de la désinformation s’aggrave sur les très grandes plateformes en ligne, sous le double effet du recours aux images générées par l’IA -en pleine croissance- et de la monétisation des contenus suscitant un fort engagement.

    Tiktok est en tête, avec une prévalence de l'ordre de 25% de contenus trompeurs tous sujets confondus, mais Facebook, X, Youtube et Instagram sont aussi très mal notés, avec une mention spéciale pour Instagram dont 80% des contenus dans le domaine de la santé tombent dans la catégorie mésinformation-désinformation.

    Contourner l'opacité des plateformes numériques

    Parvenir à mesurer –scientifiquement– cette amplification des publications douteuses reste un défi, face au fonctionnement opaque des services numériques. Ce défi, un groupe d’organisations de la société civile tente de le relever, c’est le projet de recherche SIMODS, d’évaluation scientifique de la désinformation en ligne sur les très grandes plateformes, c'est-à-dire, celles qui comptent plus de 45 millions d'utilisateurs dans l'Union européenne. L'étude porte sur quatre pays d'Europe, la France, l'Espagne, la Pologne et la Slovaquie.

    Notre invité Emmanuel Vincent est le directeur et fondateur de Science Feedback, qui conduit cette étude.

    Non seulement les plateformes sont peu respectueuses des injonctions concernant l'accès aux données pour la recherche, mais -à part Youtube et Facebook- elles ne communiquent aucune information concernant la monétisation des contenus.

    « Sur Youtube, 80% des comptes qui partagent de la désinformation sont monétisés. Pour les sources crédibles, c'est 90% de comptes monétisés. On le voit c'est à peu près la même chose. Pour Facebook, on est en dessous de 50% de comptes qui partagent de la désinformation qui sont monétisés. On voit quand même que la désinformation, ça rapporte. ». Quant aux autres plateformes, pas moyen de savoir.

    La transparence est un enjeu de sécurité publique. C'est l'une des recommandations finales du rapport, à l'adresse du régulateur européen et de ces entreprises de services numériques elles-mêmes. Le minimum serait de fournir ce type d'information sur leur fonctionnement interne.

    Cette série d'émissions sur « L'Europe face aux menaces informationnelles », entre dans le cadre du projet CLIC, cofinancé par l'Union européenne, en partenariat avec France 24, l'AFP, et le média d'investigation slovène Oštro.

    続きを読む 一部表示
    30 分
まだレビューはありません