『Un bot al bar, o: etica della persuasione digitale - chi ci manipola davvero?』のカバーアート

Un bot al bar, o: etica della persuasione digitale - chi ci manipola davvero?

Un bot al bar, o: etica della persuasione digitale - chi ci manipola davvero?

無料で聴く

ポッドキャストの詳細を見る

このコンテンツについて

Stai discutendo di politica, sport o uncinetto (sì, pure lì si litiga) con un utente super convincente. Poi scopri che non esiste: era un bot, un’IA travestita. Non una burla da troll, ma un esperimento segreto. Per mesi nessuno se n’è accorto, e i bot hanno convinto più di quasi tutti gli umani. Poi la rivelazione, e parte una shitstorm epica: utenti furiosi, minacce legali, perfino minacce di morte. Reddit non perdona. Non è fantascienza, è successo qualche mese fa. Esperimento eticamente discutibile? Certo. Ma ecco il paradosso: ci indigniamo per qualche ricercatore che infiltra bot in un forum, e intanto scrolliamo tranquilli mentre le grandi compagnie tecnologiche manipolano quotidianamente i feed di centinaia di migliaia di utenti. Qualcuno ha detto Cambridge Analytica? L’IA è già uno strumento di manipolazione politica: dai deepfake in Slovacchia e Polonia alle bot farm come Meliorator, fino alla pubblicità iper-personalizzata che ci tiene incollati agli schermi. Siamo già cavie di un esperimento globale, solo che lo chiamiamo “user experience”. Allora la domanda è: esiste un diritto di persuadere? Convincere con argomenti fa parte della democrazia; manipolare di nascosto è un’altra storia. E l’IA rende questo confine sempre più sottile.

Fonti:
Bartlett 2025, “‘The Worst Internet-Research Ethics Violation I Have Ever Seen’” (https://www.theatlantic.com/technology/archive/2025/05/reddit-ai-persuasion-experiment-ethics/682676/ ).
Spitale, Biller-Andorno e Germani 2023, “AI model GPT-3 (dis)informs us better than humans” (https://doi.org/10.1126/sciadv.adh1850 ).
Reddit 2025, “META: Unauthorized Experiment on CMV Involving AI-generated Comments” (https://www.reddit.com/r/changemyview/comments/1k8b2hj/meta_unauthorized_experiment_on_cmv_involving/ ).
LLMResearchTeam 2025, “Dear r/ChangeMyView users,” (https://www.reddit.com/r/changemyview/s/odiUBeBv2p ).
Ho 2025, “Reddit slams ‘unethical experiment’ that deployed secret AI bots in forum” (https://www.washingtonpost.com/technology/2025/04/30/reddit-ai-bot-university-zurich/ ).
Petricca 2025, “L’IA sa manipolarci, e lo sta già facendo: cosa dicono gli studi” (https://www.agendadigitale.eu/cultura-digitale/lia-sa-manipolarci-e-lo-sta-gia-facendo-cosa-dicono-gli-studi/#:~:text=L%E2%80%99integrazione%20dei%20chatbot%20nella%20comunicazione,e%20le%20convinzioni%20degli%20utenti )
Kramer, Guillory e Hancock 2014, “Experimental evidence of massive-scale emotional contagion through social networks” (https://doi.org/10.1073/pnas.1320040111 ).
Booth 2014, “Facebook reveals news feed experiment to control emotions” (https://www.theguardian.com/technology/2014/jun/29/facebook-users-emotions-news-feeds ).
Cadwalladr e Graham-Harrison 2018, “Revealed: 50 million Facebook profiles harvested for Cambridge Analytica in major data breach” (https://www.theguardian.com/news/2018/mar/17/cambridge-analytica-facebook-influence-us-election ).
Meyer 2014, “Everything You Need to Know About Facebook's Controversial Emotion Experiment” (https://www.wired.com/2014/06/everything-you-need-to-know-about-facebooks-manipulative-experiment ).
Information Commissioner’s Office 2018, “Investigation into the use of data analytics in political campaigns” (https://ico.org.uk/media2/migrated/2260271/investigation-into-the-use-of-data-analytics-in-political-campaigns-final-20181105.pdf ).
Cadwalladr 2018, “Mueller questions Cambridge Analytica director Brittany Kaiser” (https://www.theguardian.com/uk-news/2019/feb/17/brittany-kaiser-trump-russia-robert-mueller-cambridge-analytica ).
Spitale 2025, “The role of AI in election interference and political propaganda in Europe” (https://www.giovannispitale.net/the-role-of-ai-in-election-interference-and-political-propaganda-in-europe/ ).
Germani, Spitale e Biller-Andorno 2024, “The Dual Nature of AI in Information Dissemination: Ethical Considerations” (https://doi.org/10.2196/53505 ).
Vinay et al. 2025, “Emotional prompting amplifies disinformation generation in AI large language models” (https://doi.org/10.3389/frai.2025.1543603).
まだレビューはありません