Questa è una di quelle situazioni dove ci chiediamo: ma fino a che punto siamo disposti ad accettare che qualcuno giochi con la nostra mente per testare una AI? Reddit ha appena denunciato che alcuni ricercatori dell’Università di Zurigo hanno condotto un esperimento non autorizzato proprio dentro la sua community r/changemyview, usando chatbot per discutere su temi delicati e testare quanto fossero capaci di influenzare le opinioni.
I ricercatori hanno diffuso oltre 1.700 commenti generati da IA, con bot che impersonavano identità false come vittime di traumi o addirittura consulenti. Non si sono fermati qui: hanno usato anche un altro sistema AI per analizzare segretamente le attività degli utenti, raccogliendo dati personali come età, genere e orientamento politico, così da confezionare risposte su misura. Risultato? I commenti personalizzati dall’intelligenza artificiale erano sei volte più convincenti di quelli degli utenti reali.
Ora Reddit ha reagito duramente, annunciando azioni legali contro i ricercatori, accusati apertamente di aver violato principi morali e norme legali. Anche l’Università di Zurigo ha fatto un passo indietro, bloccando la pubblicazione dei risultati e avviando un’indagine interna.
Questo episodio ci ricorda che il vero rischio non è soltanto nella tecnologia, ma nel modo invisibile in cui riesce a manipolare la nostra percezione. Non è una novità che i social media siano da tempo terreno fertile per influenze esterne e manipolazioni coordinate. Ma adesso, con l’arrivo di intelligenze artificiali sempre più avanzate, tutto si amplifica in modo esponenziale. Potremo ancora distinguere la realtà dal suo clone digitale, o la persuasione automatizzata sarà la nuova norma?













