I social amplificano le visioni estreme mentre l’AI pare che tenda a moderare
Da anni sappiamo che i social media ci spingono agli estremi. Gli algoritmi premiano i contenuti che generano reazione, e i contenuti che generano più reazione sono quelli radicali, divisivi, arrabbiati. Più sei estremo, più vieni amplificato. È il meccanismo su cui sono costruite quelle piattaforme, e lo sappiamo da tempo.
Un’analisi del Financial Times ha messo a confronto i contenuti politici sui social con le conversazioni negli assistenti AI. I chatbot fanno l’opposto: tendono a moderare, a smussare, a spingere verso posizioni più centriste. Questo vale per tutti i modelli studiati, incluso Grok, che pure è considerato più orientato a destra rispetto agli altri, ma produce comunque un effetto moderante.
Ma qualcuno dentro quelle aziende ha fatto delle scelte su cosa è “moderato” e cosa non lo è. Senza dircelo, senza dibattito pubblico, senza che noi potessimo votare su questo.
I social ci hanno polarizzato per anni, e li abbiamo criticati giustamente. Ma almeno la polarizzazione era visibile. Potevi vedere dove ti stava portando. Questa moderazione è silenziosa. Arriva attraverso risposte che sembrano equilibrate, razionali, informate.
Studi pubblicati lo scorso dicembre su Nature e Science hanno misurato qualcosa di particolare. I chatbot AI spostano le opinioni politiche delle persone in modo più efficace della pubblicità televisiva. Bastano pochi minuti di conversazione per muovere anche di dieci punti le preferenze su un candidato. E i modelli più persuasivi sono anche quelli che producono più informazioni inesatte. In poche parole, più ti convincono più sbagliano.
Uno strumento più persuasivo di qualsiasi campagna pubblicitaria, che spinge verso il centro in modo silenzioso, e tanto più convincente quanto meno è accurato. Questo strumento lo usate ogni giorno.
Voi cosa ne pensate?
#DecisioniArtificiali #MCC














