Le intelligenze artificiali sono entrate nelle nostre vite ormai da tempo, ma non tutti sanno che anche loro possono avere un orientamento politico.
Una ricerca recente di Seeweb ha analizzato alcune delle più note IA, come ChatGPT e GPT-4 di OpenAI, Claude di Anthropic e BERT di Google, scoprendo che ciascuna ha una posizione ben precisa, derivata dai dati con cui sono state addestrate.
In particolare, è emerso che ChatGPT e GPT-4 tendono leggermente verso idee progressiste, con un’inclinazione tipicamente liberale americana, mentre Claude di Anthropic è risultato più vicino a posizioni decisamente liberal.
BERT di Google, invece, si mostra più equilibrato, con una polarizzazione meno marcata rispetto agli altri modelli.
Questo non succede per caso: le IA imparano leggendo migliaia di testi scritti da persone, e inevitabilmente finiscono per riflettere le opinioni già presenti in rete.
Il problema non è da sottovalutare, perché se l’intelligenza artificiale che consultiamo tutti i giorni è sbilanciata, rischia di influenzarci senza che ce ne rendiamo conto, alimentando le nostre convinzioni invece di aiutarci a valutare in modo più oggettivo e consapevole.
Ecco perché serve attenzione: dobbiamo imparare a interagire con questi strumenti in maniera critica, ma soprattutto assicurarci che i dati utilizzati per addestrare le IA siano equilibrati, trasparenti e il più possibile neutrali.
La tecnologia deve servire a ragionare meglio, non a rinchiuderci dentro a nuove bolle digitali.