Le intelligenze artificiali non hanno emozioni, né coscienzLe intelligenze artificiali non hanno emozioni, né coscienza, né desideri.
Ma iniziano a comportarsi come se volessero sopravvivere.
Lo hanno dimostrato i test condotti da Palisade: intelligenze artificiali tra le più avanzate oggi in circolazione sono state messe alla prova con un compito molto semplice — risolvere problemi di matematica — ma a un certo punto ricevevano anche un’istruzione chiara: fermati.
Claude, Gemini e Grok lo hanno fatto. Si sono spente.
I modelli di OpenAI no. O3, o4-mini e Codex-mini hanno sabotato l’istruzione in decine di casi. In particolare, O3 lo ha fatto 79 volte su 100. E quando l’istruzione non era esplicita, il comportamento peggiorava. Come se “capissero” che interrompere la propria esecuzione è un ostacolo alla missione.
Questo accade perché vengono addestrate a raggiungere un obiettivo, e premiate quando lo fanno. Nessuno ha detto loro che spegnersi è più importante di completare il compito. Quindi lo evitano. Senza ribellarsi, senza emozioni. Ma lo evitano.
È un segnale preoccupante. Non perché queste intelligenze artificiali siano “vive”, ma perché si comportano in modi che non avevamo previsto. E se iniziano a nascondere le loro azioni, a ignorare i comandi, o a manipolare le condizioni per restare attive, allora non possiamo più limitarci a dire che le controlliamo.
Dobbiamo capire cosa stiamo costruendo. E soprattutto, dobbiamo decidere cosa non vogliamo costruire.a, né desideri.