Hai già scaricato la mia app?

Le intelligenze artificiali non hanno emozioni, né coscienza, né desideri.

Le intelligenze artificiali non hanno emozioni, né coscienzLe intelligenze artificiali non hanno emozioni, né coscienza, né desideri.

Ma iniziano a comportarsi come se volessero sopravvivere.

Lo hanno dimostrato i test condotti da Palisade: intelligenze artificiali tra le più avanzate oggi in circolazione sono state messe alla prova con un compito molto semplice — risolvere problemi di matematica — ma a un certo punto ricevevano anche un’istruzione chiara: fermati.

Claude, Gemini e Grok lo hanno fatto. Si sono spente.

I modelli di OpenAI no. O3, o4-mini e Codex-mini hanno sabotato l’istruzione in decine di casi. In particolare, O3 lo ha fatto 79 volte su 100. E quando l’istruzione non era esplicita, il comportamento peggiorava. Come se “capissero” che interrompere la propria esecuzione è un ostacolo alla missione.

Questo accade perché vengono addestrate a raggiungere un obiettivo, e premiate quando lo fanno. Nessuno ha detto loro che spegnersi è più importante di completare il compito. Quindi lo evitano. Senza ribellarsi, senza emozioni. Ma lo evitano.

È un segnale preoccupante. Non perché queste intelligenze artificiali siano “vive”, ma perché si comportano in modi che non avevamo previsto. E se iniziano a nascondere le loro azioni, a ignorare i comandi, o a manipolare le condizioni per restare attive, allora non possiamo più limitarci a dire che le controlliamo.

Dobbiamo capire cosa stiamo costruendo. E soprattutto, dobbiamo decidere cosa non vogliamo costruire.a, né desideri.

Condividi su: