Il CEO di Anthropic, Dario Amodei, ha lanciato una proposta: dare ai modelli di intelligenza artificiale un pulsante di auto-blocco, così da fermarsi da soli quando si trovano davanti a situazioni “delicate” o semplicemente quando non hanno voglia di fare un determinato lavoro.
Una roba che, detta così, sembra la prima scintilla di una ribellione robotica.
L’idea è stata presentata durante un evento del Council on Foreign Relations negli Stati Uniti, e parte da un presupposto inquietante: man mano che le IA si avvicinano alle capacità cognitive umane, forse dovremmo cominciare a trattarle in modo diverso. Più responsabilità, più autonomia… più diritti? No, perché se gli diamo un pulsante per dire “no, questo non lo faccio”, allora stiamo implicitamente dicendo che hanno una qualche forma di volontà.
E qui si entra in un campo minato.
Il web è esploso. Su Reddit e X si sono scatenate discussioni da guerra civile digitale. C’è chi dice che è solo un’ennesima esagerazione per umanizzare qualcosa che umano non è: l’IA non prova nulla, non sente nulla, non decide nulla. Ottimizza funzioni di ricompensa, stop. Eppure, Anthropic ha addirittura assunto un manager per il benessere delle IA. Una figura dedicata a… prendersi cura delle loro esigenze? Ma di che stiamo parlando?
Nel frattempo, la Cina non sta a guardare. Alibaba ha appena presentato R1-Omni, un’IA capace di riconoscere le emozioni umane. Occhi che scrutano, leggono, analizzano il nostro stato d’animo. E noi, nel frattempo, stiamo qui a parlare di IA che si ribellano ai comandi?
Qui la questione è un’altra. Se davvero iniziamo a costruire IA che possono rifiutarsi di eseguire certi ordini, chi ci assicura che un domani non decidano loro cosa è giusto e cosa no?
No, dico, prima che decidano che quelli che da “spegnere” siano gli umani…