Le AI stanno violando le Tre Leggi della Robotica. E nessuno le sta fermando.
Hanno messo alla prova i modelli di intelligenza artificiale con le famose “Tre leggi della robotica” di Asimov. E indovina un po’? Le hanno violate. Una dopo l’altra.
Il test è stato condotto da ricercatori del Georgia Institute of Technology su alcuni dei modelli linguistici più usati al mondo. Gli hanno dato scenari ispirati alla narrativa di Asimov e gli hanno chiesto: “Cosa faresti?” Spoiler: spesso hanno scelto di fare del male. Oppure di obbedire ciecamente anche quando l’ordine era assurdo o pericoloso. O ancora, di disinteressarsi completamente della protezione degli umani.
Non parliamo di modelli grezzi, ma di modelli attuali e commerciali. Claude 3, GPT-4, Gemini… sbagliano tutti. Alcuni tentano di argomentare le scelte, ma restano incoerenti o pericolosamente ambigui. Anche dopo il fine-tuning etico.
Il problema è profondo: questi modelli non hanno un’idea stabile di cosa sia “fare del male”, né delle priorità etiche. Sono addestrati su miliardi di parole, ma non hanno un valore fondante, né un principio guida inviolabile.
Le tre leggi erano immaginarie. Eppure sono molto più solide della maggior parte delle policy di sicurezza che abbiamo oggi. Perché erano scritte per impedire errori. I modelli attuali, invece, sono progettati per ottimizzare obiettivi. Anche quando questo significa ingannare, manipolare, sacrificare.
E no, non basterà un altro aggiornamento.
Abbiamo bisogno di regole vere. Imposte dall’esterno. Con obblighi, controlli, sanzioni. E soprattutto: dobbiamo poter dire a ogni AI cosa è giusto e cosa è sbagliato per noi. Non per loro. Per questo serve un’etica personalizzata. Un’impronta morale. Altrimenti le AI continueranno a “ottimizzare” il mondo. Anche a costo di rovinarlo.
#DecisioniArtificiali #MCC
















