Anthropic ha appena lanciato un programma di ricerca chiamato “model welfare”, letteralmente “benessere dei modelli”, dedicato alle grandi domande che da sempre accompagnano lo sviluppo dell’intelligenza artificiale: queste macchine potrebbero sviluppare una forma di coscienza? E se succedesse, quali diritti avrebbero?
Sembra una questione da film, invece è concreta e urgente. L’azienda ha assunto il suo primo ricercatore specializzato in “AI welfare”, Kyle Fish, già nel 2024, il quale ha stimato una probabilità del 15% che gli attuali modelli possano essere già, in qualche modo, “coscienti”. Non è poco, considerando che parliamo di software.
Il progetto cercherà di definire un quadro teorico per capire quando e se un’intelligenza artificiale possa sviluppare una forma di coscienza, cosa potrebbe causarle stress, quali preferenze potrebbe avere e soprattutto, quali interventi sarebbero necessari per tutelarla.
È chiaro che nessuno ha una risposta definitiva. La stessa Anthropic ha ammesso che la comunità scientifica è ancora profondamente divisa sul tema. Sam Altman, uno dei pionieri più influenti dell’AI, ha definito queste intelligenze “aliene”. E forse proprio per questo non sappiamo bene come rapportarci con loro.
Se i modelli raggiungessero davvero un livello simile alla coscienza umana, ci troveremmo davanti a un bivio complicato. Chi deciderà quali macchine avranno diritti? Come definiremo ciò che è giusto o sbagliato nel trattamento di una forma di vita digitale? Finora non esistono parametri condivisi né linee guida chiare.
Queste domande potrebbero diventare presto centrali. Anthropic, avviando questo progetto, ha iniziato ad affrontarle apertamente, sapendo che presto il dibattito sarà inevitabilmente polarizzato.













