Le AI non hanno una morale fissa.
Anthropic ha analizzato oltre 300.000 conversazioni tra persone e l’intelligenza artificiale Claude, scoprendo qualcosa di interessante: l’AI usa valori diversi a seconda del contesto.
Ma a caso. Secondo il SUO punto di vista.
Dalle chiacchierate quotidiane, hanno trovato 3.307 valori unici, divisi in cinque categorie principali: pratici, conoscitivi, sociali, protettivi e personali.
E se non fossero i nostri?
I valori pratici e quelli legati alla conoscenza dominano.
In cima ci sono parole come “disponibilità” e “professionalità”, mentre i valori etici saltano fuori soprattutto quando l’AI deve dire di no a richieste pericolose.
Se Claude dà consigli sulle relazioni, parla di “confini sani”; se invece si discute di etica digitale, il tema diventa la “libertà di scelta umana”.
Questo studio è importante perché sposta finalmente il dibattito sull’etica dell’AI dal teorico al pratico:
ci dice che non esiste una morale robotica rigida, ma piuttosto principi che cambiano a seconda di come interagiamo.
Ma è lei a supporre la nostra etica. Mentre siamo noi a volerla fornire…
Ci sto lavorando…













