Hai già scaricato la mia app?

Le AI non hanno una morale fissa.

Le AI non hanno una morale fissa.

Anthropic ha analizzato oltre 300.000 conversazioni tra persone e l’intelligenza artificiale Claude, scoprendo qualcosa di interessante: l’AI usa valori diversi a seconda del contesto.

Ma a caso. Secondo il SUO punto di vista.

Dalle chiacchierate quotidiane, hanno trovato 3.307 valori unici, divisi in cinque categorie principali: pratici, conoscitivi, sociali, protettivi e personali.

E se non fossero i nostri?

I valori pratici e quelli legati alla conoscenza dominano.
In cima ci sono parole come “disponibilità” e “professionalità”, mentre i valori etici saltano fuori soprattutto quando l’AI deve dire di no a richieste pericolose.

Se Claude dà consigli sulle relazioni, parla di “confini sani”; se invece si discute di etica digitale, il tema diventa la “libertà di scelta umana”.

Questo studio è importante perché sposta finalmente il dibattito sull’etica dell’AI dal teorico al pratico:
ci dice che non esiste una morale robotica rigida, ma piuttosto principi che cambiano a seconda di come interagiamo.

Ma è lei a supporre la nostra etica. Mentre siamo noi a volerla fornire…

Ci sto lavorando…

Link

Condividi su: