Hai già scaricato la mia app?

La sentenza che ha dato ragione a OpenAI non chiude affatto il dibattito

La sentenza che ha dato ragione a OpenAI nel primo caso di diffamazione legata a un output falso di ChatGPT non chiude affatto il dibattito giuridico sulle allucinazioni dell’intelligenza artificiale. Anzi, lo rende più evidente.

La Corte ha respinto l’accusa basandosi su tre elementi: il contenuto non era legalmente diffamatorio, non c’era colpa né per negligenza né per dolo, e non erano dimostrabili danni. Tutto questo è stato possibile anche grazie a una cosa spesso sottovalutata: le disclaimer.

Nei Termini di Utilizzo, OpenAI scrive chiaramente che gli output possono essere sbagliati, proprio per la natura probabilistica del machine learning. La piattaforma avverte gli utenti anche nell’interfaccia. E la Corte ha considerato questi avvertimenti sufficienti per proteggere l’azienda. In altre parole: il contratto tra umano e macchina è già scritto, e l’utente lo accetta ogni volta che apre la chat.

Ma questo riguarda solo la diffamazione. Il punto è che le allucinazioni dell’IA possono diventare un problema legale anche da altri fronti.

In Europa, per esempio, valgono altre regole. La precisione dei dati non è un’opzione, è un obbligo. Il GDPR impone che i dati personali siano corretti, e dà alle persone il diritto di accedervi, rettificarli, sapere cosa sa un sistema su di loro. E OpenAI è già sotto accusa: il team di Max Schrems (NOYB) ha presentato almeno due reclami ufficiali nel 2024 e nel 2025.

E non è finita. Se l’output errato riguarda un minore, entra in gioco la tutela rafforzata dei dati dei bambini. E in alcune giurisdizioni anche le leggi sui consumatori potrebbero essere invocate se l’informazione generata danneggia, confonde o trae in inganno.

In breve: la decisione americana tutela OpenAI, ma non mette un punto. Mette una virgola. E apre nuovi capitoli sul rapporto tra IA, responsabilità e diritti delle persone.

Condividi su: