Hai già scaricato la mia app?

Allucinazione dell’AI generativa in tribunale

Era solo questione di tempo.
E infatti, è successo anche da noi.

Per la prima volta in Italia un Tribunale si è trovato a fare i conti con un’allucinazione dell’Intelligenza Artificiale generativa.
Succede a Firenze, sezione imprese.
Una memoria difensiva cita sentenze che… non esistono.
Precedenti giurisprudenziali completamente inventati da ChatGPT.
E il legale coinvolto si giustifica dicendo che non è stato lui, ma una collaboratrice. E che lui, di tutto questo, non ne sapeva nulla.

Negli Stati Uniti, per casi simili, sono già partite sanzioni disciplinari.
In Italia no.
Il Tribunale ha deciso di non applicare l’articolo 96 del codice di procedura civile (quello sulla lite temeraria), sostenendo che le sentenze false erano state usate solo per rafforzare la tesi difensiva e non per agire in malafede.
Ma questo non significa che sia passata liscia.
I giudici hanno comunque condannato la superficialità della condotta, parlando chiaramente di “omessa verifica dell’esistenza delle sentenze restituite dall’IA”.
Tradotto: se chiediamo aiuto a un’intelligenza artificiale, dobbiamo controllare che non si inventi le risposte.

Il punto è che l’IA non è una bacchetta magica, ma uno strumento.
E chi lo usa, ha il dovere di sapere come funziona.
Altrimenti il rischio è quello di infilare in atti ufficiali citazioni mai esistite, con tutte le conseguenze del caso.
Per questo lo ripeto da tempo: serve formazione vera per chi lavora nel diritto, a ogni livello.
Serve anche una deontologia aggiornata, capace di indicare come e quando possiamo affidarci all’IA senza metterci nei guai.

Perché l’Intelligenza Artificiale non è il futuro.
È il presente.
E ha già messo piede nei nostri studi e nei Tribunali.
Tanto vale imparare a conviverci, e usarla con la testa.

Condividi su: