L’intelligenza artificiale può essere uno strumento prezioso, ma anche insidioso. Soprattutto se non la si usa con la dovuta accortezza. Ne sa qualcosa un avvocato dell’Indiana, negli Usa, che rischia di vedersi comminare una sanzione da 15.000 dollari per aver redatto e presentato in tribunale degli atti con il supporto dell’intelligenza artificiale. Purtroppo, per l’avvocato, all’interno dei documenti c’erano dei riferimenti giuridici inesistenti.
In questo caso specifico, il problema non è stato tanto il fatto che l’avvocato avesse utilizzato l’intelligenza artificiale, ma che non avesse effettuato le verifiche del caso e si sia accertato che quanto contenuto negli atti corrispondesse al vero. Come giustamente ha sottolineato Mark J. Dinsmore, un giudice federale statunitense, l’uso dell’intelligenza artificiale deve essere sempre accompagnato dall’applicazione di quella umana.
Ma vediamo un po’ cosa è successo in un caso che indubbiamente farà scuola.

Usare l’intelligenza artificiale nella redazione degli atti
Quanto è avvenuto negli Usa mette in evidenza come sia importante, quando si utilizza l’intelligenza artificiale, l’apporto umano. Il giudice Dinsmore, chiamato a valutare e a giudicare la situazione, ha messo in evidenza come l’avvocato sia stato un po’ negligente: non si è preoccupato di verificare la correttezza delle citazioni riportate nei documenti. Ma soprattutto ha completamente ignorato la tendenza dei vari strumenti di AI generativa ad inventarsi dei riferimenti giuridici che in realtà non esistono.
Quello che effettuato l’avvocato, in altre parole, è una grave violazione del dovere di ogni avvocato nei confronti della Corte, del suo cliente e della controparte. Secondo Dinsmore il comportamento del legale è sceso ben al di sotto degli standard professionali che sono richiesti ad un professionista: presentare un atto con delle citazioni insistenti è una grave mancanza.
I dettagli della vicenda
Ma vediamo un po’ più nello specifico i dettagli della vicenda. Rafael Ramirez, legale della HooserVac LLC, nel corso di una causa che coinvolge un fondo pensione aziendale, aveva presentato degli atti al cui interno erano contenuti dei casi inesistenti in tre diverse memorie. La Corte non è, però, riuscita a rintracciare i riferimenti giuridici citati all’interno della documentazione. A questo punto il giudice ha chiamato l’avvocato chiedendogli di spiegare cosa fosse accaduto.
Nel corso di un’udienza che si è tenuta il 3 gennaio 2025, Ramirez ha dovuto ammettere di aver utilizzato alcuni strumenti in intelligenza artificiale generativa per la redazione degli atti presentati. Ma non ha verificato quanto fossero accurati. Ha ammesso, poi, di non essere a conoscenza che l’AI potesse produrre dei riferimenti giurisprudenziali fittizi: ha, quindi, considerato i testi prodotti come credibili.
Ovviamente il giudice ha sonoramente bocciato il comportamento dell’avvocato: uno dei compiti più importanti di un buon legale è quello di accertarsi che le citazioni fossero veritiere. Secondo Dinsmore non c’è alcuna giustificazione per non adempiere agli obblighi che stanno alla base di una qualsiasi professione. Il giudice, quindi, ha suggerito una sanzione di 5.000 dollari per ognuna delle tre memorie che contenevano delle citazioni fittizie. Complessivamente la multa ammonta a 15.000 euro.

Intelligenza artificiale, attenzione a farne un uso improprio
Le conseguenze della condotta a dir poco superficiale dell’avvocato non finisco qui. Il legale, infatti, è stato segnalato al giudice capo, che dovrà valutare se prendere degli ulteriori provvedimenti disciplinari che saranno condizionati dalle regole deontologiche vigenti nell’Indiana. L’avvocato ha poi dovuto informare il Ceo di HooserVac dell’ordine entro sette giorni.
Il caso che abbiamo appena descritto è l’ultimo in ordine cronologico che coinvolge degli avvocati, che sono stati sanzionati per aver fatto un uso improprio dell’intelligenza artificiale. Due avvocati di New York, nel 2023, erano stati sanzionati per aver prodotto in tribunale dei documenti che contenevano delle citazioni legali inesistenti: avevano utilizzato ChatGPT.