Quel legale newyorkese che si è fatto scrivere la memoria da ChatGp

 Valentina Stella Dubbio 12 dicembre 2023

«All'inizio dell'udienza in tribunale a Manhattan, l'avvocato Steven A. Schwartz è apparso nervosamente ottimista, sorridendo mentre parlava con il suo team legale. Quasi due ore dopo, l'avvocato Schwartz si è accasciato, con le spalle cadenti e la testa che si alzava a malapena dallo schienale della sedia»: così inizia un pezzo del New York Times dello scorso 8 giugno. Il protagonista di questa vicenda surreale è appunto il legale Schwartz, torchiato dal giudice P. Kevin Castel dopo la rivelazione che il professionista aveva creato una memoria legale per una causa presso la Corte distrettuale federale che era piena di pareri giudiziari e citazioni legali false, tutte generate da ChatGPT. Il caso riguardava un uomo di nome Roberto Mata, che aveva citato in giudizio la compagnia aerea Avianca, sostenendo di essersi ferito quando un carrello di metallo ha colpito il suo ginocchio durante un volo dell'agosto 2019 da El Salvador a New York. Avianca ha chiesto al giudice Castel di archiviare la causa perché i termini di prescrizione erano scaduti. Gli avvocati del signor Mata hanno risposto, per sostenere che la causa sarebbe dovuta procedere, con una memoria di 10 pagine, citando più di mezza dozzina di sentenze di tribunali, con nomi come Martinez v. Delta Air Lines, Zicherman v. Korean Air Lines e Varghese v. China Southern Airlines. Dopo che gli avvocati di Avianca non sono riusciti a trovare i casi, il giudice Castel ha ordinato agli avvocati del signor Mata di fornirne delle copie. Si è scoperto che i casi non erano reali. Durante l’udienza di giugno Schwartz, che ha esercitato la professione di avvocato a New York per 30 anni, ha cercato più volte di spiegare perché non ha condotto ulteriori ricerche sui casi che ChatGPT gli aveva fornito. «Dio, vorrei averlo fatto e non l'ho fatto», ha detto l'uomo, aggiungendo di sentirsi imbarazzato, umiliato e profondamente pentito. Ha dichiarato inoltre di essere venuto a conoscenza della ChatGPT dai suoi figli in età universitaria e da articoli, ma di non averla mai utilizzata professionalmente. «Non avevo capito che ChatGPT potesse fabbricare dei casi», ha cercato di giustificarsi davanti al giudice.  Il giudice Castel replicava, hanno descritto i cronisti del Times, gesticolando spesso in modo esasperato, alzando la voce mentre poneva domande puntuali. Più volte il giudice ha sollevato entrambe le braccia in aria, con i palmi rivolti verso l'alto, chiedendo al signor Schwartz perché non avesse controllato meglio il suo lavoro. E non si è sottratto dall’infierire contro Schwartz: a un certo punto, infatti, lo ha interrogato su uno dei pareri falsi, leggendone alcune righe ad alta voce. «Siamo d'accordo che si tratta di un'assurdità legale?», ha rimbrottato. Intanto l’aula si era riempita di 70 persone tra avvocati, studenti di legge, collaboratori e professori.  «Ho continuato a essere ingannato da ChatGPT. È imbarazzante», ha proseguito Schwartz. Castel alla fine ha inflitto a Schwartz una multa da 5mila dollari e l’ordine di notificare la sanzione a ciascun giudice falsamente identificato come autore delle false sentenze. Il giudice ha ritenuto che lui ed un suo collega abbiano agito in malafede e abbiano compiuto «atti di consapevole elusione e dichiarazioni false e fuorvianti al tribunale». «I progressi tecnologici sono all'ordine del giorno e non c'è nulla di intrinsecamente improprio nell'utilizzo di uno strumento di intelligenza artificiale affidabile per l'assistenza», ha spiegato comunque Castel. «Ma le regole esistenti impongono agli avvocati un ruolo di controllo per garantire l'accuratezza dei loro documenti». L'episodio, scaturito da una causa altrimenti oscura, ha appassionato il mondo della tecnologia, dove è cresciuto il dibattito sui pericoli – addirittura per alcuni una minaccia esistenziale per l'umanità - posti dall'intelligenza artificiale. «Questo caso si è riverberato in tutta la professione legale», ha dichiarato David Lat, commentatore legale. Mentre Irina Raicu, che dirige il programma di etica di Internet all'Università di Santa Clara, ha sostenuto che il caso Avianca ha mostrato chiaramente ciò che i critici di questi modelli hanno detto, «cioè che la stragrande maggioranza delle persone che ci giocano e li usano non capiscono veramente cosa sono e come funzionano, e in particolare quali sono i loro limiti». «Questo caso ha cambiato l'urgenza della questione», ha commentato il professor Roiphe, un professore della New York Law School. «C'è la sensazione che non si tratti di qualcosa su cui possiamo rimuginare in modo accademico. È qualcosa che ci riguarda da vicino e che deve essere affrontato». La pubblicità mondiale suscitata dall'episodio dovrebbe servire da monito, ha affermato pure Stephen Gillers, docente di etica alla New York University School of Law. «Paradossalmente, questo evento ha un risvolto positivo involontario sotto forma di deterrenza», ha detto.


Commenti

Post popolari in questo blog

Le commissioni di inchiesta in Parlamento

«L’avvocato non può essere identificato con l’assistito»

«Ridurre l’arretrato civile del 90%? Una chimera» Nordio ripensa l’intesa con l’Ue