Un avvocato australiano è stato deferito a una Commissione per i reclami legali statali, dopo che è stato scoperto di aver usato CHATGPT per scrivere i documenti giudiziari in un caso di immigrazione e la piattaforma di intelligenza artificiale ha generato citazioni di caso che non esistevano.
Venerdì, in una sentenza da parte del Circuito Federale e della Family Court, il giudice Rania Skaros ha indirizzato l’avvocato, che ha redatto il suo nome dalla sentenza, all’ufficio del commissario per i servizi legali del Nuovo Galles del Sud (OLSC) per essere considerata.
Il tribunale ha ascoltato in un ricorso a un tribunale di ricorso amministrativo che la sentenza dell’avvocato ha presentato una domanda modificata al circuito federale e al tribunale familiare nell’ottobre 2024, nonché uno schema di invii. Skaros ha affermato che “entrambi i documenti contenevano citazioni ai casi e presunte citazioni dalla decisione del tribunale che erano inesistenti”.
Il 19 novembre, l’avvocato scrisse alla corte affermando che gli errori non erano intenzionali e che si rammaricava profondamente. Durante un’audizione del 25 novembre, l’avvocato ha ammesso di aver usato CHATGPT per scrivere i documenti.
“IL [lawyer] ha dichiarato di aver usato l’IA per identificare i casi australiani, ma gli ha fornito la giurisprudenza inesistente “, ha detto Skaros. “Il tribunale ha espresso la sua preoccupazione per il [lawyer]La condotta e la sua incapacità di verificare l’accuratezza di ciò che era stato depositato presso il tribunale, osservando che il tribunale era stato trascorso un considerevole importo e i miei soci che controllavano le citazioni e tentavano di trovare le presunte autorità. “
In una dichiarazione giurata fornita al tribunale, l’avvocato ha affermato che a causa di vincoli di tempo e problemi di salute, ha deciso di utilizzare l’IA.
“Ha avuto accesso al sito noto come Chatgpt, ha inserito alcune parole e il sito ha preparato un riepilogo dei casi per lui”, ha detto il giudizio. “Ha detto che il riassunto ha letto bene, quindi ha incorporato le autorità e i riferimenti nelle sue presentazioni senza controllare i dettagli.”
Si diceva che l’avvocato fosse profondamente imbarazzato per l’incidente e ha preso provvedimenti per migliorare la sua conoscenza dell’IA.
Il consulente per il ministro dell’immigrazione ha sostenuto che l’avvocato non aveva esercitato cure adeguate e dato l’interesse pubblico per l’uso improprio dell’IA nei procedimenti legali, era nell’interesse pubblico per gli abusi dei casi di intelligenza artificiale da fare riferimento all’OLSC.
“È stato presentato [by the minister] che tale condotta continuerebbe a verificarsi e deve essere “stroncato sul bocciolo”.
Skaros ha affermato che l’uso dell’intelligenza artificiale generativa nei procedimenti legali è una questione in diretta e in evoluzione ed è stato nell’interesse pubblico dell’OLSC per essere reso a conoscenza di tale condotta.
È il secondo caso legale in Australia in cui un avvocato è stato indirizzato a un ente normativo sull’uso dell’IA, dopo che un avvocato di Melbourne è stato indirizzato all’organo di reclami legali vittoriani l’anno scorso dopo aver ammesso di usare l’IA in un caso giudiziario che ha generato falsi caso citazioni.
In una nota di prove emessa dalla Corte Suprema del Nuovo Galles del Sud alla fine dell’anno scorso, che entrerà in vigore lunedì, la Corte ha posto limiti all’uso di AI generativi da parte degli avvocati del Nuovo Galles del Sud, inclusa la clausola che non deve essere utilizzato per generare giuramento, Dichiarazioni di testimoni, riferimenti di personaggi o altro materiale messo in evidenza o utilizzato nell’esame incrociato.