Tra il crescente entusiasmo per l’IA, sono emerse preoccupazioni riguardo al potenziale spostamento di individui dal proprio lavoro da parte di ChatGPT. Un particolare avvocato di New York sta attualmente affrontando una realizzazione inaspettata e accelerata di questa paura.
Tuttavia, la causa alla base è molto diversa da ciò che ci si potrebbe aspettare. Secondo un rapporto di Il New York Times, l’avvocato Steven Schwartz, affiliato allo studio legale Levidow, Levidow e Oberman, ha chiesto aiuto al chatbot di OpenAI per creare un documento legale. Sfortunatamente, l’esito di questa collaborazione si è rivelato tutt’altro che favorevole, in quanto i risultati si sono rivelati prevedibilmente disastrosi.
Roberto Mata, che afferma di essersi ferito durante un viaggio all’aeroporto internazionale John F. Kennedy di New York City, ha avviato una causa contro Avianca per conto dello studio legale di Schwartz. Di recente, quando la compagnia aerea ha chiesto l’archiviazione del caso, i rappresentanti legali di Mata hanno risposto presentando un’esauriente memoria di 10 pagine, presentando argomenti a favore della prosecuzione del caso. Il documento fa riferimento a sei decisioni giudiziarie, inclusi casi degni di nota come “Varghese v. China Southern Airlines”, “Martinez v. Delta Airlines” e “Miller v. United Airlines”.
Tuttavia, con sorpresa e sgomento di tutte le parti coinvolte, nessuna delle sentenze citate nella memoria degli avvocati di Mata è stata rintracciata da nessuno. Il motivo di questa situazione sconcertante? Tutte le decisioni del tribunale erano invenzioni di ChatGPT.
Davvero una spiacevole svista.
In una dichiarazione giurata presentata giovedì, Schwartz ha rivelato di aver utilizzato il chatbot come mezzo per “integrare” la sua ricerca sul caso. Ha espresso la sua mancanza di consapevolezza riguardo alla possibilità che il contenuto generato da ChatGPT sia impreciso. Per dimostrare la sua diligenza, Schwartz ha presentato al programma fotografie che ritraggono le sue indagini sulla legittimità dei casi giudiziari citati. In risposta alle sue domande, ChatGPT gli ha assicurato che i casi potevano essere trovati in rinomati database legali come Westlaw e LexisNexis.
Esprimendo profondo rammarico, Schwartz ha riconosciuto il suo utilizzo di ChatGPT e ha sottolineato che si asterrà dall’affidarvi in futuro senza ottenere una verifica inequivocabile della sua autenticità. La questione se Schwartz avrà un’altra opportunità di redigere una memoria legale rimane incerta.
Il giudice che presiede, riconoscendo la natura senza precedenti della situazione, ha fissato un’udienza per l’8 giugno per valutare le potenziali sanzioni derivanti dalle azioni di Schwartz. Questa udienza servirà come via per affrontare le conseguenze della “circostanza senza precedenti” causata dall’affidamento di Schwartz a ChatGPT.
L’opinione di ChatGPT
- Quando è stato presentato con questo articolo di notizie, ChatGPT ha fornito la sua prospettiva sulla questione:
“Dopo aver esaminato l’articolo di notizie, è evidente che l’utilizzo di ChatGPT in questo particolare caso legale ha portato a risultati sfavorevoli e disastrosi. L’incidente evidenzia i potenziali rischi associati all’affidarsi esclusivamente ai modelli linguistici di intelligenza artificiale per la ricerca e la redazione legale.
Le informazioni inesatte generate da ChatGPT hanno portato all’inclusione di decisioni giudiziarie inesistenti nel brief legale, causando confusione e potenzialmente mettendo a repentaglio il caso.
Ciò evidenzia l’importanza di esercitare cautela e ottenere una verifica inequivocabile dell’autenticità e dell’accuratezza dei contenuti generati dall’IA in campo legale. L’udienza programmata per esaminare potenziali sanzioni riflette la serietà con cui il tribunale sta affrontando questa circostanza senza precedenti”.
Grazie per l’avviso, ChatGPT!
Source: Non lasciare mai che il tuo avvocato utilizzi ChatGPT