– ROMA, 31 MAG – Nessun documento legale redatto dall’intelligenza artificiale. È l’aut aut messo da un giudice federale del Texas dopo i casi dell’uso dell’IA in tribunale.
L’ultimo è accaduto pochi giorni fa quando un avvocato a New York per costruire una causa si è affidato a ChatGpt che ha fornito sei casi precedenti, tutti risultati completamente inesistenti.
Brantley Starr, giudice federale del Texas – come spiega il sito specializzato techCrunch – sta adottando misure per garantire proprio che non si verifichino in aula casi del genere. Ha aggiunto un requisito secondo cui qualsiasi avvocato che compare nella sua corte deve attestare che “nessuna parte della causa è stata redatta dall’intelligenza artificiale generativa” o, se lo è, che è stata controllata “da un essere umano”. Tutti gli avvocati che compaiono davanti alla Corte devono quindi mettere agli atti un certificato appositamente redatto e dichiarare che qualsiasi eventuale contenuto prodotto dall’IA sia stato controllato accuratamente da una persona in carne ed ossa utilizzando i database legali tradizionali o fonti stampa.
Gli errori dell’Intelligenza artificiale sono chiamati in termine tecnico allucinazioni: in pratica i chatbot forniscono risposte che suonano convincenti ma in realtà sono completamente inventate o sbagliate. Un problema importante che ha sta aprendo una riflessione sull’addestramento dei modelli di IA. .
In Texas giudice vieta agli avvocati di usare contenuti ChatGpt
In Texas giudice vieta agli avvocati di usare contenuti ChatGptultima modifica: 2023-05-31T15:47:15+02:00da