ChatGPT "hallucine" des exemples d'affaire cités par des avocats new-yorkais

2023-06-05 5

ChatGPT "hallucine" des exemples d'affaire, cités par des avocats new-yorkais, durant un procès devant la cour fédérale.
ChatGPT "hallucine" des exemples d'affaire, cités par des avocats new-yorkais, durant un procès devant la cour fédérale.
L'enquête en question contre Avianca Airlines concernait un préjudice personnel.
L'avocat des plaintifs, Peter LoDuca, aurait cité un grand nombre d'affaires auxquelles les avocats d'Avancia n'ont pas pu se référer.
Il a été ensuite révélé que LoDuca utilisait ChatGPT pour rechercher des affaires en lien avec son procès.
Le juge fédéral P. Kevin Castel aurait donné à LoDuca une opportunité d'admettre que ces exemples avaient été inventées.
LoDuca aurait ainsi utilisé ChatGPT pour générer des affaires qu'il se serait permis de citer malgré le fait qu'elles aient été crées par une intelligence artificielle.
Dans un dépôt devant la cour, cela peut mener à des sanctions contre l'avocat mis en cause.
Castel aurait écrit que ce procès était "rempli de citations issues d'affaires non existantes.
De plus, Castel qualifie les recherches de l'avocat de "fausses décisions judiciaires parsemées de fausses citations et de faux exemples.".
Le terme "hallucination" a déjà été utilisé pour décrire ces moments durant lesquels ChatGPT crée des informations érronées.
Cette affaire met en lumière une tendance multi secteur. L'IA est utilisée sans de plus amples vérification et sans chercher les erreurs
qu'elle peut commettre.
Cela crée de nouveaux challenges dans des domaines sensibles comme la loi, les médias où les disciplines académiques, ce qui pousse Castel
à cette conclusion :.
La Cour va au devant de circonstances sans précédent, P. Kevin Castel, juge fédéral, via NBC News

Free Traffic Exchange