Voici un encart que je suis heureux de diffuser ici sur notre site. Le thème est « la justice ».
Son titre (un avocat trompé par l’IA plaide coupable) est sans équivoque.
L’auteur (annoncé sous le nom d’anonymat
) est connu et fiable.
La crédibilité est de ce fait éminente en ce qui concerne ce post.
L’éditorial a été publié à une date notée 2023-05-30 01:03:00.
- Un avocat new-yorkais a fait face à de sérieux problèmes après avoir utilisé ChatGPT pour rédiger un mémoire juridique truffé d’erreurs
- Il a affirmé qu’il ne savait pas que ChatGPT pouvait fournir des réponses fictives et a déclaré qu’il ne l’utiliserait plus pour des recherches juridiques
- Cet incident souligne les dangers potentiels des chatbots propulsés par l’IA, notamment lorsqu’ils sont utilisés sans vérification suffisante de l’information fournie
Steven A. Schwartz, avocat à New-York s’est retrouvé dans une situation délicate après avoir utilisé ChatGPT pour l’aider à rédiger un mémoire juridique. L’incident a été révélé pour la première fois par le New York Times et a mis en lumière un problème majeur avec les chatbots propulsés par l’intelligence artificielle (IA) : ils peuvent être d’incroyables vecteurs de désinformation.
L’affaire en question concernait une poursuite contre Avianca, la plus grande compagnie aérienne de Colombie. S’appuyant sur ChatGPT, Steven A. Schwartz a trouvé un total de six affaires qu’il pensait soutenir ses arguments juridiques, complétées par des citations apparemment réelles. Lorsqu’il a demandé si l’une des affaires citées était réelle, ChatGPT a confirmé. Lorsqu’il a insisté pour savoir si toutes les affaires étaient authentiques, ChatGPT a répondu : “Les autres affaires que j’ai fournies sont réelles et peuvent être trouvées dans des bases de données juridiques réputées comme LexisNexis et Westlaw”.
Parmi les affaires inventées, on trouvait Varghese c. China South Airlines, Martinez c. Delta Airlines, Shaboon c. EgyptAir, Miller c. United Airlines, et quelques autres. Lorsque les avocats de la partie adverse n’ont pas réussi à les retrouver, la supercherie a été dévoilée. Le juge de l’affaire a déclaré :
Six des affaires soumises semblent être de fausses décisions judiciaires avec de fausses citations et de fausses références internes.
Dans une déclaration sous serment, Steven A. Schwartz a déclaré que c’était la première fois qu’il utilisait ChatGPT à des fins de recherche juridique. Il a ajouté qu’il ignorait que le chatbot était capable de fournir des réponses fictives. Il a exprimé des regrets quant à l’utilisation de ChatGPT et a affirmé qu’il ne l’utiliserait plus pour des recherches juridiques à l’avenir. Steven A. Schwartz doit maintenant faire face à des sanctions lors d’une audience prévue pour début juin.
De l’importance de la vérification de l’information
Cet incident souligne les dangers potentiels de l’utilisation de chatbots alimentés par l’IA en remplacement d’outils de recherche traditionnels, en particulier lorsqu’il s’agit de conseils médicaux sérieux ou de recherches juridiques.
Tout aussi impressionnants que soient les nouveaux outils d’IA tels que ChatGPT, cette affaire illustre bien leurs limites. ChatGPT et consorts ne savent pas tout. D’ailleurs, l’outil développé par OpenAI ne se basait jusqu’à avril 2023 sur des données compilées jusqu’à 2021. Toute information ultérieure n’était pas prise en compte dans les réponses. Or, tous les utilisateurs n’en avaient pas conscience.
Depuis, ChatGPT est connecté au web grâce à l’intégration de Bing, avec des liens vers les sources des informations divulguées. La question est : les utilisateurs feront-ils l’effort de vérifier les informations fournies dans ces liens ou se contenteront-ils des éléments cités par l’IA ? Le cerveau humain étant fait pour aller au chemin le plus court, la question est vite répondue.
L’affaire Schwartz souligne donc la nécessité de se pencher vers le fonctionnement de l’IA, ses limites et ses risques. Les Etats-Unis et l’Europe réfléchissent à un moyen de réguler ces nouveaux outils aussi puissants que dangereux. Sam Altman, CEO d’OpenAI, Google et Microsoft se sont déjà dits favorables à une régulation de l’intelligence artificielle.
A lire:
Droit international public/Les organisations internationales,Ouvrage .
Histoire de l’Europe/Les Carolingiens,(la couverture) .
Procédure civile,Ouvrage .