Un avocat de Vancouver fait face à une enquête pour utilisation de ChatGPT devant les tribunaux, ce qui a conduit à la soumission d'une jurisprudence « fictive » dans un litige concernant la garde d'enfants.
Une avocate canadienne fait l’objet de critiques après que, dans le dernier article soulignant les dangers d’une technologie juridique non éprouvée, son chatbot IA pour la recherche juridique ait produit des cas « fictifs ».
A lire également: Pourquoi Musk intente une action en justice contre OpenAI et Sam Altman
Chong Ke, une avocate de Vancouver qui fait actuellement l'objet d'une enquête pour son comportement, aurait utilisé ChatGPT pour rédiger des arguments juridiques pour une affaire de garde d'enfants entendue par la Cour suprême de la Colombie-Britannique.
Un avocat critiqué pour avoir soumis de faux dossiers créés par un chatbot IA https://t.co/SH9JWn2A93
-Podra (@podra) 29 février 2024
Ke présente des jurisprudences générées par Chatbot
Selon des documents judiciaires, Ke représentait un père qui souhaitait voyager à l'étranger avec ses enfants mais qui était aux prises avec un conflit de séparation avec la mère des enfants.
Ke aurait demandé à ChatGPT de fournir des exemples de jurisprudence antérieure qui pourraient s'appliquer à la situation de son client. Elle a soumis deux des trois résultats que le OpenAI-chatbot développé et produit au tribunal.
Cependant, l'avocat adverse a identifié des incohérences et n'a pu trouver aucune preuve des cas mentionnés par Ke. Ke a ensuite retiré les arguments qu'elle avait présentés, attribuant cette erreur à son ignorance de l'exactitude du contenu produit par l'intelligence artificielle.
Ke a déclaré dans un courriel adressé au tribunal qu'elle n'avait aucune idée que ces deux cas pouvaient être erronés. Elle a ajouté qu'après que sa collègue lui ait signalé qu'ils ne pouvaient pas être localisés, elle a fait ses propres recherches et n'a pas non plus pu détecter les problèmes. Elle a déclaré qu'elle n'avait aucune intention d'induire en erreur l'avocat adverse ou le tribunal et s'est sincèrement excusée pour l'erreur qu'elle avait commise.
Utiliser des chatbots
Chatbots sont formés sur des quantités massives de données et, malgré leur popularité, ils sont sujets à des erreurs, appelées « hallucinations ».
Les actions de Ke, selon les avocats représentant la mère, étaient « répréhensibles et méritaient d'être réprimandées » car elles ont nécessité « un temps et des dépenses considérables » pour déterminer si les cas qu'elle a cités étaient réels.
Cependant, leur demande d'octroi de dépens spéciaux a été rejetée par le président du tribunal, qui a déclaré qu'une telle « mesure extraordinaire » nécessiterait « un constat de conduite répréhensible ou d'abus de procédure » de la part de l'avocat.
De plus, certains utilisateurs de X (anciennement Twitter) ont exprimé leur mécontentement quant à l’utilisation de chatbots pour des affaires judiciaires.
Encore un avocat assez bête pour utiliser ChatGPT et ses cas hallucinés. (4ème ou 5ème à s'être fait prendre, d'après mes calculs.)https://t.co/WjaitrEATc
- Gary Marcus (@GaryMarcus) 29 février 2024
Le juge David répond
Selon le juge David Masuhara, citer de fausses affaires dans des dossiers judiciaires et d'autres documents remis au tribunal constitue un abus de procédure et équivaut à faire une fausse déclaration au tribunal. Il a ajouté que si rien n’est fait, cela peut conduire à une erreur judiciaire.
Il a découvert que l’avocat de la partie adverse disposait de « ressources suffisantes » et avait déjà produit des « volumes » de documents dans l’affaire. Il a déclaré qu’il n’y avait aucune chance que les deux faux cas se soient échappés.
Masuhara a affirmé que Ke était « naïve quant aux risques liés à l'utilisation de ChatGPT » et que ses actions avaient généré « une publicité négative importante », mais il a également observé que Ke avait fait un effort pour corriger ses erreurs.
Il a dit qu'il ne considérait pas qu'elle avait l'intention de tromper ou d'induire en erreur. Il a accepté la sincérité des excuses de Mme Ke auprès de l'avocat et du tribunal. Il a ajouté que ses regrets étaient évidents lors de sa comparution et de ses plaidoiries devant le tribunal.
L'incident met en lumière des discussions plus générales sur l'utilisation de AI dans le domaine juridique. Il attire l’attention sur les difficultés rencontrées pour garantir la fiabilité et l’exactitude des contenus générés par l’IA devant les tribunaux.
- Contenu propulsé par le référencement et distribution de relations publiques. Soyez amplifié aujourd'hui.
- PlatoData.Network Ai générative verticale. Autonomisez-vous. Accéder ici.
- PlatoAiStream. Intelligence Web3. Connaissance Amplifiée. Accéder ici.
- PlatonESG. Carbone, Technologie propre, Énergie, Environnement, Solaire, La gestion des déchets. Accéder ici.
- PlatoHealth. Veille biotechnologique et essais cliniques. Accéder ici.
- La source: https://metanews.com/vancouver-attorney-faces-scrutiny-after-ai-chatbot-generates-fake-case-law/
- :est
- :ne pas
- $UP
- 29
- 4ème
- 5ème
- 7
- 800
- a
- Qui sommes-nous
- à l'étranger
- abus
- accepté
- Selon
- précision
- actes
- ajoutée
- Après
- à opposer à
- AI
- AI chatbot
- déjà
- aussi
- quantités
- an
- ainsi que les
- Une autre
- Appliquer
- SONT
- arguments
- artificiel
- intelligence artificielle
- AS
- précaution
- mandataire
- attribué
- BE
- car
- humain
- Blâmer
- Britannique
- Colombie-Britannique
- mais
- by
- CAN
- canadienne
- maisons
- cas
- pris
- Chance
- Chatbot
- Chatbots
- ChatGPT
- enfant
- Enfants
- conditions
- cité
- collègue
- COLUMBIA
- Conduire
- contenu
- Costs
- pourriez
- conseil
- compter
- Court Intérieur
- Dépôts judiciaires
- créée
- critique
- Lecture
- Garde
- dangers
- données
- David
- dénié
- méritant
- voulu
- Malgré
- détecter
- Déterminer
- DID
- problèmes
- découvert
- discussions
- Contestation
- INSTITUTIONNELS
- down
- avant-projet
- attire
- muet
- pendant
- effort
- non plus
- assez
- Erreurs
- preuve
- évident
- exemples
- exprimé
- visages
- fait
- faux
- non
- champ
- Fichiers
- limailles
- Trouvez
- trouver
- Incendie
- Fixer
- Pour
- anciennement
- Gary
- Général
- généré
- ait eu
- Vous avez
- he
- entendu
- ici
- ici
- Haute
- Soulignant
- Faits saillants
- sa
- HTTPS
- idée
- identifié
- if
- Ignorance
- in
- incident
- incohérences
- tranche
- Intelligence
- Intention
- enquête
- vous aider à faire face aux problèmes qui vous perturbent
- IT
- SES
- jpg
- juge
- Justice
- connu
- Droit applicable et juridiction compétente
- procès
- avocat
- Les avocats.
- conduire
- conduisant
- LED
- à gauche
- Légal
- situé
- fermé
- LES PLANTES
- Fabrication
- Marcus
- massif
- matières premières.
- largeur maximale
- mentionné
- pourrait
- erreur
- erreurs
- PLUS
- (en fait, presque toutes)
- mère
- MS
- Musc
- my
- négatif
- aucune
- of
- on
- OpenAI
- or
- Autre
- ande
- propre
- Platon
- Intelligence des données Platon
- PlatonDonnées
- popularité
- cadeaux
- Avant
- sonde
- processus
- Produit
- fournir
- publicité
- Lire
- réal
- récent
- regretter
- représenté
- représentation
- nécessaire
- exigent
- un article
- Résultats
- risques
- Saïd
- Sam
- elle
- sincèrement
- quelques
- spécial
- A déclaré
- Déclaration
- Soumission
- Soumission
- soumis
- soumission
- tel
- Le Suprême
- Cour suprême
- Technologie
- qui
- Les
- leur
- puis
- Là.
- Ces
- l'ont
- trois
- Avec
- fiable
- à
- a
- qualifié
- Voyage
- oui
- deux
- sous
- utilisé
- d'utiliser
- utilisateurs
- en utilisant
- Vancouver
- était
- ont été
- WHO
- comprenant
- pourra
- X
- zéphyrnet