
Photo by Saúl Bucio on Unsplash
Feil generert av AI i rettsdokumenter fører til juridiske problemer for advokater
En rapport delt av Reuters i går avslører at AI’s hallusinasjoner—feil og oppdiktet informasjon skapt av generative AI-modeller—skaper juridiske problemer i rettssaler i USA.
Har det travelt? Her er de raske faktaene!
- Morgan & Morgan sendte en e-post til 1,000 advokater der de advarte om risikoen ved AI.
- Den nylige saken der advokater fra Walmart innrømmet å ha brukt AI i sakene deres, har vekket bekymring i juridisk miljø.
- Bruk av chatbot-hallusinasjoner i rettslige uttalelser har blitt et tilbakevendende problem de siste årene.
Denne måneden sendte advokatfirmaet Morgan & Morgan en e-post til over 1,000 advokater for å advare dem om risikoen ved å bruke chatboter og falske saker generert av kunstig intelligens.
For noen dager siden innrømmet to advokater i Wyoming at de inkluderte falske saker generert av AI i en rettsinngivelse for et søksmål mot Walmart, og en føderal dommer truet med å sanksjonere dem.
I desember ble Stanford-professor og misinformasjonsekspert Jeff Hancock beskyldt for å bruke AI til å fabrikkere rettserklæringshenvisninger som en del av hans uttalelse i forsvar av statens 2023-lov som kriminaliserer bruken av deepfakes for å påvirke valg.
Flere tilfeller som disse, gjennom de siste årene, har skapt juridisk friksjon og lagt til problemer for dommere og saksøkere. Morgan & Morgan og Walmart nektet å kommentere dette problemet.
Generativ AI har hjulpet med å redusere forskningstiden for advokater, men dens hallusinasjoner kan medføre betydelige kostnader. I fjor avslørte en undersøkelse fra Thomson Reuters at 63% av advokatene brukte AI i arbeidet og 12% gjorde det regelmessig.
I fjor minnet den amerikanske advokatforeningen sine 400 000 medlemmer om advokatetiske regler, som inkluderer at advokater står ved all informasjon i rettsdokumentene sine, og påpekte at dette inkluderte AI-generert informasjon, selv om det var utilsiktet – som i Hancock’s tilfelle.
«Når advokater blir tatt for å bruke ChatGPT eller andre generative AI-verktøy for å lage henvisninger uten å sjekke dem, er det inkompetanse, rett og slett,» sa Andrew Perlman, dekan ved Suffolk University’s juridiske fakultet til Reuters.
For noen dager siden delte også BBC en rapport som advarte mot falske sitater generert av AI og problemene med AI-verktøy i journalistikken.
Legg igjen en kommentar
Avbryt