Generatiivne andmeluure

Texase kohtunik nõuab advokaatidelt tehisintellektiga loodud dokumentide deklareerimist

kuupäev:

Pärast seda, kui New Yorgi advokaat tunnistas eelmisel nädalal, et viitas olematutele kohtuasjadele, mida oli hallutsineerinud OpenAI ChatGPT tarkvara, on Texase kohtunik suunanud oma kohtu advokaadid kinnitama, et nad ei ole kasutanud tehisintellekti oma juriidiliste dokumentide koostamiseks – või et kui nad seda teevad, on väljundit kontrollinud inimene.

"Need platvormid on oma praeguses olekus altid hallutsinatsioonidele ja eelarvamustele," seisab Noot kohtunik Brantley Starr Texase põhjapiirkonnast. „Hallutsinatsioonide puhul mõtlevad nad välja asju – isegi tsitaate ja tsitaate.

"Teine probleem on usaldusväärsus või erapoolik. Kui advokaadid annavad vande jätta kõrvale oma isiklikud eelarvamused, eelarvamused ja tõekspidamised, et järgida ustavalt seadusi ja esindada oma kliente, siis generatiivne tehisintellekt on programmeerimise tulemus, mille on välja töötanud inimesed, kes ei pidanud sellist vannet andma.

„Sellisena ei ole need süsteemid truudust ühelegi kliendile, õigusriigi põhimõtetele ega Ameerika Ühendriikide seadustele ja põhiseadusele (või, nagu eespool käsitletud, tõele). Sellised programmid, mis ei ole seotud kohuse-, au- ega õiglustundega, toimivad pigem arvutikoodi kui veendumuse järgi, põhinevad pigem programmeerimisel kui põhimõttel. Kõik osapooled, kes usuvad, et platvormil on juriidiliseks teabeks nõutav täpsus ja usaldusväärsus, võib puhkusele kolida ja selgitada, miks.

Kohtuniku märkuses selgitatakse, et tema kohus tühistab kõik advokaadi esitatud taotlused, kes ei esita nõutavat tõendit, mis tõendab, et need tingimused on läbi loetud ja neist aru saanud.

Kohtunik Starr ei olnud kommenteerimiseks saadaval.

Pole haruldane probleem

Märkus avaldati Teisipäev, mai 30. See järgneb New Yorgi kohtuniku hukkamõistvale 26. mail Tellimus põhjuse näitamiseks [PDF] suunab Colombia lennufirma Avianca SA kohtusse kaebava hageja advokaadid selgitama, miks neid ei tohiks karistada "olematute juhtumite viitamise eest".

Hageja advokaadid tunnistasid vandeavalduses, et nad olid esitanud "kohtule olematute kohtuarvamuste koopiad" ja "kasutasid vale ja võltsitud notariaalset kinnitust".

Põhimõtteliselt kasutasid advokaadid ChatGPT-d varasemate kohtuasjade otsimiseks, vestlusbot leiutas need juhtumid ja advokaadid tsiteerisid neid dokumentides, nagu oleksid need tõelised. Seejärel kutsus kaitsja välja juriidilise meeskonna ja tunnistas oma viga.

Kohtunik Kevin Castel, nagu võite arvata, ei avaldanud muljet. Ta suunas oma viha hageja advokaatide peale Mata v. Avianca, Inc. (1:22-cv-01461), kes oli vastu kaitsemeetmetele isikukahjunõude rahuldamata jätmiseks, viidates Varghese vs. South China Airlines Co Ltd, Shaboon vs. Egyptairja Petersen vs. Iran Air, muude masin-kujutletud kohtuasjade hulgas.

Register küsis kommentaari hageja advokaadibüroolt Levidow, Levidow ja Oberman ning meie kõnet ei vastatud.

Me oleme varem kirjutatud ChatGPT mõtleb välja surmakuulutused elavatele inimestele, ulatudes kuni URL-ide loomiseni olematute ajalehtede obiteni, nii et pole üllatav, et teksti genereeriv robot moodustab kohtuasjad. OpenAI hoiatab, et tema süsteem "võib aeg-ajalt genereerida ebaõiget teavet", mis tundub kerge, arvestades mudeli valmisolekut enesekindlalt valet teavet väljastada.

Selles kinnitusviide [PDF], rikkunud advokaat ütles, et "kahetseb väga, et kasutas generatiivset tehisintellekti siin tehtud juriidiliste uuringute täiendamiseks, ja ei tee seda kunagi ilma selle autentsuse täieliku kontrollimiseta."

Kuigi New Yorgi juhtum näib olevat esimene tehisintellektil põhinev kohtuvaidlus, mis tõmbas avalikkuse tähelepanu, on nõuete muu võltsitud juhtumi tsitaadid on toimunud.

Stephen Wu, Silicon Valley Law Groupi aktsionär ja Ameerika Advokatuuri esimees Tehisintellekti ja Robootika Riiklik Instituut, rääkis Register et kuigi ta ei ole teadlik AI konfabulatsiooni juhtudest väljaspool New Yorgi juhtumit, eeldab ta, et on ka teisi.

Reeglid on reeglid

Küsimusele, kas juristid peaksid paremini teadma või kas generatiivse AI uudsus võib olukorda kuidagi leevendada, oli Wu ühemõtteline.

"Minu raamatus pole vabandust," ütles Wu. "Seal on ametialase käitumise reeglid ja need ütlevad, et kui kavatsete juriidilise asja eest vastutuse delegeerida, on teil kohustus jälgida inimesi, kellele te asja delegeerite."

Wu ütles, et need reeglid olid mõeldud kehtima abinõunikule või assistendile, kuid peaksid kehtima ka generatiivsele tehisintellektile.

Minu raamatus pole vabandust

"Lugesin, et generatiivse tehisintellekti ajastul, et öelda, kui delegeerite midagi tehisintellektile, peate selle tehisintellekti üle järelevalvet tegema ja kontrollima selle tulemusi, et veenduda, et see vastab juristidelt nõutavale pädevusstandardile. kohtuda," selgitas ta.

Wu ütles, et AI-tööriistadel on seaduses oma roll, kuid see roll peab olema inimesele allutatud. Ta ütles, et loodab, et generatiivne AI osutub kasulikumaks selliste ülesannete puhul nagu lepingute loomine, kus on rohkem ruumi mitmekesiseks sõnastamiseks ja tõlgendamiseks. Kohtuavaldustes ütles ta, et "panused on mõnevõrra suuremad, sest peate iga i-ga punkti panema ja iga "t" ületama.

Ta usub ka, et Texase kohtuniku sertifitseerimisnõuet võiks vastu võtta laiemalt.

"Kohtuniku alaline määrus sertifitseerimise kohta, mis ei tugine ainult generatiivsele tehisintellektile, võib saada konkreetsetes kohtutes kohalikuks reegliks," ütles Wu.

„Ja mulle tundub, et föderaalreeglite nõuandekomitee ja osariigi ekvivalendid võivad soovida protseduurireegleid muuta. Näiteks Texase kohtuniku püsikorralduse kontseptsioon, mille kohaselt ei kasutata generatiivset tehisintellekti või vähemalt kontrollitakse tegelike allikatega, võiks sobida föderaalse tsiviilkohtumenetluse reegli 11 punktiga b.

Ameerika advokatuur võttis oma veebruaris toimunud keskaasta koosolekul vastu resolutsioon [PDF] kutsub AI-süsteeme arendavaid, kavandavaid ja juurutavaid organisatsioone üles tagama, et inimesed jälgiksid neid mudeleid, et üksikisikud ja organisatsioon vastutaks närvivõrkude ja muu sellise tekitatud kahju eest ning et nende süsteemide arendajad rakendaksid neid viisil. mis on läbipaistev ja auditeeritav, austades samas ka intellektuaalomandit. Edu.

Wu ütles, et vajadus käsitleda seda, kuidas tehnoloogilised muudatused seadust mõjutavad, tuli välja umbes kümme aastat tagasi ABA 20/20 eetikaprojekt. „Muuhulgas räägiti sellest, kuidas advokaadi pädevuskohustus eeldab pädevust tehnoloogia mõistmisel ning kuidas see on seotud õiguspraktikaga ja tehnoloogia kasutamisega õiguspraktikas,” ütles ta.

Wu ootab edasist arutelu generatiivse AI rolli üle seaduses. "Ma eeldan, et peame selle kallal veidi komiteetööd tegema, et proovida võib-olla ABA mudelireeglites muudatusi teha," ütles ta. ®

spot_img

Uusim intelligentsus

spot_img