Kecerdasan Data Generatif

Hakim Texas menuntut pengacara menyatakan dokumen yang dihasilkan AI

Tanggal:

Setelah seorang pengacara di New York pekan lalu mengaku mengutip kasus-kasus pengadilan yang tidak ada dan dihalusinasi oleh perangkat lunak ChatGPT OpenAI, seorang hakim Texas telah mengarahkan pengacara di pengadilannya untuk menyatakan bahwa mereka tidak menggunakan kecerdasan buatan untuk menyiapkan dokumen hukum mereka โ€“ atau bahwa jika mereka melakukannya, maka keluarannya telah diverifikasi oleh manusia.

โ€œPlatform-platform ini dalam keadaannya saat ini rentan terhadap halusinasi dan bias,โ€ demikian bunyinya sebuah catatan dari Hakim Brantley Starr dari Distrik Utara Texas. โ€œMengenai halusinasi, mereka mengada-ada โ€“ bahkan kutipan dan kutipan.

โ€œMasalah lainnya adalah keandalan atau bias. Meskipun pengacara bersumpah untuk mengesampingkan prasangka, bias, dan keyakinan pribadi mereka untuk dengan setia menjunjung hukum dan mewakili klien mereka, kecerdasan buatan generatif adalah produk pemrograman yang dirancang oleh manusia yang tidak harus mengucapkan sumpah tersebut.

โ€œDengan demikian, sistem ini tidak memiliki kesetiaan kepada klien mana pun, supremasi hukum, atau hukum dan Konstitusi Amerika Serikat (atau, sebagaimana disebutkan di atas, kebenaran). Tidak terikat oleh rasa kewajiban, kehormatan, atau keadilan apa pun, program semacam itu bertindak berdasarkan kode komputer, bukan keyakinan, berdasarkan pemrograman, bukan berdasarkan prinsip. Pihak mana pun yang meyakini bahwa platform tersebut memiliki keakuratan dan keandalan yang diperlukan untuk memberikan pengarahan hukum dapat mengajukan cuti dan menjelaskan alasannya.โ€

Catatan hakim selanjutnya menjelaskan bahwa pengadilannya akan membatalkan pengajuan apa pun dari pengacara yang gagal menyerahkan sertifikasi yang diperlukan yang membuktikan bahwa persyaratan ini telah dibaca dan dipahami.

Hakim Starr tidak dapat dihubungi untuk dimintai komentar.

Bukan masalah yang jarang terjadi

Catatan itu diterbitkan pada Selasa, Mei 30. Ini menyusul keputusan hakim di New York pada 26 Mei Perintah untuk Menunjukkan Penyebab [PDF] mengarahkan pengacara penggugat yang menggugat maskapai penerbangan Kolombia Avianca SA untuk menjelaskan mengapa mereka tidak boleh diberi sanksi karena โ€œmengutip kasus yang tidak ada.โ€

Pengacara penggugat telah mengakui dalam pernyataan tertulis bahwa mereka telah menyerahkan โ€œsalinan opini yudisial yang tidak ada ke pengadilan,โ€ dan โ€œmenggunakan notaris palsu dan curang.โ€

Pada dasarnya, pengacara menggunakan ChatGPT untuk mencari kasus-kasus sebelumnya, chat-bot menemukan kasus-kasus tersebut, dan para pengacara mengutip kasus-kasus tersebut dalam pengajuan seolah-olah kasus tersebut nyata. Tim kuasa hukum kemudian dipanggil oleh pihak pembela dan mengakui kesalahannya.

Hakim Kevin Castel, seperti yang Anda bayangkan, tidak terkesan. Dia mengarahkan kemarahannya kepada kuasa hukum penggugat di Mata v.Avianca, Inc. (1:22-cv-01461), yang menentang upaya pembelaan untuk menolak klaim cedera pribadi dengan mengutip Varghese v.South China Airlines Co Ltd, Shaboon v. Egyptair, dan Petersen v.Iran Air, di antara kasus-kasus pengadilan yang dibayangkan mesin.

Pendaftaran meminta komentar dari firma hukum penggugat, Levidow, Levidow dan Oberman, dan panggilan kami tidak dibalas.

Kami sudah sebelumnya tertulis tentang ChatGPT yang membuat obituari untuk orang yang masih hidup, hingga membuat URL untuk berita kematian di surat kabar yang tidak ada, jadi tidak mengherankan jika bot pembuat teks ini digunakan dalam kasus-kasus pengadilan. OpenAI memperingatkan sistemnya โ€œterkadang dapat menghasilkan informasi yang salah,โ€ yang tampaknya tidak terlalu serius mengingat kesiapan model tersebut untuk dengan percaya diri mengeluarkan informasi yang salah.

Karena surat sumpah [PDF], pengacara yang melanggar mengatakan dia โ€œsangat menyesal telah menggunakan kecerdasan buatan generatif untuk melengkapi penelitian hukum yang dilakukan di sini dan tidak akan pernah melakukannya di masa depan tanpa verifikasi mutlak atas keasliannya.โ€

Meskipun kasus di New York tampaknya merupakan kasus kegagalan litigasi berbasis AI pertama yang menarik perhatian publik, namun ada beberapa kasus yang terjadi klaim lain kutipan kasus palsu telah terjadi.

Stephen Wu, pemegang saham Silicon Valley Law Group dan ketua American Bar Association's Institut Nasional Kecerdasan Buatan dan Robotika, Mengatakan Pendaftaran Meskipun dia tidak mengetahui contoh-contoh perbincangan tentang AI selain kasus di New York, dia memperkirakan masih ada kasus lain.

Aturan adalah aturan

Ketika ditanya apakah pengacara harus mengetahui lebih baik atau apakah inovasi AI generatif dapat meringankan situasi ini, Wu dengan tegas menjawab.

โ€œTidak ada alasan dalam buku saya,โ€ kata Wu. โ€œAda aturan perilaku profesional dan aturan tersebut mengatakan bahwa jika Anda akan mendelegasikan tanggung jawab apa pun atas suatu masalah hukum, Anda mempunyai kewajiban untuk mengawasi orang-orang yang Anda delegasikan masalah tersebut.โ€

Wu mengatakan aturan tersebut dimaksudkan untuk diterapkan pada paralegal atau asisten, tetapi harus berlaku untuk AI generatif.

Tidak ada alasan dalam buku saya

โ€œSaya membaca bahwa, di era kecerdasan buatan generatif, jika Anda mendelegasikan sesuatu ke kecerdasan buatan, Anda perlu mengawasi kecerdasan buatan tersebut dan memeriksa hasilnya untuk memastikan bahwa kecerdasan tersebut memenuhi standar kompetensi yang dibutuhkan oleh pengacara. untuk bertemu,โ€ jelasnya.

Wu mengatakan ada peran alat AI dalam undang-undang, namun peran tersebut harus berada di bawah seseorang. Dia berharap AI generatif akan terbukti lebih berguna untuk tugas-tugas seperti menghasilkan kontrak, di mana terdapat lebih banyak ruang untuk kata-kata dan interpretasi yang bervariasi. Dalam pengajuan ke pengadilan, katanya, โ€œtaruhannya agak lebih tinggi karena Anda harus memberi titik pada setiap huruf 'i' dan mencoret setiap 't'.โ€

Dia juga yakin persyaratan sertifikasi hakim Texas dapat diterapkan secara lebih luas.

โ€œPerintah tetap hakim mengenai sertifikasi yang tidak hanya mengandalkan AI generatif dapat menjadi peraturan lokal di pengadilan tertentu,โ€ kata Wu.

โ€œDan menurut saya komite penasihat Peraturan Federal dan negara bagian yang setara mungkin ingin mengubah aturan prosedur. Misalnya, konsep standing order hakim Texas yang menyatakan tidak menggunakan AI generatif atau setidaknya memeriksa sumber nyata dapat sesuai dengan Peraturan Federal tentang Prosedur Perdata 11(b).โ€

American Bar Association pada pertemuan tengah tahunnya di bulan Februari mengadopsi hal ini sebuah resolusi [PDF] menyerukan organisasi-organisasi yang mengembangkan, merancang, dan menerapkan sistem AI untuk memastikan bahwa orang-orang mengawasi model-model tersebut, bahwa individu dan organisasi bertanggung jawab atas kerugian yang disebabkan oleh jaringan saraf dan sejenisnya, dan bahwa pengembang sistem ini menerapkannya dengan cara yang yang transparan dan dapat diaudit serta tetap menghormati kekayaan intelektual. Semoga beruntung.

Wu mengatakan kebutuhan untuk mengatasi dampak perubahan teknologi terhadap hukum muncul sekitar satu dekade lalu Proyek etika 20/20 ABA. โ€œAntara lain membahas bagaimana tugas advokat terhadap kompetensi memerlukan kompetensi dalam memahami teknologi, serta kaitannya dengan praktik hukum dan pemanfaatan teknologi dalam praktik hukum,โ€ ujarnya.

Wu mengharapkan adanya diskusi lebih lanjut mengenai peran AI generatif dalam undang-undang tersebut. โ€œSaya mengantisipasi bahwa kita harus memiliki sedikit komite yang mengerjakan hal itu, untuk mencoba menghasilkan perubahan pada aturan model ABA,โ€ katanya. ยฎ

tempat_img

Intelijen Terbaru

tempat_img