Trí thông minh dữ liệu tạo

Thẩm phán Texas yêu cầu luật sư tuyên bố các tài liệu do AI tạo ra

Ngày:

Sau khi một luật sư ở New York thừa nhận vào tuần trước rằng đã trích dẫn các vụ án không tồn tại do phần mềm ChatGPT của OpenAI gây ảo giác, một thẩm phán ở Texas đã chỉ đạo các luật sư tại tòa án của mình chứng nhận rằng họ không sử dụng trí tuệ nhân tạo để chuẩn bị các tài liệu pháp lý của mình – hoặc rằng nếu họ làm như vậy thì đầu ra đã được con người xác minh.

“Những nền tảng này ở trạng thái hiện tại dễ bị ảo giác và sai lệch,” đọc một lưu ý từ Thẩm phán Brantley Starr của Quận Bắc Texas. “Khi bị ảo giác, họ bịa ra mọi thứ – thậm chí cả những câu trích dẫn và trích dẫn.

“Vấn đề khác là độ tin cậy hoặc sai lệch. Trong khi các luật sư tuyên thệ gạt bỏ những định kiến, thành kiến ​​và niềm tin cá nhân của họ để trung thành tuân thủ luật pháp và đại diện cho khách hàng của họ, thì trí tuệ nhân tạo có tính sáng tạo là sản phẩm của chương trình do con người nghĩ ra, những người không cần phải tuyên thệ như vậy.

“Như vậy, các hệ thống này không trung thành với bất kỳ khách hàng nào, nhà nước pháp quyền, luật pháp và Hiến pháp Hoa Kỳ (hoặc sự thật, như đã đề cập ở trên). Không bị ràng buộc bởi bất kỳ ý thức trách nhiệm, danh dự hay công lý nào, các chương trình như vậy hoạt động theo mã máy tính chứ không phải niềm tin, dựa trên lập trình hơn là nguyên tắc. Bất kỳ bên nào tin rằng một nền tảng có độ chính xác và độ tin cậy cần thiết cho việc tóm tắt pháp lý đều có thể rời đi và giải thích lý do.”

Ghi chú của thẩm phán tiếp tục giải thích rằng tòa án của ông sẽ bác bỏ bất kỳ hồ sơ nào từ luật sư không nộp chứng nhận bắt buộc chứng minh rằng các điều khoản này đã được đọc và hiểu.

Thẩm phán Starr không đưa ra bình luận nào.

Không phải là một vấn đề hiếm gặp

Ghi chú đã được xuất bản trên Thứ ba, tháng 5 30. Nó diễn ra sau lời tuyên án của một thẩm phán New York vào ngày 26 tháng XNUMX Đặt hàng để hiển thị nguyên nhân [PDF] chỉ đạo luật sư cho nguyên đơn kiện hãng hàng không Colombia Avianca SA để giải thích lý do tại sao họ không nên bị xử phạt vì “trích dẫn các trường hợp không tồn tại”.

Các luật sư của nguyên đơn đã thừa nhận trong một bản khai rằng họ đã nộp “tòa án các bản sao của các ý kiến ​​tư pháp không tồn tại” và đã “sử dụng công chứng sai trái và gian lận”.

Về cơ bản, các luật sư đã sử dụng ChatGPT để tra cứu các trường hợp trước đó, chat-bot đã phát minh ra những trường hợp đó và các luật sư đã trích dẫn chúng trong hồ sơ như thể chúng có thật. Nhóm pháp lý sau đó đã bị người bào chữa triệu tập và thừa nhận lỗi của mình.

Giám khảo Kevin Castel, như bạn có thể tưởng tượng, không mấy ấn tượng. Anh ta hướng sự giận dữ của mình tới các luật sư của nguyên đơn trong Mata kiện Avianca, Inc. (1:22-cv-01461), người đã phản đối nỗ lực bào chữa bác bỏ yêu cầu bồi thường thương tích cá nhân bằng cách trích dẫn Varghese v. South China Airlines Co Ltd, Shaboon kiện EgyptairPetersen kiện Iran Air, trong số các phiên tòa do máy tưởng tượng khác.

Đăng ký đã yêu cầu công ty luật của nguyên đơn, Levidow, Levidow và Oberman bình luận, và cuộc gọi của chúng tôi đã không được trả lời.

Chúng tôi đã viết trước đây về ChatGPT phát minh ra cáo phó cho người đang sống, đi xa hơn là tạo URL cho các cáo phó trên báo không tồn tại, vì vậy không có gì ngạc nhiên khi bot tạo văn bản tạo nên các vụ kiện tại tòa. OpenAI cảnh báo hệ thống của họ “đôi khi có thể tạo ra thông tin không chính xác”, điều này có vẻ nhẹ do mô hình sẵn sàng tự tin đưa ra thông tin sai.

Trong đó lời tuyên thệ [PDF], luật sư vi phạm cho biết ông “rất hối hận vì đã sử dụng trí tuệ nhân tạo tổng hợp để bổ sung cho nghiên cứu pháp lý được thực hiện ở đây và sẽ không bao giờ làm như vậy trong tương lai nếu không có xác minh tuyệt đối về tính xác thực của nó”.

Mặc dù vụ kiện ở New York dường như là vụ kiện tụng dựa trên AI đầu tiên thu hút sự chú ý của công chúng, nhưng vẫn có tuyên bố khác trích dẫn trường hợp giả mạo đã xảy ra.

Stephen Wu, cổ đông của Tập đoàn Luật Thung lũng Silicon và chủ tịch Hiệp hội Luật sư Hoa Kỳ Viện trí tuệ nhân tạo và người máy quốc gia, kể lại Đăng ký rằng mặc dù anh ấy không biết về các trường hợp kết hợp AI ngoài vụ án ở New York, nhưng anh ấy hy vọng sẽ có những trường hợp khác.

Quy định là quy tắc

Khi được hỏi liệu các luật sư có nên biết rõ hơn hay liệu tính mới của AI thế hệ mới bằng cách nào đó có thể giảm thiểu tình hình hay không, Wu đã khẳng định rõ ràng.

“Không có lời bào chữa nào trong cuốn sách của tôi cả,” Wu nói. “Có những quy tắc ứng xử chuyên nghiệp và trong đó quy định rằng nếu bạn định giao phó bất kỳ trách nhiệm nào về một vấn đề pháp lý thì bạn có nghĩa vụ giám sát những người mà bạn đang giao phó vấn đề đó.”

Wu cho biết những quy tắc đó nhằm áp dụng cho một trợ lý pháp lý hoặc trợ lý, nhưng nên áp dụng cho AI tổng quát.

Không có lý do bào chữa trong cuốn sách của tôi

“Tôi đọc được rằng, trong thời đại trí tuệ nhân tạo sáng tạo, có nghĩa là nếu bạn ủy quyền điều gì đó cho trí tuệ nhân tạo, bạn cần giám sát trí tuệ nhân tạo đó và kiểm tra kết quả của nó để đảm bảo rằng nó đáp ứng tiêu chuẩn năng lực mà luật sư yêu cầu. để gặp nhau,” anh giải thích.

Wu cho biết có vai trò của các công cụ AI trong luật, nhưng vai trò đó phải phụ thuộc vào con người. Ông cho biết ông kỳ vọng AI sáng tạo sẽ tỏ ra hữu ích hơn cho các nhiệm vụ như tạo hợp đồng, nơi có nhiều chỗ hơn cho cách diễn đạt và giải thích đa dạng. Trong hồ sơ tòa án, ông nói, “tiền đặt cược sẽ cao hơn một chút vì bạn phải chấm từng chữ ‘i’ và gạch chéo từng chữ ‘t’.”

Ông cũng tin rằng yêu cầu về chứng chỉ của thẩm phán Texas có thể được áp dụng rộng rãi hơn.

Wu nói: “Lệnh thường trực của thẩm phán về việc chứng nhận không chỉ dựa vào AI có thể tạo ra có thể trở thành quy định địa phương tại các tòa án cụ thể.

“Và đối với tôi, có vẻ như ủy ban cố vấn Quy tắc Liên bang và các cơ quan tương đương của tiểu bang có thể muốn thay đổi các quy tắc thủ tục. Ví dụ: khái niệm về trật tự thường trực của thẩm phán Texas về việc chứng nhận không sử dụng AI tạo ra hoặc ít nhất là kiểm tra dựa trên các nguồn thực có thể phù hợp với Quy tắc tố tụng dân sự liên bang 11(b).”

Hiệp hội Luật sư Hoa Kỳ tại cuộc họp giữa năm vào tháng Hai đã thông qua một nghị quyết [PDF] kêu gọi các tổ chức phát triển, thiết kế và triển khai hệ thống AI để đảm bảo rằng mọi người giám sát các mô hình đó, các cá nhân và tổ chức phải chịu trách nhiệm về những tác hại do mạng thần kinh và những thứ tương tự gây ra, đồng thời các nhà phát triển của các hệ thống này triển khai chúng theo cách điều đó minh bạch và có thể kiểm tra được đồng thời tôn trọng quyền sở hữu trí tuệ. Chúc may mắn.

Wu cho biết nhu cầu giải quyết những thay đổi công nghệ ảnh hưởng đến luật pháp đã xuất hiện khoảng một thập kỷ trước trong Dự án đạo đức 20/20 của ABA. Ông nói: “Trong số những điều khác, nó nói về nghĩa vụ thẩm quyền của luật sư đòi hỏi năng lực hiểu biết về công nghệ như thế nào và nó liên quan như thế nào đến việc hành nghề luật cũng như khi sử dụng công nghệ để hành nghề luật”.

Wu mong đợi cuộc thảo luận sâu hơn về vai trò của AI tạo ra luật pháp. Ông nói: “Tôi dự đoán rằng chúng ta sẽ phải có một chút ủy ban làm việc về vấn đề đó, để cố gắng đưa ra những thay đổi đối với các quy tắc của mô hình ABA”. ®

tại chỗ_img

Tin tức mới nhất

tại chỗ_img