Федеральный судья Техаса постановил, что контент, созданный ИИ, не должен использоваться для аргументации в суде, и что такая информация должна быть заявлена и проверена человеком.
Решение судьи Брантли Старра было принято после того, как один адвокат, Стивен Шварц, на прошлой неделе разрешил ChatGPT OpenAI «дополнить» его юридические исследования, предоставив ему шесть дел и соответствующие прецеденты. Все случаи были неправдой и были полностью «галлюцинированы» чат-ботом.
Читайте также: Фальшивые цитаты ChatGPT поставили американского юриста в тупик
Фиаско получило широкое освещение, оставив Шварца с «сожалениями». Другим юристам, которые, возможно, подумывали о том, чтобы попробовать этот трюк, теперь придется дважды подумать, поскольку судья Старр положил этому конец.
Судья Старр также добавил требование, чтобы любой адвокат, который появляется в его зале суда, заявлял, что «никакая часть документов не была составлена с помощью генеративного искусственного интеллекта», или, если это так, что она была проверена «человеком».
Судья Старр устанавливает закон
Выдающийся судья установил особые правила для своего зала суда, как и другие судьи, и недавно добавил Обязательная сертификация в отношении генеративного искусственного интеллекта.
В нем говорится, что: «Все адвокаты, предстающие перед судом, должны подать в реестр сертификат, удостоверяющий, что ни одна часть документа не была составлена с помощью генеративного искусственного интеллекта (например, ChatGPT, Harvey.AI или Гугл бард) или что любой язык, составленный генеративным искусственным интеллектом, был проверен на точность с использованием печатных репортеров или традиционных юридических баз данных человеком».
Прилагается форма для подписи юристов, в которой отмечается, что «данный запрет распространяется на цитаты, цитаты, перефразированные утверждения и юридический анализ».
В соответствии с отчету TechCrunch, резюме — одна из сильных сторон ИИ, а поиск и обобщение прецедентов или предыдущих дел — это то, что рекламируется как потенциально полезное в юридической работе. Таким образом, это решение может стать важным фактором в работе над ИИ.
Требование сертификации включает довольно хорошо информированное и убедительное объяснение ее необходимости.
В нем говорится: «Эти платформы невероятно эффективны и имеют множество применений в законе: оформление разводов, запросы на раскрытие информации, предполагаемые ошибки в документах, ожидаемые вопросы во время устных прений.
«Но юридический брифинг не входит в их число. Вот почему.
«Эти платформы в их нынешнем состоянии склонны к галлюцинациям и предвзятости», — говорится в части сертификата.
Это также объясняет, что при галлюцинациях ИИ склонен просто выдумывать вещи — даже цитаты и цитаты. В то время как другой вопрос касается надежности или предвзятости.
Чат-боты не дают присяги
В сертификате также отмечается, что, хотя адвокаты дают клятву отказаться от своих личных предубеждений, предубеждений и убеждений, чтобы добросовестно соблюдать закон и представлять своих клиентов, генеративный ИИ — это программа, разработанная людьми, которым не нужно было давать такую клятву.
Что касается Шварца, он сказал в письме под присягой, что «не знал о возможности того, что его (ChatGPT) содержание может быть ложным».
Он добавил, что «очень сожалеет» об использовании генеративного ИИ и будет «дополнять» его использование абсолютной осторожностью и проверкой в будущем, заявив также, что он никогда не использовал ChatGPT до этого случая.
Другая сторона ChatGPT
ChatGPT, запущенный в ноябре прошлого года, представляет собой большую языковую модель, разработанную OpenAI. Чат-бот на основе искусственного интеллекта обучен миллиардам наборов данных из Интернета и может выполнять множество задач, таких как генерация текста и перевод языков.
Несмотря на то, что ChatGPT стал вирусным и спровоцировал ожесточенную гонку ИИ, у ChatGPT есть свои недостатки — он может галлюцинировать и ввел в заблуждение Шварца, который представлял интересы Роберто Маты в судебном процессе против колумбийской авиакомпании Avianca. По сути, чат-бот цитировал случаи, которых не существовало.
Но когда Шварц спросил ChatGPT, если один из предполагаемых случаев был реальным случаем, он ответил: «Да, (это) реальный случай». Когда его спросили об источниках, чат-бот сказал Шварцу, что дело можно найти «в базах данных юридических исследований, таких как Westlaw и LexisNexis».
Юрист использовал ChatGPT для проведения «юридических исследований» и сослался на ряд несуществующих дел в иске, и теперь у него большие проблемы с судьей 🤣 pic.twitter.com/AJSE7Ts7W7
— Дэниел Фельдман (@d_feldman) 27 мая 2023
Об этом стало известно после того, как адвокат противоположной стороны пометил цитаты, сгенерированные ChatGPT, как фальшивые.
Судья окружного суда США Кевин Кастель подтвердил существование шести из них и потребовал от Шварца объяснений.
«Шесть из представленных дел представляются фиктивными судебными решениями с фиктивными цитатами и фиктивными внутренними цитатами», — написал судья Кастель в постановлении от 4 мая.
- SEO-контент и PR-распределение. Получите усиление сегодня.
- ПлатонАйСтрим. Анализ данных Web3. Расширение знаний. Доступ здесь.
- Чеканка будущего с Эдриенн Эшли. Доступ здесь.
- Покупайте и продавайте акции компаний PREIPO® с помощью PREIPO®. Доступ здесь.
- Источник: https://metanews.com/metaverse-experiences-must-be-worth-having-says-stephenson/