Генеративный анализ данных

Опыт метавселенной должен иметь смысл, говорит Стивенсон

Дата:

Федеральный судья Техаса постановил, что контент, созданный ИИ, не должен использоваться для аргументации в суде, и что такая информация должна быть заявлена ​​и проверена человеком.

Решение судьи Брантли Старра было принято после того, как один адвокат, Стивен Шварц, на прошлой неделе разрешил ChatGPT OpenAI «дополнить» его юридические исследования, предоставив ему шесть дел и соответствующие прецеденты. Все случаи были неправдой и были полностью «галлюцинированы» чат-ботом.

Читайте также: Фальшивые цитаты ChatGPT поставили американского юриста в тупик

Фиаско получило широкое освещение, оставив Шварца с «сожалениями». Другим юристам, которые, возможно, подумывали о том, чтобы попробовать этот трюк, теперь придется дважды подумать, поскольку судья Старр положил этому конец.

Судья Старр также добавил требование, чтобы любой адвокат, который появляется в его зале суда, заявлял, что «никакая часть документов не была составлена ​​с помощью генеративного искусственного интеллекта», или, если это так, что она была проверена «человеком».

Судья Старр устанавливает закон

Выдающийся судья установил особые правила для своего зала суда, как и другие судьи, и недавно добавил Обязательная сертификация в отношении генеративного искусственного интеллекта.

В нем говорится, что: «Все адвокаты, предстающие перед судом, должны подать в реестр сертификат, удостоверяющий, что ни одна часть документа не была составлена ​​с помощью генеративного искусственного интеллекта (например, ChatGPT, Harvey.AI или Гугл бард) или что любой язык, составленный генеративным искусственным интеллектом, был проверен на точность с использованием печатных репортеров или традиционных юридических баз данных человеком».

Прилагается форма для подписи юристов, в которой отмечается, что «данный запрет распространяется на цитаты, цитаты, перефразированные утверждения и юридический анализ».

В соответствии с отчету TechCrunch, резюме — одна из сильных сторон ИИ, а поиск и обобщение прецедентов или предыдущих дел — это то, что рекламируется как потенциально полезное в юридической работе. Таким образом, это решение может стать важным фактором в работе над ИИ.

Требование сертификации включает довольно хорошо информированное и убедительное объяснение ее необходимости.

В нем говорится: «Эти платформы невероятно эффективны и имеют множество применений в законе: оформление разводов, запросы на раскрытие информации, предполагаемые ошибки в документах, ожидаемые вопросы во время устных прений.

«Но юридический брифинг не входит в их число. Вот почему.

«Эти платформы в их нынешнем состоянии склонны к галлюцинациям и предвзятости», — говорится в части сертификата.

Это также объясняет, что при галлюцинациях ИИ склонен просто выдумывать вещи — даже цитаты и цитаты. В то время как другой вопрос касается надежности или предвзятости.

Чат-боты не дают присяги

В сертификате также отмечается, что, хотя адвокаты дают клятву отказаться от своих личных предубеждений, предубеждений и убеждений, чтобы добросовестно соблюдать закон и представлять своих клиентов, генеративный ИИ — это программа, разработанная людьми, которым не нужно было давать такую ​​клятву.

Что касается Шварца, он сказал в письме под присягой, что «не знал о возможности того, что его (ChatGPT) содержание может быть ложным».

Он добавил, что «очень сожалеет» об использовании генеративного ИИ и будет «дополнять» его использование абсолютной осторожностью и проверкой в ​​будущем, заявив также, что он никогда не использовал ChatGPT до этого случая.

Другая сторона ChatGPT

ChatGPT, запущенный в ноябре прошлого года, представляет собой большую языковую модель, разработанную OpenAI. Чат-бот на основе искусственного интеллекта обучен миллиардам наборов данных из Интернета и может выполнять множество задач, таких как генерация текста и перевод языков.

Несмотря на то, что ChatGPT стал вирусным и спровоцировал ожесточенную гонку ИИ, у ChatGPT есть свои недостатки — он может галлюцинировать и ввел в заблуждение Шварца, который представлял интересы Роберто Маты в судебном процессе против колумбийской авиакомпании Avianca. По сути, чат-бот цитировал случаи, которых не существовало.

Но когда Шварц спросил ChatGPT, если один из предполагаемых случаев был реальным случаем, он ответил: «Да, (это) реальный случай». Когда его спросили об источниках, чат-бот сказал Шварцу, что дело можно найти «в базах данных юридических исследований, таких как Westlaw и LexisNexis».

Об этом стало известно после того, как адвокат противоположной стороны пометил цитаты, сгенерированные ChatGPT, как фальшивые.

Судья окружного суда США Кевин Кастель подтвердил существование шести из них и потребовал от Шварца объяснений.

«Шесть из представленных дел представляются фиктивными судебными решениями с фиктивными цитатами и фиктивными внутренними цитатами», — написал судья Кастель в постановлении от 4 мая.

Spot_img

Последняя разведка

Spot_img

Чат с нами

Всем привет! Могу я чем-нибудь помочь?