Генеративный анализ данных

Google, Meta и OpenAI объединяются с другими гигантами отрасли против изображений искусственного насилия над детьми – расшифровать

Дата:

Чтобы бороться с распространением материалов о сексуальном насилии над детьми (CSAM), коалиция ведущих разработчиков генеративного искусственного интеллекта, в том числе Google, Meta и OpenAI, пообещала усилить барьеры вокруг новой технологии.

Группу объединили две некоммерческие организации: детская техническая группа Thorn и базирующаяся в Нью-Йорке All Tech is Human. Ранее известный как Фонд ДНК, Thorn был основан в 2012 году актерами Деми Мур и Эштоном Катчером.

Коллективное обещание было объявлено во вторник вместе с новым Отчет Торна пропаганда принципа «Безопасность за счет дизайна» при разработке генеративного ИИ, который предотвратит создание материалов о сексуальном насилии над детьми (CSAM) на протяжении всего жизненного цикла модели ИИ.

«Мы призываем все компании, разрабатывающие, внедряющие, поддерживающие и использующие генеративные технологии и продукты искусственного интеллекта, взять на себя обязательство принять эти принципы «Безопасность за счет дизайна» и продемонстрировать свою приверженность предотвращению создания и распространения CSAM, AIG-CSAM и других актов сексуального насилия над детьми. злоупотребления и эксплуатация», колючка говорится в заявлении.

AIG-CSAM — это CSAM, сгенерированный искусственным интеллектом, который, как показано в отчете, создать относительно легко.

Изображение, показывающее, как ИИ может искажать изображение.
Изображение: Торн

Торн разрабатывает инструменты и ресурсы, направленные на защиту детей от сексуального насилия и эксплуатации. В своем отчете о последствиях за 2022 год организация сообщила, что было обнаружено более 824,466 104 файлов, содержащих материалы о жестоком обращении с детьми. В прошлом году Торн сообщил, что только в США было зарегистрировано более XNUMX миллионов файлов с подозрением на CSAM.

Дипфейковая детская порнография, уже ставшая проблемой в Интернете, резко возросла после того, как генеративные модели ИИ стали общедоступными, а автономные модели ИИ, не нуждающиеся в распространении облачных сервисов, стали общедоступными. Темная паутина форумах.

По словам Торна, генеративный искусственный интеллект сегодня делает создание больших объемов контента проще, чем когда-либо прежде. Один-единственный детский хищник потенциально может создать огромные объемы материалов о сексуальном насилии над детьми (CSAM), включая адаптацию оригинальных изображений и видео в новый контент.

«Приток AIG-CSAM создает значительные риски для и без того обремененной налогами экосистемы безопасности детей, усугубляя проблемы, с которыми сталкиваются правоохранительные органы при выявлении и спасении существующих жертв насилия, а также масштабируя новые виктимизации большего числа детей», — отмечает Торн.

В отчете Торна изложен ряд принципов, которым будут следовать разработчики генеративного ИИ, чтобы предотвратить использование их технологий для создания детской порнографии, включая ответственный подход к подбору обучения. Наборы данных, включая петли обратной связи и стратегии стресс-тестирования, используя историю контента или «происхождение» с учетом состязательного злоупотребления, и ответственно размещая соответствующие модели ИИ.

Другие, подписавшиеся под залог, включают Microsoft, антропный, Мистраль ИИ, Amazon, Стабильность ИИ, Гражданский ИИи Метафизика, каждый из которых сегодня опубликовал отдельные заявления.

«Частью нашего идеала в Metaphysic является ответственное развитие в мире искусственного интеллекта, да, речь идет о расширении прав и возможностей, но речь идет и об ответственности», — сказал директор по маркетингу Metaphys Алехандро Лопес. Decrypt. «Мы быстро осознаем, что начинать и развивать это означает буквально защищать наиболее уязвимых членов нашего общества, то есть детей, и, к сожалению, самый темный конец этой технологии, которая используется для материалов о сексуальном насилии над детьми в форме глубокой фейковой порнографии. , это произошло».

Основанный в 2021 году, Метафизика приобрел известность в прошлом году после того, как выяснилось, что несколько голливудских звезд, в том числе Том Хэнкс, Октавия Спенсер и Энн Хэтэуэй, использовали технологию Metaphyc Pro для оцифровки характеристик своего сходства в попытке сохранить право собственности на черты, необходимые для обучения модели ИИ. .

OpenAI отказалась от дальнейших комментариев по поводу этой инициативы, вместо этого предоставив Decrypt публичное заявление руководителя отдела безопасности детей Челси Карлсон.

«Мы глубоко заботимся о безопасности и ответственном использовании наших инструментов, поэтому мы встроили в ChatGPT и DALL-E надежные ограждения и меры безопасности», — сказал Карлсон в своем сообщении. заявление. «Мы стремимся работать вместе с Thorn, All Tech is Human и более широким технологическим сообществом, чтобы поддерживать принципы «Безопасность благодаря дизайну» и продолжать нашу работу по снижению потенциального вреда для детей».

Decrypt обратился к другим членам Коалиции, но не сразу получил ответ.

«В Meta мы более десяти лет работали над обеспечением безопасности людей в Интернете. За это время мы разработали множество инструментов и функций, помогающих предотвращать потенциальный вред и бороться с ним, и по мере того, как хищники адаптировались, пытаясь обойти нашу защиту, мы тоже продолжали адаптироваться». Мета говорится в подготовленном заявлении.

«Во всех наших продуктах мы активно обнаруживаем и удаляем материалы CSAE с помощью комбинации технологии хеш-сопоставления, классификаторов искусственного интеллекта и отзывов людей». Googleнаписала в своем сообщении вице-президент по решениям доверия и безопасности Сьюзан Джаспер. «Наши политики и средства защиты предназначены для обнаружения всех видов CSAE, включая CSAM, созданный искусственным интеллектом. Когда мы выявляем эксплуататорский контент, мы удаляем его и предпринимаем соответствующие действия, которые могут включать в себя сообщение о нем в NCMEC».

В октябре британская наблюдательная группа The Фонд "Интернет-часы", предупредил, что созданные ИИ материалы о жестоком обращении с детьми могутподавлять' интернет.

Под редакцией Райан Одзава.

Будьте в курсе крипто-новостей, получайте ежедневные обновления на свой почтовый ящик.

Spot_img

Последняя разведка

Spot_img

Чат с нами

Всем привет! Могу я чем-нибудь помочь?