Generative Data Intelligence

Відданість OpenAI безпеці дітей: прийняття принципів безпеки за проектом

Дата:

OpenAI разом із лідерами галузі, зокрема Amazon, Anthropic, Civitai, Google, Meta, Metaphysic, Microsoft, Mistral AI та Stability AI, взяли на себе зобов’язання впроваджувати надійні заходи безпеки дітей у розробці, розгортанні та підтримці генеративних технологій ШІ, як це сформульовано в принципи Safety by Design. Ця ініціатива, очолювана в колючка, неприбуткова організація, яка займається захистом дітей від сексуального насильства, і Усі технології — це люди, організація, яка займається вирішенням технологічних і складних проблем суспільства, має на меті пом’якшити ризики, які створює для дітей генеративний ШІ. Застосовуючи комплексні принципи безпеки за проектом, OpenAI та наші колеги гарантують, що безпека дітей є пріоритетом на кожному етапі розробки ШІ. На сьогоднішній день ми доклали значних зусиль, щоб звести до мінімуму потенціал наших моделей для створення вмісту, який завдає шкоди дітям, встановили вікові обмеження для ChatGPT і активно співпрацювали з Національним центром у справах зниклих і експлуатованих дітей (NCMEC), Tech Coalition та іншими державними органами. та зацікавлені сторони галузі щодо питань захисту дітей та вдосконалення механізмів звітності. 

У рамках цих зусиль Safety by Design ми зобов’язуємося:

  1. Розвивати: Розробляйте, створюйте та навчайте генеративні моделі ШІ
    які активно усувають ризики для безпеки дітей.

    • Відповідально ставтеся до наших навчальних наборів даних, виявляйте та видаляйте сексуальні дані дітей
      матеріали насильства (CSAM) і матеріали сексуальної експлуатації дітей (CSEM) від
      дані навчання та повідомляти про будь-які підтверджені випадки сексуального сексуального насильства відповідному
      влада
    • Включіть цикли зворотного зв’язку та ітераційні стратегії стрес-тестування
      наш процес розвитку.
    • Розгортайте рішення для боротьби із зловживаннями.
  2. Розгортання: Випуск і розповсюдження генеративних моделей AI після
    вони були навчені та оцінені щодо безпеки дітей, забезпечення захисту
    протягом усього процесу.

    • Боротися з образливим вмістом і поведінкою, реагувати на них і включати
      профілактичні заходи.
    • Заохочуйте розробників до безпеки за проектом.
  3. підтримуйте: Підтримуйте безпеку моделі та платформи, продовжуючи
    активно розуміти ризики для безпеки дитини та реагувати на них.

    • Прагнемо видалити з нашого сайту новий AIG-CSAM, створений зловмисниками
      платформи. 
    • Інвестуйте в дослідження та майбутні технологічні рішення.
    • Боріться з CSAM, AIG-CSAM і CSEM на наших платформах.

Це зобов’язання знаменує собою важливий крок у запобіганні неправомірному використанню технологій штучного інтелекту для створення або поширення матеріалів сексуального насильства над дітьми (AIG-CSAM) та інших форм сексуального шкоди дітям. У рамках робочої групи ми також погодилися випускати оновлення прогресу щороку.

spot_img

Остання розвідка

spot_img

Зв'яжіться з нами!

Привіт! Чим я можу вам допомогти?