OpenAI разом із лідерами галузі, зокрема Amazon, Anthropic, Civitai, Google, Meta, Metaphysic, Microsoft, Mistral AI та Stability AI, взяли на себе зобов’язання впроваджувати надійні заходи безпеки дітей у розробці, розгортанні та підтримці генеративних технологій ШІ, як це сформульовано в принципи Safety by Design. Ця ініціатива, очолювана в колючка, неприбуткова організація, яка займається захистом дітей від сексуального насильства, і Усі технології — це люди, організація, яка займається вирішенням технологічних і складних проблем суспільства, має на меті пом’якшити ризики, які створює для дітей генеративний ШІ. Застосовуючи комплексні принципи безпеки за проектом, OpenAI та наші колеги гарантують, що безпека дітей є пріоритетом на кожному етапі розробки ШІ. На сьогоднішній день ми доклали значних зусиль, щоб звести до мінімуму потенціал наших моделей для створення вмісту, який завдає шкоди дітям, встановили вікові обмеження для ChatGPT і активно співпрацювали з Національним центром у справах зниклих і експлуатованих дітей (NCMEC), Tech Coalition та іншими державними органами. та зацікавлені сторони галузі щодо питань захисту дітей та вдосконалення механізмів звітності.
У рамках цих зусиль Safety by Design ми зобов’язуємося:
-
Розвивати: Розробляйте, створюйте та навчайте генеративні моделі ШІ
які активно усувають ризики для безпеки дітей.-
Відповідально ставтеся до наших навчальних наборів даних, виявляйте та видаляйте сексуальні дані дітей
матеріали насильства (CSAM) і матеріали сексуальної експлуатації дітей (CSEM) від
дані навчання та повідомляти про будь-які підтверджені випадки сексуального сексуального насильства відповідному
влада -
Включіть цикли зворотного зв’язку та ітераційні стратегії стрес-тестування
наш процес розвитку. - Розгортайте рішення для боротьби із зловживаннями.
-
Відповідально ставтеся до наших навчальних наборів даних, виявляйте та видаляйте сексуальні дані дітей
-
Розгортання: Випуск і розповсюдження генеративних моделей AI після
вони були навчені та оцінені щодо безпеки дітей, забезпечення захисту
протягом усього процесу.-
Боротися з образливим вмістом і поведінкою, реагувати на них і включати
профілактичні заходи. - Заохочуйте розробників до безпеки за проектом.
-
Боротися з образливим вмістом і поведінкою, реагувати на них і включати
-
підтримуйте: Підтримуйте безпеку моделі та платформи, продовжуючи
активно розуміти ризики для безпеки дитини та реагувати на них.-
Прагнемо видалити з нашого сайту новий AIG-CSAM, створений зловмисниками
платформи. - Інвестуйте в дослідження та майбутні технологічні рішення.
- Боріться з CSAM, AIG-CSAM і CSEM на наших платформах.
-
Прагнемо видалити з нашого сайту новий AIG-CSAM, створений зловмисниками
Це зобов’язання знаменує собою важливий крок у запобіганні неправомірному використанню технологій штучного інтелекту для створення або поширення матеріалів сексуального насильства над дітьми (AIG-CSAM) та інших форм сексуального шкоди дітям. У рамках робочої групи ми також погодилися випускати оновлення прогресу щороку.
- Розповсюдження контенту та PR на основі SEO. Отримайте посилення сьогодні.
- PlatoData.Network Vertical Generative Ai. Додайте собі сили. Доступ тут.
- PlatoAiStream. Web3 Intelligence. Розширення знань. Доступ тут.
- ПлатонЕСГ. вуглець, CleanTech, Енергія, Навколишнє середовище, Сонячна, Поводження з відходами. Доступ тут.
- PlatoHealth. Розвідка про біотехнології та клінічні випробування. Доступ тут.
- джерело: https://openai.com/blog/child-safety-adopting-sbd-principles