Generativ dataintelligens

OpenAI:s engagemang för barnsäkerhet: anta principer för säkerhet genom design

Datum:

OpenAI, tillsammans med branschledare inklusive Amazon, Anthropic, Civitai, Google, Meta, Metaphysic, Microsoft, Mistral AI och Stability AI, har förbundit sig att implementera robusta barnsäkerhetsåtgärder i utvecklingen, implementeringen och underhållet av generativ AI-teknik som artikuleras i Safety by Design-principerna. Detta initiativ, ledd av Tagg, en ideell organisation dedikerad till att försvara barn från sexuella övergrepp, och All teknik är mänsklig, en organisation dedikerad till att ta itu med teknik och samhällets komplexa problem, syftar till att minska riskerna generativ AI utgör för barn. Genom att anta omfattande Safety by Design-principer säkerställer OpenAI och våra kollegor att barnsäkerhet prioriteras i varje steg i utvecklingen av AI. Hittills har vi gjort betydande ansträngningar för att minimera potentialen för våra modeller att generera innehåll som skadar barn, sätta åldersbegränsningar för ChatGPT och aktivt engagera oss med National Center for Missing and Exploited Children (NCMEC), Tech Coalition och andra myndigheter och branschaktörer om barnskyddsfrågor och förbättringar av rapporteringsmekanismer. 

Som en del av denna Safety by Design-satsning åtar vi oss att:

  1. Utveckla: Utveckla, bygga och träna generativa AI-modeller
    som proaktivt tar itu med barnsäkerhetsrisker.

    • Ansvarsfullt anskaffa våra träningsdatauppsättningar, upptäcka och ta bort sexuella barn
      övergreppsmaterial (CSAM) och material för sexuellt utnyttjande av barn (CSEM) från
      utbildningsdata och rapportera eventuella bekräftade CSAM till relevant
      myndigheterna.
    • Inkludera feedbackloopar och iterativa stressteststrategier i
      vår utvecklingsprocess.
    • Implementera lösningar för att ta itu med motstridigt missbruk.
  2. Implementera: Släpp och distribuera generativa AI-modeller efter
    de har utbildats och utvärderats för barnsäkerhet och ger skydd
    under hela processen.

    • Bekämpa och reagera på kränkande innehåll och beteende, och införliva
      förebyggande insatser.
    • Uppmuntra utvecklarnas ägande i säkerhet genom design.
  3. Upprätthålla: Upprätthåll modell- och plattformssäkerhet genom att fortsätta
    att aktivt förstå och reagera på barnsäkerhetsrisker.

    • Engagerad i att ta bort nya AIG-CSAM genererade av dåliga skådespelare från vår
      plattformen. 
    • Investera i forskning och framtida tekniska lösningar.
    • Kämpa mot CSAM, AIG-CSAM och CSEM på våra plattformar.

Detta åtagande markerar ett viktigt steg för att förhindra missbruk av AI-teknik för att skapa eller sprida material för sexuella övergrepp mot barn (AIG-CSAM) och andra former av sexuell skada mot barn. Som en del av arbetsgruppen har vi också kommit överens om att släppa framstegsuppdateringar varje år.

plats_img

Senaste intelligens

plats_img

Chatta med oss

Hallå där! Hur kan jag hjälpa dig?