OpenAI ร่วมกับผู้นำในอุตสาหกรรม เช่น Amazon, Anthropic, Civitai, Google, Meta, Metaphysic, Microsoft, Mistral AI และ Stability AI มีความมุ่งมั่นที่จะนำมาตรการด้านความปลอดภัยของเด็กมาใช้ในการพัฒนา การปรับใช้ และการบำรุงรักษาเทคโนโลยี generative AI ตามที่ได้ระบุไว้ใน หลักความปลอดภัยโดยการออกแบบ ความคิดริเริ่มนี้นำโดย หนามซึ่งเป็นองค์กรไม่แสวงหาผลกำไรที่อุทิศตนเพื่อปกป้องเด็กจากการล่วงละเมิดทางเพศ และ เทคโนโลยีทั้งหมดคือมนุษย์ซึ่งเป็นองค์กรที่อุทิศตนเพื่อจัดการกับเทคโนโลยีและปัญหาที่ซับซ้อนของสังคม โดยมีเป้าหมายเพื่อลดความเสี่ยงที่ AI กำเนิดจะเกิดขึ้นกับเด็กๆ ด้วยการนำหลักความปลอดภัยโดยการออกแบบที่ครอบคลุมมาใช้ OpenAI และเพื่อนร่วมงานของเราจึงมั่นใจได้ว่าความปลอดภัยของเด็กจะได้รับการจัดลำดับความสำคัญในทุกขั้นตอนในการพัฒนา AI จนถึงปัจจุบัน เราได้ใช้ความพยายามอย่างมากในการลดโอกาสที่โมเดลของเราจะสร้างเนื้อหาที่เป็นอันตรายต่อเด็ก กำหนดข้อจำกัดด้านอายุสำหรับ ChatGPT และมีส่วนร่วมอย่างแข็งขันกับ National Center for Missing and Exploited Children (NCMEC), Tech Coalition และรัฐบาลอื่นๆ และผู้มีส่วนได้ส่วนเสียในอุตสาหกรรมเกี่ยวกับประเด็นการคุ้มครองเด็กและการปรับปรุงกลไกการรายงาน
ในฐานะส่วนหนึ่งของความพยายามด้านความปลอดภัยด้วยการออกแบบนี้ เรามุ่งมั่นที่จะ:
-
พัฒนา: พัฒนา สร้าง และฝึกอบรมโมเดล AI เชิงสร้างสรรค์
ที่จัดการกับความเสี่ยงด้านความปลอดภัยของเด็กในเชิงรุก-
จัดหาชุดข้อมูลการฝึกอบรมของเราอย่างมีความรับผิดชอบ ตรวจจับและลบเรื่องเพศของเด็ก
สื่อการละเมิด (CSAM) และสื่อการแสวงหาประโยชน์ทางเพศจากเด็ก (CSEM) จาก
ข้อมูลการฝึกอบรม และรายงาน CSAM ที่ได้รับการยืนยันไปยังผู้ที่เกี่ยวข้อง
เจ้าหน้าที่ -
รวมลูปคำติชมและกลยุทธ์การทดสอบความเครียดซ้ำๆ เข้าด้วยกัน
กระบวนการพัฒนาของเรา - ปรับใช้โซลูชันเพื่อจัดการกับการใช้ในทางที่ผิดของฝ่ายตรงข้าม
-
จัดหาชุดข้อมูลการฝึกอบรมของเราอย่างมีความรับผิดชอบ ตรวจจับและลบเรื่องเพศของเด็ก
-
ปรับใช้: เผยแพร่และจัดจำหน่ายโมเดล AI เชิงสร้างสรรค์หลังจากนั้น
พวกเขาได้รับการฝึกอบรมและประเมินความปลอดภัยของเด็กและให้ความคุ้มครอง
ตลอดกระบวนการ-
ต่อสู้และตอบสนองต่อเนื้อหาและพฤติกรรมที่ไม่เหมาะสม และรวมเข้าด้วยกัน
ความพยายามในการป้องกัน - ส่งเสริมให้นักพัฒนาเป็นเจ้าของในด้านความปลอดภัยด้วยการออกแบบ
-
ต่อสู้และตอบสนองต่อเนื้อหาและพฤติกรรมที่ไม่เหมาะสม และรวมเข้าด้วยกัน
-
การรักษา: รักษาความปลอดภัยของโมเดลและแพลตฟอร์มโดยดำเนินการต่อ
เพื่อทำความเข้าใจและตอบสนองต่อความเสี่ยงด้านความปลอดภัยของเด็กอย่างกระตือรือร้น-
มุ่งมั่นที่จะลบ AIG-CSAM ใหม่ที่สร้างขึ้นโดยผู้ไม่ประสงค์ดีออกจากเรา
เวที - ลงทุนในการวิจัยและโซลูชั่นเทคโนโลยีแห่งอนาคต
- ต่อสู้กับ CSAM, AIG-CSAM และ CSEM บนแพลตฟอร์มของเรา
-
มุ่งมั่นที่จะลบ AIG-CSAM ใหม่ที่สร้างขึ้นโดยผู้ไม่ประสงค์ดีออกจากเรา
ความมุ่งมั่นนี้ถือเป็นก้าวสำคัญในการป้องกันการใช้เทคโนโลยี AI ในทางที่ผิดเพื่อสร้างหรือเผยแพร่สื่อที่มีการล่วงละเมิดทางเพศเด็ก (AIG-CSAM) และรูปแบบอื่น ๆ ของการล่วงละเมิดทางเพศต่อเด็ก ในฐานะส่วนหนึ่งของคณะทำงาน เรายังตกลงที่จะเผยแพร่การอัปเดตความคืบหน้าทุกปี
- เนื้อหาที่ขับเคลื่อนด้วย SEO และการเผยแพร่ประชาสัมพันธ์ รับการขยายวันนี้
- PlatoData.Network Vertical Generative Ai เพิ่มพลังให้กับตัวเอง เข้าถึงได้ที่นี่.
- เพลโตไอสตรีม. Web3 อัจฉริยะ ขยายความรู้ เข้าถึงได้ที่นี่.
- เพลโตESG. คาร์บอน, คลีนเทค, พลังงาน, สิ่งแวดล้อม แสงอาทิตย์, การจัดการของเสีย. เข้าถึงได้ที่นี่.
- เพลโตสุขภาพ เทคโนโลยีชีวภาพและข่าวกรองการทดลองทางคลินิก เข้าถึงได้ที่นี่.
- ที่มา: https://openai.com/blog/child-safety-adopting-sbd-principles