هوش داده های تولیدی

تعهد OpenAI به ایمنی کودکان: اتخاذ ایمنی با اصول طراحی

تاریخ:

OpenAI، در کنار رهبران صنعت از جمله Amazon، Anthropic، Civitai، Google، Meta، Metaphysic، Microsoft، Mistral AI و Stability AI، متعهد به اجرای اقدامات ایمنی قوی برای کودکان در توسعه، استقرار و نگهداری فناوری‌های هوش مصنوعی مولد است که در این مقاله بیان شده است. اصول ایمنی توسط طراحی این ابتکار به رهبری خار، یک سازمان غیرانتفاعی اختصاص داده شده به دفاع از کودکان در برابر سوء استفاده جنسی، و همه فناوری ها انسان هستندسازمانی که به مقابله با مشکلات پیچیده فناوری و جامعه اختصاص دارد، با هدف کاهش خطراتی که هوش مصنوعی مولد برای کودکان ایجاد می کند، است. با اتخاذ اصول جامع ایمنی با طراحی، OpenAI و همتایان ما تضمین می‌کنند که ایمنی کودک در هر مرحله از توسعه هوش مصنوعی در اولویت قرار دارد. تا به امروز، ما تلاش زیادی برای به حداقل رساندن پتانسیل مدل‌هایمان برای تولید محتوایی که به کودکان آسیب می‌رساند انجام داده‌ایم، محدودیت‌های سنی برای ChatGPT تعیین کرده‌ایم، و فعالانه با مرکز ملی کودکان گمشده و مورد بهره‌کشی (NCMEC)، ائتلاف فناوری، و سایر دولت‌ها تعامل برقرار کرده‌ایم. و ذینفعان صنعت در مورد مسائل مربوط به حمایت از کودکان و بهبود مکانیسم های گزارش دهی. 

به عنوان بخشی از این تلاش Safety by Design، ما متعهد می شویم که:

  1. توسعه: مدل های هوش مصنوعی مولد را توسعه، ساخت و آموزش دهید
    که به طور فعال خطرات ایمنی کودک را برطرف می کند.

    • مجموعه داده‌های آموزشی ما را مسئولانه منبع‌یابی کنید، جنسی کودک را شناسایی و حذف کنید
      مواد سوء استفاده (CSAM) و مواد استثمار جنسی کودکان (CSEM) از
      داده های آموزشی، و هر گونه CSAM تایید شده را به مربوطه گزارش دهید
      مسئولین.
    • حلقه های بازخورد و استراتژی های تکراری تست استرس را در خود بگنجانید
      روند توسعه ما
    • راه حل هایی را برای مقابله با سوء استفاده خصمانه بکار ببرید.
  2. استقرار: پس از انتشار و توزیع مدل های هوش مصنوعی مولد
    آنها برای ایمنی کودکان آموزش دیده و مورد ارزیابی قرار گرفته اند و از آنها محافظت می کنند
    در طول فرآیند

    • با محتوا و رفتار توهین‌آمیز مبارزه کنید و به آن پاسخ دهید و در آن شرکت کنید
      تلاش های پیشگیری
    • با طراحی، مالکیت توسعه‌دهنده را در ایمنی تشویق کنید.
  3. حفظ: با ادامه، ایمنی مدل و پلت فرم را حفظ کنید
    درک فعالانه و پاسخگویی به خطرات ایمنی کودک.

    • متعهد به حذف AIG-CSAM جدید تولید شده توسط بازیگران بد از ما
      پلت فرم. 
    • در تحقیق و راه حل های فناوری آینده سرمایه گذاری کنید.
    • در پلتفرم های ما با CSAM، AIG-CSAM و CSEM مبارزه کنید.

این تعهد گام مهمی در جلوگیری از سوء استفاده از فناوری‌های هوش مصنوعی برای ایجاد یا گسترش مطالب سوء استفاده جنسی از کودکان (AIG-CSAM) و سایر اشکال آسیب جنسی علیه کودکان است. به عنوان بخشی از گروه کاری، ما همچنین موافقت کرده‌ایم که هر سال به‌روزرسانی‌های پیشرفت را منتشر کنیم.

نقطه_img

جدیدترین اطلاعات

نقطه_img