Inteligencia de datos generativa

El compromiso de OpenAI con la seguridad infantil: adoptar principios de seguridad por diseño

Fecha:

OpenAI, junto con líderes de la industria como Amazon, Anthropic, Civitai, Google, Meta, Metaphysic, Microsoft, Mistral AI y Stability AI, se ha comprometido a implementar medidas sólidas de seguridad infantil en el desarrollo, implementación y mantenimiento de tecnologías de IA generativa como se articula en los principios de Seguridad por Diseño. Esta iniciativa, liderada por espina, una organización sin fines de lucro dedicada a defender a los niños del abuso sexual, y Toda la tecnología es humana, una organización dedicada a abordar los complejos problemas de la tecnología y la sociedad, tiene como objetivo mitigar los riesgos que la IA generativa representa para los niños. Al adoptar principios integrales de seguridad desde el diseño, OpenAI y nuestros pares garantizan que la seguridad infantil tenga prioridad en cada etapa del desarrollo de la IA. Hasta la fecha, hemos hecho un esfuerzo significativo para minimizar el potencial de que nuestros modelos generen contenido que dañe a los niños, establecimos restricciones de edad para ChatGPT y colaboramos activamente con el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), Tech Coalition y otras organizaciones gubernamentales. y partes interesadas de la industria sobre cuestiones de protección infantil y mejoras a los mecanismos de presentación de informes. 

Como parte de este esfuerzo de Seguridad por Diseño, nos comprometemos a:

  1. Desarrollar: Desarrollar, construir y entrenar modelos de IA generativa
    que aborden proactivamente los riesgos de seguridad infantil.

    • Obtener de manera responsable nuestros conjuntos de datos de capacitación, detectar y eliminar información sexual infantil.
      material de abuso (CSAM) y material de explotación sexual infantil (CSEM) de
      datos de entrenamiento e informar cualquier CSAM confirmado a las autoridades pertinentes.
      autoridades.
    • Incorporar ciclos de retroalimentación y estrategias iterativas de pruebas de estrés en
      nuestro proceso de desarrollo.
    • Implementar soluciones para abordar el uso indebido por parte de adversarios.
  2. Desplegar: Lanzar y distribuir modelos de IA generativa después
    han sido capacitados y evaluados para la seguridad infantil, brindando protecciones
    durante todo el proceso.

    • Combatir y responder a contenidos y conductas abusivas, e incorporar
      esfuerzos de prevención.
    • Fomentar la propiedad de los desarrolladores en materia de seguridad desde el diseño.
  3. mantener: Mantenga la seguridad del modelo y de la plataforma continuando
    comprender y responder activamente a los riesgos de seguridad infantil.

    • Comprometidos a eliminar nuevos AIG-CSAM generados por malos actores de nuestra
    • Invertir en investigación y soluciones tecnológicas futuras.
    • Lucha contra CSAM, AIG-CSAM y CSEM en nuestras plataformas.

Este compromiso marca un paso importante para prevenir el uso indebido de las tecnologías de inteligencia artificial para crear o difundir material de abuso sexual infantil (AIG-CSAM) y otras formas de daño sexual contra niños. Como parte del grupo de trabajo, también acordamos publicar actualizaciones de progreso cada año.

punto_img

Información más reciente

punto_img

Habla con nosotros!

¡Hola! ¿Le puedo ayudar en algo?