Inteligencia de datos generativa

DHS probará el uso de genAI para capacitar a funcionarios de inmigración de EE. UU.

Fecha:

El Departamento de Seguridad Nacional de EE. UU. (DHS) tiene una hoja de ruta de IA y un trío de proyectos de prueba para implementar la tecnología, uno de los cuales tiene como objetivo capacitar a los agentes de inmigración utilizando IA generativa. ¿Qué podría salir mal?

No se nombró ningún proveedor de IA en el informe, que afirmaba que el uso de la tecnología tenía como objetivo ayudar a los alumnos a comprender y retener mejor "información crucial", así como a "aumentar la precisión de su proceso de toma de decisiones".

Han pasado dicho eso OpenAI, Anthropic y Meta, así como los gigantes de la nube Microsoft, Google y Amazon, han proporcionado a Homeland Security tecnología de inteligencia artificial y servicios en línea para experimentar con respecto a la capacitación y la toma de decisiones.

"Los Servicios de Ciudadanía e Inmigración de EE. UU. (USCIS) probarán el uso de LLM para ayudar a capacitar a funcionarios de refugiados, asilo y operaciones internacionales sobre cómo realizar entrevistas con solicitantes de inmigración legal", Uncle Sam's hoja de ruta [PDF], publicado anoche, explica.

A pesar de las trabajo reciente En cuanto a mitigar las imprecisiones en los modelos de IA, se sabe que los LLM generan información inexacta con el tipo de confianza que podría engañar a un joven aprendiz.

Los errores, conocidos como “alucinaciones”, hacen que sea difícil confiar en los resultados de la IA. Chatbots, generación de imágenes e incluso trabajo de asistente legal, con más de una abogado meterse en problemas por citar casos falsos generados de la nada por ChatGPT.

También se sabe que los LLM exhiben prejuicios raciales y de género cuando se despliegan en contratación de herramientas, prejuicios raciales y de género cuando se utilizan en reconocimiento facial sistemas, e incluso puede exhibir prejuicios racistas al procesar palabras, como se muestra en un documento reciente donde varios LLM toman una decisión sobre una persona basándose en una serie de indicaciones de texto. Los investigadores informaron en su artículo de marzo que las decisiones de LLM sobre personas que usan dialectos afroamericanos reflejan estereotipos racistas.

Sin embargo, el DHS afirma que está comprometido a garantizar que su uso de la IA “sea responsable y confiable; salvaguarda la privacidad, los derechos civiles y las libertades civiles; evita sesgos inapropiados; y es transparente y explicable para los trabajadores y las personas procesadas. Sin embargo, no dice qué salvaguardias existen.

La agencia afirma que el uso de IA generativa permitirá al DHS "mejorar" el trabajo de los oficiales de inmigración, con una aplicación interactiva que utiliza IA generativa en desarrollo para ayudar en la capacitación de los oficiales. El objetivo incluye limitar la necesidad de volver a capacitarse con el tiempo.

El informe más amplio del DHS describe los planes del Departamento para la tecnología de manera más general y, según Alejandro N. Mayorkas, Secretario del Departamento de Seguridad Nacional de EE. UU., "es el plan de IA más detallado presentado por una agencia federal hasta la fecha".

Otros dos proyectos piloto implicarán el uso de sistemas basados ​​en LLM en investigaciones y la aplicación de IA generativa al proceso de mitigación de peligros para los gobiernos locales.

La historia se repite

El DHS ha utilizado la IA durante más de una década, incluida la tecnología de aprendizaje automático (ML) para la verificación de identidad. Su enfoque puede describirse mejor como controvertido, con la agencia en el lado receptor de cartas legales sobre el uso de tecnología de reconocimiento facial. Sin embargo, Estados Unidos ha seguido adelante a pesar de desasosiego de algunos barrios.

De hecho, el DHS cita la IA como algo que está utilizando para hacer que los viajes sean “más seguros y más fáciles”: ¿quién podría objetar que se tome una fotografía para ayudar a navegar por el teatro de seguridad que prevalece en los aeropuertos? Después de todo, sigue siendo opcional.

Otros ejemplos de uso de IA dados por el DHS incluyen rastrear imágenes más antiguas para identificar víctimas de explotación desconocidas anteriores, evaluar los daños después de un desastre y detectar a los contrabandistas mediante la identificación de comportamientos sospechosos.

En su hoja de ruta, el DHS señaló los desafíos que existen junto con las oportunidades. Las herramientas de inteligencia artificial son igualmente accesibles tanto para los actores de amenazas como para las autoridades, y al DHS le preocupa que los ataques a mayor escala estén al alcance de los ciberdelincuentes, así como los ataques a infraestructuras críticas. Y luego está la amenaza del contenido generado por IA.

Se han establecido una serie de objetivos para 2024. Estos incluyen la creación de un AI Sandbox en el que los usuarios del DHS puedan jugar con la tecnología y la contratación de 50 expertos en AI. También planea un ejercicio HackDHS en el que investigadores examinados tendrán la tarea de encontrar vulnerabilidades en sus sistemas. ®

punto_img

Información más reciente

punto_img

Habla con nosotros!

¡Hola! ¿Le puedo ayudar en algo?