Inteligencia de datos generativa

Los tres principales problemas de privacidad de datos que enfrenta la IA en la actualidad – The Daily Hodl

Fecha:

Mensaje de invitado de HodlX  Envía tu publicación

 

La IA (inteligencia artificial) ha causado un entusiasmo frenético tanto entre los consumidores como entre las empresas. impulsado por una creencia apasionada de que los LLM (grandes modelos de lenguaje) y herramientas como ChatGPT transformarán la forma en que estudiamos, trabajamos y vivimos.

Pero al igual que en los primeros días de Internet, los usuarios se lanzan sin considerar cómo se utilizan sus datos personales. - Unay el impacto que esto podría tener en su privacidad.

Ya ha habido innumerables ejemplos de violaciones de datos dentro del espacio de la IA. En marzo de 2023, OpenAI tomó temporalmente ChatGPT digital fuera de línea. después de un error "significativo", los usuarios pudieron ver los historiales de conversaciones de extraños.

Ese mismo error significó la información de pago de los suscriptores. incluidos nombres, direcciones de correo electrónico y números parciales de tarjetas de crédito también eran de dominio público.

En septiembre de 2023, se filtraron inadvertidamente la asombrosa cantidad de 38 terabytes de datos de Microsoft. filtrada por un empleado, y los expertos en ciberseguridad advierten que esto podría haber permitido a los atacantes infiltrarse en modelos de IA con código malicioso.

Los investigadores también han podido manipular Sistemas de inteligencia artificial para revelar registros confidenciales.

En tan solo unas horas, un grupo llamado Robust Intelligence pudo solicitar información de identificación personal del software de Nvidia y eludir las medidas de seguridad diseñadas para evitar que el sistema discuta ciertos temas.

Se aprendieron lecciones en todos estos escenarios, pero cada brecha ilustra poderosamente los desafíos que deben superarse para que la IA se convierta en una fuerza confiable y confiable en nuestras vidas.

Gemini, el chatbot de Google, admite incluso que todas las conversaciones son procesadas por revisores humanos subrayando la falta de transparencia en su sistema.

“No introduzcas nada que no quieras que se revise o utilice”, advierte una alerta a los usuarios.

La IA está pasando rápidamente de ser una herramienta que los estudiantes utilizan para sus tareas o en la que los turistas confían para recibir recomendaciones durante un viaje a Roma.

Se depende cada vez más de él para debates delicados. y alimentó todo, desde preguntas médicas hasta nuestros horarios de trabajo.

Por esto, es importante dar un paso atrás y reflexionar sobre los tres principales problemas de privacidad de datos que enfrenta la IA en la actualidad y por qué nos importan a todos.

1. Las indicaciones no son privadas

Herramientas como ChatGPT memorizan conversaciones pasadas para poder consultarlas más tarde. Si bien esto puede mejorar la experiencia del usuario y ayudar a capacitar a los LLM, conlleva riesgos.

Si un sistema se piratea con éxito, existe un peligro real de que las indicaciones queden expuestas en un foro público.

Se podrían filtrar detalles potencialmente embarazosos del historial de un usuario, así como información comercialmente sensible cuando se implementa IA con fines laborales.

Como hemos visto en Google, todos los envíos también pueden terminar siendo examinados por su equipo de desarrollo.

Samsung tomó medidas al respecto en mayo de 2023 cuando prohibió por completo a los empleados utilizar herramientas de inteligencia artificial generativa. Eso vino después de que un empleado subido código fuente confidencial para ChatGPT.

Al gigante tecnológico le preocupaba que esta información fuera difícil de recuperar y eliminar, lo que significaba que la propiedad intelectual podría terminar distribuyéndose al público en general.

Apple, Verizon y JPMorgan han tomado medidas similares, con informes que sugieren que Amazon lanzó una ofensiva después de que las respuestas de ChatGPT tuvieran similitudes con sus propios datos internos.

Como puede ver, las preocupaciones van más allá de lo que sucedería si hubiera una violación de datos, sino de la perspectiva de que la información ingresada en los sistemas de inteligencia artificial pueda reutilizarse y distribuirse a una audiencia más amplia.

Empresas como OpenAI ya están tener problemas con múltiples demandas en medio de acusaciones de que sus chatbots fueron entrenados utilizando material protegido por derechos de autor.

2. Los modelos de IA personalizados entrenados por organizaciones no son privados

Esto nos lleva claramente al siguiente punto. Si bien los individuos y las corporaciones pueden establecer sus modelos LLM personalizados en función de sus propias fuentes de datos, no serán completamente privados si existen dentro de los límites de una plataforma como ChatGPT.

En última instancia, no hay forma de saber si se están utilizando insumos para entrenar estos sistemas masivos. o si la información personal podría acabar utilizándose en futuros modelos.

Como un rompecabezas, se pueden reunir puntos de datos de múltiples fuentes para formar una visión integral y preocupantemente detallada de la identidad y los antecedentes de una persona.

Es posible que las plataformas principales tampoco ofrezcan explicaciones detalladas sobre cómo se almacenan y procesan estos datos, con la imposibilidad de excluirse de funciones con las que el usuario no se siente cómodo.

Más allá de responder a las indicaciones de un usuario, los sistemas de inteligencia artificial tienen cada vez más la capacidad de leer entre líneas y deducir todo, desde la ubicación de una persona hasta su personalidad.

En caso de una violación de datos, es posible que se produzcan consecuencias nefastas. Se podrían orquestar ataques de phishing increíblemente sofisticados y usuarios atacados con información que habían introducido de forma confidencial en un sistema de inteligencia artificial.

Otros escenarios potenciales incluyen que estos datos se utilicen para asumir la identidad de alguien, ya sea a través de aplicaciones para abrir cuentas bancarias o videos deepfake.

Los consumidores deben permanecer atentos incluso si ellos mismos no utilizan la IA. La IA se utiliza cada vez más para impulsar los sistemas de vigilancia y mejorar la tecnología de reconocimiento facial en lugares públicos.

Si dicha infraestructura no se establece en un entorno verdaderamente privado, las libertades civiles y la privacidad de innumerables ciudadanos podrían verse infringidas sin su conocimiento.

3. Los datos privados se utilizan para entrenar sistemas de IA

Existe la preocupación de que los principales sistemas de inteligencia artificial hayan obtenido su inteligencia examinando minuciosamente innumerables páginas web.

Las estimaciones sugieren que se utilizaron 300 mil millones de palabras para entrenar ChatGPT eso es 570 gigabytes de datos con libros y entradas de Wikipedia entre los conjuntos de datos.

También se sabe que los algoritmos dependen de las páginas de redes sociales y de los comentarios en línea.

Con algunas de estas fuentes, se podría argumentar que los propietarios de esta información habrían tenido una expectativa razonable de privacidad.

Pero aquí está la cosa Muchas de las herramientas y aplicaciones con las que interactuamos todos los días ya están fuertemente influenciadas por la IA. y reaccionar ante nuestros comportamientos.

El Face ID de tu iPhone utiliza IA para rastrear cambios sutiles en tu apariencia.

Los algoritmos basados ​​en inteligencia artificial de TikTok y Facebook hacen recomendaciones de contenido basadas en los clips y publicaciones que has visto en el pasado.

Los asistentes de voz como Alexa y Siri también dependen en gran medida del aprendizaje automático.

Existe una vertiginosa constelación de nuevas empresas de inteligencia artificial, y cada una tiene un propósito específico. Sin embargo, algunos son más transparentes que otros sobre cómo se recopilan, almacenan y aplican los datos de los usuarios.

Esto es especialmente importante ya que la IA tiene un impacto en el campo de la atención sanitaria. desde imágenes médicas y diagnósticos hasta mantenimiento de registros y productos farmacéuticos.

Es necesario aprender lecciones de las empresas de Internet atrapadas en escándalos de privacidad en los últimos años.

Flo, una aplicación de salud femenina, fue acusado por parte de los reguladores de compartir detalles íntimos sobre sus usuarios con empresas como Facebook y Google en la década de 2010.

A dónde vamos desde aquí

La IA tendrá un impacto imborrable en todas nuestras vidas en los próximos años. Los LLM mejoran cada día que pasa y siguen surgiendo nuevos casos de uso.

Sin embargo, existe un riesgo real de que los reguladores tengan dificultades para mantenerse al día a medida que la industria avanza a una velocidad vertiginosa.

Y eso significa que los consumidores deben comenzar a proteger sus propios datos y a monitorear cómo se utilizan.

La descentralización puede desempeñar un papel vital aquí y evitar que grandes volúmenes de datos caigan en manos de las principales plataformas.

Las DePIN (redes de infraestructura física descentralizadas) tienen el potencial de garantizar que los usuarios cotidianos experimenten todos los beneficios de la IA sin que su privacidad se vea comprometida.

Las indicaciones cifradas no solo pueden ofrecer resultados mucho más personalizados, sino que los LLM que preservan la privacidad garantizarían que los usuarios tengan control total de sus datos en todo momento. y protección contra su mal uso.


Chris Were es director ejecutivo de verida, una red de datos descentralizada y autónoma que permite a las personas controlar su identidad digital y sus datos personales. Chris es un emprendedor tecnológico radicado en Australia que lleva más de 20 años dedicado al desarrollo de soluciones de software innovadoras.

 

Ver los últimos titulares en HodlX

Síguienos en Twitter Facebook Telegram

Primero eche un vistazo al sitio web de la página Últimos anuncios de la industria  

Descargo de responsabilidad: las opiniones expresadas en The Daily Hodl no son consejos de inversión. Los inversores deben hacer su debida diligencia antes de realizar inversiones de alto riesgo en Bitcoin, criptomoneda o activos digitales. Tenga en cuenta que sus transferencias y operaciones están bajo su propio riesgo, y cualquier pérdida en la que pueda incurrir es su responsabilidad. The Daily Hodl no recomienda la compra o venta de criptomonedas o activos digitales, ni The Daily Hodl es un asesor de inversiones. Tenga en cuenta que The Daily Hodl participa en marketing de afiliación.

Imagen generada: a mitad de camino

punto_img

Información más reciente

punto_img

Habla con nosotros!

¡Hola! ¿Le puedo ayudar en algo?