Inteligencia de datos generativa

Contrarrestar el fraude de voz en la era de la IA

Fecha:

COMENTARIO
Tres segundos de audio es todo lo que se necesita para clonar una voz. El vishing, o fraude de voz, se ha convertido rápidamente en un problema que muchos de nosotros conocemos muy bien y que afecta al 15% de la población. Más de las tres cuartas partes de las víctimas terminan perdiendo dinero, lo que lo convierte en el tipo de estafa de impostor más lucrativo por persona, según EE. UU. Comisión Federal de Comercio (FTC).

Cuando la suplantación del identificador de llamadas se combina con tecnología deepfake basada en inteligencia artificial, los estafadores pueden, a muy bajo costo y a gran escala, disfrazar sus números y ubicaciones reales y hacerse pasar de manera muy convincente por organizaciones confiables, como un banco o un ayuntamiento, o incluso amigos y familiares. .

Si bien la inteligencia artificial (IA) presenta todo tipo de nuevas amenazas, la capacidad de falsificar los identificadores de llamadas sigue siendo el principal punto de entrada para fraudes sofisticados. Esto también ha planteado serios desafíos para autenticar llamadas genuinas. Profundicemos en el mundo criminal de suplantación de identidad de llamadas.

¿Qué hay detrás del aumento del fraude de voz?

La democratización de la tecnología de suplantación de identidad, como las aplicaciones de suplantación de identidad, ha facilitado que actores maliciosos se hagan pasar por identificadores de llamadas legítimos, lo que ha llevado a un aumento de las actividades fraudulentas realizadas a través de llamadas de voz. Uno periodista, quien dijo ser conocida por su naturaleza racional y meticulosa, fue víctima de una sofisticada estafa que explotó su miedo y preocupación por la seguridad de su familia. Inicialmente contactada a través de una llamada falsa que parecía ser de Amazon, fue transferida a alguien que se hacía pasar por un investigador de la FTC, quien de manera convincente le presentó una historia inventada sobre robo de identidad, lavado de dinero y amenazas a su seguridad.

Estas historias son cada vez más comunes. Las personas están predispuestas a ser escépticas ante un número retenido, internacional o desconocido, pero si ven el nombre de una empresa legítima aparecer en sus teléfonos, es más probable que respondan la llamada de manera complaciente.

Además de la suplantación de identidad, también estamos viendo un aumento en los deepfakes de audio generados por IA. El año pasado en Canadá, los delincuentes timado personas mayores con más de 200,000 dólares mediante el uso de IA para imitar las voces de sus seres queridos en problemas. Una madre en el estado estadounidense de Arizona también recibió una llamada desesperada de su hija de 15 años afirmando que había sido secuestrada; La llamada resultó ser generada por IA. Cuando se combinan con la suplantación del identificador de llamadas, estos deepfakes serían casi imposibles de detectar para una persona promedio.

As IA generativa y herramientas basadas en IA cada vez más accesibles, este tipo de fraude es cada vez más común. Los ciberdelincuentes no necesariamente necesitan hacer contacto directo para replicar una voz porque más de la mitad de las personas comparten voluntariamente su voz de alguna forma al menos una vez a la semana en las redes sociales, según McAfee. Tampoco necesitan habilidades digitales excepcionales, ya que las aplicaciones hacen el arduo trabajo de clonar la voz basándose en un breve clip de audio, como lo resaltaron recientemente los deepfakes de alto perfil de El presidente estadounidense Joe Biden y cantante Taylor Swift.

Organizaciones enteras pueden ser víctimas del fraude de voz, no sólo individuos. Todo lo que se necesita es un actor de amenazas para convencer a un empleado de que comparta algún detalle aparentemente insignificante sobre su negocio por teléfono, que luego se utiliza para unir los puntos y permitir que un ciberdelincuente obtenga acceso a datos confidenciales. Es una tendencia particularmente preocupante en industrias donde la comunicación de voz es un componente clave de la interacción con el cliente, como la banca, la atención médica y los servicios gubernamentales. Muchas empresas dependen de las llamadas de voz para verificar identidades y autorizar transacciones. Como tales, son particularmente vulnerables al fraude de voz generado por IA.

Qué podemos hacer al respecto

Los reguladores, los organismos industriales y las empresas reconocen cada vez más la necesidad de una acción colectiva contra el fraude de voz. Esto podría incluir inteligencia para comprender mejor los patrones de estafa en todas las regiones e industrias, el desarrollo de estándares en toda la industria para mejorar la seguridad de las llamadas de voz y regulaciones más estrictas que rijan la presentación de informes para los operadores de red.

Los reguladores de todo el mundo están endureciendo las normas en torno al fraude de voz basado en IA. Por ejemplo, la Comisión Federal de Comunicaciones (FCC) de EE. UU. ha declarado ilegal el uso de llamadas automáticas. Voces generadas por IA o pregrabadas.. En Finlandia, el gobierno ha impuesto nuevas obligaciones a los operadores de telecomunicaciones para protegerse contra la suplantación de identidad de llamadas y la transferencia de llamadas fraudulentas a los destinatarios. La UE está investigando medidas similares, impulsadas principalmente por bancos y otras instituciones financieras que quieren mantener seguros a sus clientes. En todos los casos, se están realizando esfuerzos para cerrar la puerta a la suplantación de identidad de llamadas y el smishing (mensajes de texto falsos), que a menudo sirven como punto de entrada para tácticas más sofisticadas basadas en inteligencia artificial.

Muchas herramientas de detección prometedoras en desarrollo podrían, en teoría, reducir drásticamente el fraude de voz. Incluyen biometría de voz, detectores de deepfake, análisis de detección de anomalías de IA, blockchain, firewalls de señalización, etc. Sin embargo, los ciberdelincuentes son expertos en superar y burlar los avances tecnológicos, por lo que sólo el tiempo dirá qué funcionará mejor.

Para empresas de todos los tamaños y sectores, las capacidades de ciberseguridad serán cada vez más importantes para los servicios de telecomunicaciones. Aparte del nivel de la red de comunicaciones, las empresas deben establecer políticas y procesos claros, como la autenticación multifactor que utiliza una variedad de métodos de verificación.

Las empresas también deberían crear conciencia sobre las tácticas de fraude más comunes. La capacitación regular de los empleados debe centrarse en reconocer y responder a las estafas, mientras que se debe alentar a los clientes a reportar llamadas sospechosas.

A nivel del consumidor, el regulador de comunicaciones del Reino Unido, Ofcom, reveló que más de 41 millones de personas fueron objeto de llamadas o mensajes de texto sospechosos durante un período de tres meses en 2022. En otras palabras, aunque las marcas y los gobiernos han reiterado el mensaje de que las empresas legítimas nunca pedirán dinero o información confidencial durante el teléfono, es necesaria una vigilancia continua.

La fácil disponibilidad de herramientas de clonación y los crecientes niveles de criminalidad hacen que expertos como la Electronic Frontier Foundation sugieran que la gente debería ponerse de acuerdo sobre un contraseña familiar para combatir los intentos de fraude basados ​​en IA. Es una solución sorprendentemente de baja fidelidad para un desafío de alta tecnología.

punto_img

Información más reciente

punto_img

Habla con nosotros!

¡Hola! ¿Le puedo ayudar en algo?