Ciberamenazas actuales

Ciberdelincuentes pueden vulnerar la autenticación de voz con una tasa de éxito del 99%

Científicos de la computación de la Universidad de Waterloo han descubierto un método de ataque que puede evadir exitosamente los sistemas de seguridad de autenticación de voz con una tasa de éxito de hasta el 99% después de solo seis intentos.

Expertos exponen fallas en la tecnología de reconocimiento de voz.

La autenticación de voz, que permite a las empresas verificar la identidad de sus clientes a través de una supuesta "huella vocal" única, se ha utilizado cada vez más en la banca remota, centros de llamadas y otros escenarios críticos de seguridad.

"Al inscribirse en la autenticación de voz, se le solicita repetir una frase determinada con su propia voz. El sistema luego extrae una firma vocal única (huella vocal) de esta frase proporcionada y la almacena en un servidor", dijo Andre Kassis, candidato a doctorado en Seguridad y Privacidad de la Computación y autor principal de un estudio que detalla la investigación.

"Para futuros intentos de autenticación, se le solicita repetir una frase diferente y las características extraídas de ella se comparan con la huella vocal que ha guardado en el sistema para determinar si se debe otorgar el acceso".

Después de que se introdujo el concepto de huellas vocales, los actores maliciosos se dieron cuenta rápidamente de que podían utilizar software de "deepfake" habilitado para el aprendizaje automático para generar copias convincentes de la voz de una víctima utilizando tan solo cinco minutos de audio grabado.

En respuesta, los desarrolladores introdujeron "contramedidas de falsificación" que podían examinar una muestra de voz y determinar si fue creada por un humano o una máquina.

Inseguridad en la autenticación de voz

Los investigadores de Waterloo han desarrollado un método que evade las contramedidas de falsificación y puede engañar a la mayoría de los sistemas de autenticación de voz en seis intentos. Identificaron las marcas en el audio deepfake que lo delatan como generado por computadora y escribieron un programa que elimina estas marcas, haciéndolo indistinguible del audio auténtico.

En una prueba reciente contra el sistema de autenticación de voz de Amazon Connect, lograron una tasa de éxito del 10% en un ataque de cuatro segundos, y esta tasa aumentó a más del 40% en menos de treinta segundos. Con algunos de los sistemas de autenticación de voz menos sofisticados a los que apuntaron, lograron una tasa de éxito del 99% después de seis intentos.

Kassis sostiene que si bien la autenticación de voz es obviamente mejor que no tener seguridad adicional, las contramedidas de falsificación existentes tienen fallas críticas.

"La única forma de crear un sistema seguro es pensar como un atacante. Si no lo haces, simplemente estás esperando a ser atacado", dijo Kassis.

El supervisor de Kassis, el profesor de ciencias de la computación Urs Hengartner, agregó: "Al demostrar la inseguridad de la autenticación de voz, esperamos que las empresas que dependen únicamente de la autenticación de voz como factor de autenticación consideren implementar medidas de autenticación adicionales o más sólidas".

Ten la tranquilidad de
que tu empresa está protegida