Los investigadores de IBM Security han identificado una nueva amenaza de ciberseguridad llamada “secuestro de audio”, donde la IA puede manipular conversaciones en vivo con voces falsas, lo que genera preocupaciones sobre fraude financiero y desinformación.
El Reino Unido invierte 100 millones de libras en IA: marcos regulatorios y de innovación sanitaria pionerosLos investigadores de IBM Security han revelado recientemente una amenaza única de ciberseguridad a la que han denominado “secuestro de audio”. Esta amenaza hace uso de inteligencia artificial (IA) para recopilar y modificar conversaciones en vivo en tiempo real. Este método utiliza inteligencia artificial generativa para crear un clon de la voz de una persona utilizando sólo tres segundos de audio. Esto ofrece a los atacantes la posibilidad de reemplazar sin problemas el discurso original con información modificada. Tener tales habilidades podría hacer posible participar en comportamientos inmorales, como dirigir transacciones financieras en una dirección incorrecta o modificar información que se pronuncia durante transmisiones en vivo y discursos políticos.
Sorprendentemente sencilla en su implementación, la técnica utiliza algoritmos de inteligencia artificial que escuchan audio en vivo en busca de ciertas frases. En caso de que se detecten estos sistemas, son capaces de insertar el audio deepfake en la discusión sin que los participantes se den cuenta. Existe la posibilidad de que esto pueda poner en peligro datos confidenciales o engañar a las personas. Los usos de esto podrían variar desde delitos financieros hasta desinformación en comunicaciones vitales.
Binance lanzará Pixels (PIXEL) en LaunchpoolEl equipo de IBM demostró que la construcción de un sistema de este tipo no es demasiado complicada. El equipo demostró que el trabajo necesario para capturar audio en vivo e integrarlo con tecnologías de IA generativa es mayor que el esfuerzo necesario para manipular los datos en sí. Llamaron la atención sobre el posible abuso en diversas circunstancias, incluida la alteración de datos bancarios durante una discusión, lo que podría llevar a las víctimas que desconocen la situación a transferir dinero en efectivo a cuentas falsas.
Para hacer frente a este peligro, IBM recomienda utilizar contramedidas como parafrasear y repetir información esencial durante las conversaciones para comprobar su autenticidad. Esta estrategia tiene el potencial de revelar disparidades de audio creadas por algoritmos de inteligencia artificial.
Omega (OMN) obtiene 6 millones de euros en financiación para revolucionar el ecosistema Bitcoin y DeFiLos resultados de este estudio resaltan la creciente complejidad de las ciberamenazas en esta era de poderosa inteligencia artificial y resaltan la necesidad de mantenerse alerta y desarrollar medidas de seguridad creativas para luchar contra vulnerabilidades de este tipo.
Fuente de la imagen: Shutterstock