La oscura amenaza de las voces falsas: Cómo la inteligencia artificial está siendo utilizada para estafas telefónicas
El impacto de la inteligencia artificial en las estafas telefónicas y la desinformación
La inteligencia artificial (IA) ha alcanzado un nivel preocupante en su capacidad para generar voces falsas en llamadas telefónicas, con el propósito de estafar a los destinatarios desprevenidos. Estas llamadas utilizan la llamada IA generativa, que permite a los sistemas crear texto, imágenes y otros contenidos a partir de instrucciones de usuario. Los deepfakes, que son falsificaciones profundas, han adquirido notoriedad en los últimos años, desde el uso de la imagen de Emma Watson en anuncios sugerentes hasta el caso del presidente ucraniano Volodymyr Zelensky. Sin embargo, ahora la preocupación radica en la capacidad de replicar la voz de alguien y el uso malicioso que se le pueda dar.
Una voz casi real
Para crear una copia realista de la voz de alguien, se requiere una cantidad significativa de datos para entrenar el algoritmo. Esto implica contar con múltiples grabaciones de audio de la persona en cuestión. Con cada vez más personas compartiendo detalles de sus vidas en internet, los datos de audio necesarios para generar una copia convincente podrían estar fácilmente disponibles en las redes sociales. Sin embargo, una vez que esta copia de voz se encuentra en circulación, las consecuencias pueden ser devastadoras.
Deepfake
El riesgo más alarmante es la propagación de desinformación. Un algoritmo de deepfake puede permitir a cualquier persona con acceso a los datos hacer que parezca que una persona está diciendo cualquier cosa que deseen. Desde influir en la opinión pública a nivel nacional e internacional, hasta realizar estafas telefónicas más personales, la ubicuidad y disponibilidad de esta tecnología plantea desafíos importantes. Las llamadas con IA para estafar están en aumento, y muchos han sido víctimas de llamadas falsas que intentan obtener información personal o incluso solicitar un rescate.
Evolución de los estafadores
La situación se vuelve aún más angustiante cuando la voz que se escucha al otro lado del teléfono es la de un ser querido o un amigo. La complejidad y el pánico que esto genera para el destinatario son inimaginables. La capacidad de los estafadores para falsificar las voces de personas conocidas ha llevado a situaciones como la de una madre que recibe una llamada de su supuesta hija secuestrada, exigiendo un rescate. Aunque estos incidentes no son nuevos, el surgimiento de tecnologías de IA ha llevado la estafa a un nivel más personal y aterrador.
Espectrograma visual del audio
Afortunadamente, existen técnicas de detección de deepfakes, como la creación de un espectrograma visual del audio. Sin embargo, estas soluciones aún requieren ciertos conocimientos técnicos y no están al alcance de la mayoría de las personas. Ante la incertidumbre de si lo que se escucha es real o falso, es crucial mantener una actitud escéptica. Si se recibe una llamada sospechosa de un ser querido solicitando dinero u otra solicitud fuera de lugar, es recomendable devolver la llamada o enviar un mensaje de texto para confirmar la autenticidad de la comunicación.
En resumen
A medida que la IA continúa avanzando, las líneas entre la realidad y la ficción se vuelven cada vez más borrosas. Es poco probable que podamos frenar completamente esta tecnología, por lo que la precaución y el escepticismo se convierten en medidas clave para protegernos de las estafas y la desinformación. La conciencia sobre el uso de deepfakes y el desarrollo de soluciones más accesibles son esenciales para hacer frente a este desafío creciente y proteger a las personas de las consecuencias devastadoras que pueden surgir de las llamadas falsas generadas por IA.