Ciberdelincuentes crean falsas imágenes y videos sexuales mediante IA

Con el avance de las herramientas basadas en inteligencia artificial (IA) para la generación de imágenes y la calidad de los resultados los actores maliciosos han encontrado una forma de mejorar estos ataques. ESET, compañía líder en detección proactiva de amenazas, advierte la creación de desnudos a partir de imágenes y videos públicos para extorsionar a las personas.

En un comunicado publicado el 5 de junio, el FBI alertó sobre el uso por parte de actores maliciosos de imágenes y videos públicos manipulados para campañas de sextorsión. Según advierten, en el último tiempo han recibido varios reportes de víctimas que sufrieron la manipulación de videos e imágenes suyas para la creación de contenido sexual falso. Los actores maliciosos detrás de estas campañas luego divulgan este material en redes sociales o sitios de pornografía para extorsionar a las víctimas o simplemente intimidarlas. Entre las denuncias también se registraron víctimas que son menores de edad.

Estas imágenes y videos son obtenidos de redes sociales, de fuentes públicas o incluso proporcionadas por las víctimas y mediante tecnologías basadas en Inteligencia Artificial crean imágenes falsas con apariencia muy real. Desde ESET anteriormente se había advertido sobre la creación de rostros falsos mediante IA, y que la calidad de estas imágenes puede engañar fácilmente el ojo humano.

El FBI explica también que muchas de las víctimas no están al tanto de la existencia de estas imágenes falsas en las que se suplanta su identidad hasta que alguien le avisa porque las encontró de forma casual o porque son chantajeadas. Es posible que ese contenido desaparezca de Internet pero es una tarea compleja.

«En los últimos años hemos visto muchas campañas de sextorsión en las cuales los delincuentes envían correos personalizados intentando asustar a las víctimas haciéndoles creer que han sido víctimas de una infección con un malware que permitió a los cibercriminales grabar videos íntimos utilizando la cámara web de la víctima. Si bien es falso y los delincuentes no han infectado con malware los equipos y no tienen videos o imágenes comprometedores, igualmente intentan extorsionar a las víctimas para que envíen dinero y de esta manera evitar que ese supuesto contenido empiece a circular por Internet. Lamentablemente, muchas personas caen en la trampa. La forma de robar el dinero puede variar, desde el depósito de determinada suma en criptomonedas en una billetera virtual a demandar el envío de Gift cards», comenta Camilo Gutiérrez Amaya, Jefe del Laboratorio de Investigación de ESET Latinoamérica.

Con el avance de las herramientas basadas en IA para la generación de imágenes y la calidad de los resultados los actores maliciosos han encontrado una forma de mejorar estos ataques. Actualmente existe una gran cantidad de herramientas y aplicaciones que se ofrecen de forma gratuita en repositorios públicos para crear deepfakes e incluso en foros clandestinos.

«Sin dudas esta realidad actual obliga a los cuidadores de niñas, niños y adolescentes a estar más atentos y a poner al tanto a los más pequeños sobre estas nuevas tendencias. También refuerza la importancia de enseñar buenas prácticas de privacidad en línea y las consecuencias de la información que publicamos. Pero no solo debemos proteger a los más chicos, sino también los propios adultos, que también son víctimas», agrega Gutiérrez Amaya de ESET.

Algunos países ya están tomando medidas para minimizar el uso de deepfakes y en Reino Unido ya existen iniciativas para cambiar la ley y sancionar a quienes comparten estos contenidos falsos.

Artículos relacionados

Back to top button