Herramientas para combatir deepfakes y desinformación

Entre 2022 y 2023 el número de deepfakes en todo el mundo se multiplicó por diez y solo en la región de Latinoamérica aumentaron un 450 % en ese periodo, según un informe de Sumsub. Los sectores más afectados, por su naturaleza propia y alcance, fueron, y seguirán siendo, el periodismo, la política, el entretenimiento, y las finanzas. El mercado de las deepfake, por otro lado, se estima que tiene un valor actual de 534 millones de dólares, y según se prevé podría llegar a los 5134 millones de dólares para 2030. Desde ESET, compañía líder en detección proactiva de amenazas, aseguran que las herramientas de detección de deepfake son un buen aliado para determinar la veracidad de los videos o audios que pueden encontrarse en internet y comparte las mejores opciones para comprobarlo.

Los deepfakes son medios sintéticos generados mediante técnicas de aprendizaje profundo (Deep learning). Incluyen imágenes, vídeos y grabaciones de audio manipulados para retratar a alguien diciendo o haciendo algo que en realidad nunca dijo o hizo. Estas tecnologías identifican y aprenden de grandes cantidades de datos para generar medios falsos de apariencia realista.

La batalla contra los deep fakes es un desafío continuo en el campo de la ciberseguridad y, a medida que estas falsificaciones se vuelven más sofisticadas, la necesidad de herramientas avanzadas para su detección se vuelve más crítica. En un mundo donde la verdad puede ser distorsionada con facilidad, es importante acompañar los cambios tecnológicos con conciencia y herramientas que estén a las alturas., comenta Mario Micucci, Investigador de seguridad informática de ESET Latinoamérica.

ESET comparte qué recursos online se pueden utilizar para combatir la desinformación y la difusión de videos o audios falsos creados con estas técnicas de IA:

Herramientas basadas en IA: Estos sistemas utilizan algoritmos de aprendizaje automático para analizar patrones en videos y audios, buscando inconsistencias que podrían indicar manipulación.

Sentinel: Una solución basada en la nube que ofrece detección de deepfakes en tiempo real con alta precisión. Utiliza algoritmos avanzados de IA y múltiples tecnologías, como análisis de puntos de referencia faciales, comprobaciones de coherencia temporal y detección de parpadeo para identificar medios manipulados. Este detector permite cargar medios digitales falsificados por IA a través de su sitio web o API. Luego determina vídeos, imágenes y audio manipulados. Además, este sistema proporciona un informe completo de sus descubrimientos, incluida la visualización del área de medios que sufrió modificaciones. Permite a los usuarios ver exactamente dónde y cómo se han manipulado los medios.

Sensity: Dispone una plataforma de monitoreo en tiempo real, utilizada por gobiernos y empresas de todo el mundo. Su capacidad para escanear grandes volúmenes de contenido lo convierte en una herramienta esencial para quienes buscan mantener la integridad de la información en línea ya que ofrece una detección eficiente de contenido deepfake, como intercambios de rostros, audio manipulado e imágenes generadas por IA. Previene actividades de suplantación de identidad, detección de documentos engañosos y verificación de documentos de identidad.

Oz Liveness: Evita que los usuarios suplanten ataques con un gran nivel 100% de precisión. Viene con el estándar de prueba más estricto, la certificación ISO 30107.  Entre sus características clave están el impulsar la transformación digital, combatir el fraude y reducir los riesgos, obtener flexibilidad y ahorrar tiempo con SaaS , y su facilidad de integrar iOS/Android y WEB SDK.

WeVerify: Se centra en identificar y contextualizar las redes sociales y el contenido web. Incluye verificación de contenido multimodal, análisis de redes sociales, desacreditación microdirigida y una base de datos pública basada en blockchain de falsificaciones reconocidas. Es ideal para comunidades, periodistas ciudadanos, redacciones, periodistas independientes y la industria del entretenimiento.

HyperVerge: Con un modelo de inteligencia artificial y aprendizaje automático para una seguridad integral, este detector de falsificaciones identifica la verificación, el reconocimiento facial y controles sólidos de vida. Ofrece una detección precisa, seguridad avanzada para garantizar la seguridad de los datos y las aplicaciones en la nube y el cumplimiento AML, una interfaz amigable y soluciones personalizables. Además, cuenta con certificaciones globales de reconocimiento facial de iBeta y NIST.

FakeCatcher de Intel: Este software detector de Deepfake utiliza hardware y software Intel, se ejecuta en un servidor y se conecta a través de una plataforma basada en web. Se centra en la velocidad y la eficiencia, al buscar pistas auténticas en vídeos naturales. A través del aprendizaje profundo, este software detector de AI Deepfake puede detectar en milisegundos si un video es real o falso, con una tasa de precisión del 96%.

Microsoft Video AI Authenticator: Una herramienta gratuita diseñada por Microsoft que puede identificar videos e imágenes. Proporciona una puntuación de confianza que indica la probabilidad de manipulación. Este software de detección de AI Deepfake identifica inconsistencias en la fusión de límites y elementos sutiles en escala de grises que son indetectables para el ojo humano.  La herramienta proporciona una puntuación de confianza en tiempo real, lo que permite a los usuarios determinar rápidamente si los medios son auténticos o no.

Deepware: Software avanzado que utiliza tecnologías de inteligencia artificial y aprendizaje automático para detectar y mitigar los deepfakes. Identifica vídeos, imágenes y archivos de audio y determina si son falsos o no. Es fácil de usar y de fácil acceso para detectar falsificaciones profundas. Gracias a un escáner de deepfake dedicado, e permite a los usuarios analizar posibles videos deepfake o evaluar aspectos específicos de la comunicación visual y de audio con solo ingresar enlaces.

Phoneme Viseme Mismatch: Investigadores de la Universidad de Stanford y la Universidad de California desarrollaron esta herramienta de detección de deepfake mediante IA. Se centra en las inconsistencias entre el audio hablado y los movimientos de los labios en los vídeos. La falta de coincidencia entre estos elementos puede indicar una posible manipulación.

DuckDuckGoose: Analiza los deepfakes de forma rápida y precisa para proteger a las empresas de posibles amenazas, ya sean cibernéticas, reputacionales o financieras. Este software detector de deepfake actúa como una capa de seguridad adicional que proporciona explicaciones claras de cómo detecta manipulaciones digitales. Realiza una detección de espectro integral, un monitoreo y análisis en tiempo real, cuenta con tecnología de vanguardia y una plataforma fácil de usar.

Herramientas basadas análisis de metadatos: Los metadatos, como la fecha de creación del archivo o la ubicación de la grabación, pueden contener pistas que revelan la manipulación. Herramientas como MediaInfo y ExifTool facilitan la extracción y el análisis de estos metadatos.

Herramientas basadas detección de anomalías: Estas herramientas buscan patrones inusuales en el movimiento facial, la voz o el contenido del video que podrían indicar deepfakes. Algunos ejemplos incluyen FaceForensics y Audio Fingerprinting.

Artículos relacionados

Back to top button