
¿Cómo saber si hay una persona detrás de la pantalla?
¿Quién está del otro lado de la pantalla? En plena era digital y en el marco del Día Mundial del Internet, esa simple pregunta se ha vuelto más difícil de responder. Con la evolución de la inteligencia artificial, los bots y los deepfakes, cada vez es más común encontrarse con contenido, perfiles o interacciones que parecen humanos… pero no lo son.
Basta con recordar que delincuentes usan IA para crear videos falsos con rostros y voces de figuras públicas. O pensar en bots que simulan conversaciones en redes o se infiltran en plataformas para dejarnos sin boletos para nuestros shows favoritos. Cada vez necesitamos tener más certeza y confianza en lo que vemos, leemos y con quien interactuamos en línea.
Pero, ¿qué son los bots y los deepfakes?
Los bots son programas automatizados que pueden ejecutar tareas repetitivas imitando el comportamiento humano, como responder mensajes, comentar en redes sociales o recopilar información. Aunque muchos son útiles, por ejemplo, los que ofrecen soporte técnico, otros son usados para otros fines, como difundir noticias falsas o acaparar boletos y reservaciones en línea.
Según datos de un reporte de Imperva en 2024, se estima que cerca del 50% del tráfico en internet proviene de bots: algunos útiles, otros maliciosos.
En paralelo, los avances en IA generativa han desdibujado los límites entre lo real y lo creado. Los deepfakes son contenidos generados con inteligencia artificial que imitan rostros, voces y gestos humanos con una precisión tan alta que pueden engañar a simple vista. Se utilizan para crear imágenes o videos falsos de personas que parecen completamente reales.
Se ha intentado combatir el uso malicioso de bots mediante mecanismos como CAPTCHAs o verificaciones con documentos de identidad. Sin embargo, estas medidas a menudo entorpecen la experiencia del usuario y pueden ser vulneradas por sistemas avanzados de inteligencia artificial. Además, implican una gran responsabilidad en cuanto al manejo seguro de datos sensibles. En medio de este panorama, ¿cómo podemos recuperar la confianza de que estamos interactuando con una persona real o viendo contenido hecho por humano en internet?
Una respuesta es la prueba de humanidad, y ahí es donde entra World con World ID, una credencial que verifica en entornos digitales que eres una persona real, de forma anónima.
A través de una tecnología privada y descentralizada, World ID permite a las personas confirmar que son reales y únicas, sin revelar su identidad.
Su cámara avanzada, el Orb, utiliza tecnología criptográfica para generar un código anónimo cifrado único a partir de una imagen del rostro y ojos de una persona, sin guardar las imágenes ni datos biométricos. De esta manera, las plataformas pueden integrar una capa de verificación de humanidad que empodera a las personas en la era de la IA.
"World busca empoderar a la humanidad. En tiempos donde una imagen falsa puede volverse viral en segundos y un bot puede simular una conversación convincente, contar con una herramienta que confirme que detrás de un perfil hay una persona real se vuelve una necesidad.
El proyecto responde a esto con una propuesta que demuestra, con tecnología y transparencia que es posible construir un internet donde la autenticidad humana vuelva a tener valor", señala Martín Mazza, Gerente General Latinoamérica en Tools for Humanity.
La conversación sobre bots, IA generativa y contenido falso ya no es cosa del futuro: está ocurriendo hoy. Y si queremos construir un internet más confiable y seguro donde las voces humanas sigan teniendo valor, necesitamos asegurarnos de que, detrás de cada interacción o contenido, haya una persona real.
Para más información, visita world.org