El legendario director James Cameron ha advertido sobre los peligros que representan para la sociedad los deepfakes.
Deepfakes aprovecha el aprendizaje automático y las técnicas de inteligencia artificial para manipular o generar contenido visual y de audio de manera convincente. Su alto potencial para engañar los convierte en una herramienta poderosa para difundir desinformación, cometer fraude, trolear y más.
“Cada vez que mejoramos estas herramientas, en cierto sentido estamos construyendo un conjunto de herramientas para crear medios falsos, y lo estamos viendo ahora”, dijo Cameron en una entrevista en video de la BBC.
“En este momento, las herramientas son: las personas que solo juegan con las aplicaciones no son tan buenas. Pero con el tiempo, esas limitaciones desaparecerán. Las cosas que ves y crees completamente que estás viendo podrían ser falsificadas”.
¿Alguna vez has dicho “Lo creeré cuando lo vea con mis propios ojos” o algo similar? ciertamente tengo Como humanos, estamos inconscientemente entrenados para creer lo que podemos ver (a menos que sea obviamente falso).
El problema se amplifica con el rápido ciclo de noticias de hoy. Es un problema bien conocido que muchos artículos se comparten en función de su título antes de pasar a la siguiente historia. Pocas personas se detendrán a analizar imágenes y videos en busca de pequeñas imperfecciones.
A menudo, las historias se comparten con reacciones al titular sin leer la historia para obtener el contexto completo. Esto puede conducir a un efecto mariposa en el que las personas ven las reacciones de sus contactos ante el titular y sienten que no necesitan contexto adicional; a menudo, solo comparten cualquier respuesta emocional que el titular haya sido diseñado para invocar (generalmente, indignación).
“Los ciclos de noticias suceden tan rápido y la gente responde tan rápido que podría tener lugar un incidente importante entre el intervalo entre el momento en que cae el deepfake y el momento en que se expone como falso”, dice Cameron.
“Hemos visto situaciones, ya sabes, la Primavera Árabe es un ejemplo clásico, donde con las redes sociales, el levantamiento fue prácticamente de la noche a la mañana”.
Es un problema difícil de abordar tal como es. Todos hemos visto la cantidad de desinformación en torno a cosas como las vacunas COVID-19. Sin embargo, un artículo publicado con medios deepfake convincentes será casi imposible de evitar que se publique y/o comparta ampliamente.
Las herramientas de inteligencia artificial para detectar las diferencias cada vez más pequeñas entre los medios reales y los manipulados serán clave para evitar que se publiquen deepfakes. Las herramientas de inteligencia artificial para detectar las diferencias cada vez más pequeñas entre los medios reales y los manipulados serán clave para evitar que se publiquen deepfakes. Sin embargo, los investigadores han descubierto que las herramientas actuales pueden ser fácilmente engañadas.
Las imágenes y los videos que se pueden verificar como originales y auténticos mediante tecnologías como los libros de contabilidad distribuidos también se pueden usar para ayudar a que las audiencias se sientan seguras de que los medios que están consumiendo no son una versión manipulada y que realmente pueden confiar en sus propios ojos.
Mientras tanto, Cameron sugiere usar la navaja de Occam, un principio de resolución de problemas que se puede resumir en que la explicación más simple es la más probable.
“Las teorías de la conspiración son demasiado complicadas. Las personas no son tan buenas, los sistemas humanos no son tan buenos, las personas no pueden guardar un secreto para salvar sus vidas, y la mayoría de las personas en posiciones de poder son títeres torpes.
“¿El hecho de que pensemos que podrían lograr estas tramas complejas de manera realista? ¡Yo no compro nada de esa basura! ¡Bill Gates realmente no está tratando de ponerte un microchip con la vacuna contra la gripe!”.
Sin embargo, Cameron admite su escepticismo sobre las nuevas tecnologías.
“Cada uno de los avances tecnológicos que se han creado se han convertido en armas. Les digo esto a los científicos de IA todo el tiempo, y dicen: 'No, no, no, tenemos esto bajo control'. Ya sabes, 'simplemente le damos a las IA los objetivos correctos…'
“Entonces, ¿quién decide cuáles son esos objetivos? Las personas que pusieron el dinero para la investigación, ¿verdad? Que son todos grandes negocios o defensa. Así que vas a enseñarles a estas nuevas entidades conscientes a ser codiciosas o asesinas”.
Por supuesto, Skynet recibe una mención de honor.
“Si Skynet quisiera hacerse cargo y acabar con nosotros, en realidad se parecería mucho a lo que está pasando ahora. No tendrá que, como, acabar con toda, ya sabes, la biosfera y el medio ambiente con armas nucleares para hacerlo. Será mucho más fácil y se requerirá menos energía para volver nuestras mentes contra nosotros mismos.
“Todo lo que Skynet tendría que hacer es falsificar a un grupo de personas, enfrentarlos entre sí, generar mucho entusiasmo y simplemente ejecutar este engaño gigante en la humanidad”.
Las infames “granjas de trolls” patrocinadas por el estado de Rusia son una de las mayores fuentes de desinformación y se utilizan para realizar campañas de influencia en línea.
En un informe de enero de 2017 emitido por la Comunidad de Inteligencia de los Estados Unidos – Evaluación de las actividades e intenciones rusas en las recientes elecciones estadounidenses (PDF) – describió a la 'Agencia de Investigación de Internet' como una de esas granjas de trolls.
“El probable financista de la llamada Agencia de Investigación de Internet de trolls profesionales ubicada en San Petersburgo es un aliado cercano de [Vladimir] Putin con vínculos con la inteligencia rusa”, comentando que “anteriormente se dedicaron a apoyar las acciones rusas en Ucrania”.
Los funcionarios occidentales han advertido que Rusia puede usar campañas de desinformación, incluidas afirmaciones de un ataque de las tropas ucranianas, para reunir apoyo y justificar una invasión de Ucrania. No está fuera de las posibilidades que el contenido manipulado desempeñe un papel, por lo que podría ser demasiado tarde para contrarrestar el primer desastre a gran escala respaldado por deepfakes.
Relacionado: University College London: Deepfakes son la amenaza criminal de IA "más grave"
(Crédito de la imagen: Gage Skidmore. Imagen recortada. Licencia CC BY-SA 3.0)
¿Quiere aprender más sobre IA y big data de los líderes de la industria? Echa un vistazo a AI & Big Data Expo. Los próximos eventos de la serie se llevarán a cabo en Santa Clara los días 11 y 12 de mayo de 2022, Ámsterdam los días 20 y 21 de septiembre de 2022 y Londres los días 1 y 2 de diciembre de 2022.
Explore otros próximos eventos y seminarios web de tecnología empresarial impulsados por TechForge aquí.
La publicación James Cameron advierte sobre los peligros de las falsificaciones profundas apareció primero en AI News.