El documental Welcome to Chechenya ha utilizado la tecnologĂa del ‘deepfake’ para mantener el anonimato de las personas del colectivo LGTBI+ que son perseguidas y torturadas.
Lo que conocemos del deepfake es de todo menos positivo. Un vĂdeo porno con la cara de una actriz famosa o con las supuestas declaraciones incendiarias de un presidente. La inteligencia artificial para reemplazar los rostros se popularizĂ³ en Reddit pero ha trascendido en los Ăºltimos años, lo que ha provocado una campaña de acciĂ³n para identificarlos y eliminarlos. Sin embargo, esta tecnologĂa tiene tambiĂ©n un lado positivo que llega hasta la lucha por los derechos LGTBI+.
El documental Welcome to Chechenya de HBO, que se estrenĂ³ el 30 de junio, habla de la persecuciĂ³n de las personas pertenecientes a esta comunidad en la repĂºblica rusa de mayorĂa musulmana. La producciĂ³n habla de una red clandestina que ayuda a estas personas, en su mayorĂa homosexuales, a salir del paĂs y asĂ evitar la tortura, el acoso y hasta el asesinato. Pero el director, David France, tenĂa que explicar las historias de los protagonistas sin que aparecieran ni sus nombres ni sus rostros para evitar ponerles en peligro.
Hasta ahora, se han utilizado mĂ©todos como difuminar la cara o grabarlos en la sombra. Pero France optĂ³ por utilizar la misma tecnologĂa que se utiliza para el deepfake para poder transmitir de una manera mĂ¡s eficaz las emociones de los protagonistas que cuentan sus historias de persecuciĂ³n. En el documental, las voces y los rostros de los supervivientes han sido reemplazados por activistas de los derechos LGTBI+, en su mayorĂa residentes en Estados Unidos.
Mantener la esencia con el ‘deepfake’
Ryan Laney, el experto en efectos visuales de Welcome to Chechenya, dijo para Recode que el objetivo de utilizar esta tecnologĂa basada en el machine learning era crear una prĂ³tesis digital. Con ella, se busca mantener el movimiento, la emociĂ³n y la esencia de la persona que estĂ¡ hablando a la cĂ¡mara.
Los rostros de los protagonistas fueron reemplazados con los de activistas
Laney tambiĂ©n subrayĂ³ que, por el uso que se le estĂ¡ dando a esta tĂ©cnica, no serĂa correcto utilizar el tĂ©rmino deepfake, que estĂ¡ relacionado con la prĂ¡ctica ilĂcita. En el caso del documental de HBO, por el contrario, las imĂ¡genes han sido grabadas y editadas con el consentimiento de los activistas que han cedido su rostro.
AdemĂ¡s, Laney puso de relieve que los espectadores saben en todo momento que las caras han sido modificadas con inteligencia artificial. Y este no es el caso de los deepfakes. Un estudio reciente revelĂ³ que la mayorĂa de vĂdeos de estas caracterĂsticas estĂ¡n relacionados con la industria pornogrĂ¡fica. TambiĂ©n con las grabaciones de polĂticos atribuyĂ©ndoles declaraciones que no han dicho. En este caso, el reto es evitar estas campañas de desinformaciĂ³n y frenar las noticias falsas en redes sociales.
Cambiar el rostro para garantizar la seguridad
El caso de Welcome to Chechenya puede cambiar la manera en la que hemos visto los deepfakes hasta ahora, aunque algunos expertos apuntan a que esto solo es el principio. Sorprendentemente, el potencial por el que se estĂ¡ apostando responde a un objetivo contrario al que se ha relacionado hasta ahora con esta prĂ¡ctica ilĂcita. Algunas empresas estĂ¡n utilizando el machine learning para garantizar el anonimato y la seguridad de los usuarios en la red. Todo lo contrario de lo que hemos visto en los vĂdeos pornogrĂ¡ficos y que fomentan las fake news.
Es el caso de Teus Media, que quiere garantizar el anonimato de las fuentes periodĂsticas. La explicaciĂ³n es la misma que en el caso del documental de HBO: evitar las medidas que se han tomado hasta ahora para conseguir este fin, como difuminar la cara. Con inteligencia artificial, esta empresa liderada tambiĂ©n por el experto en artes visuales quiere aumentar la protecciĂ³n para aquellas personas que dan informaciĂ³n que puede ponerles en peligro. Sobre todo en el caso de la televisiĂ³n, esta prĂ¡ctica puede ser acertada para transmitir las emociones y empatizar mĂ¡s fĂ¡cilmente con la fuente periodĂstica.
El otro nicho en el que el uso de los «deepafakes lĂcitos» pueden tener lugar es para evitar el robo de identidad. La empresa D-ID ofrece en este sentido una soluciĂ³n para evitar la identificaciĂ³n de la identidad en imĂ¡genes sacados de datos biomĂ©tricos. Tanto empresas como particulares almacenan imĂ¡genes de circuito cerrado y, antes de que puedan ser utilizadas, la startup ofrece cambiar el rostro de la persona para proteger su identidad.
La tecnologĂa de la compañĂa funciona en distintos niveles. En un vĂdeo, D-ID muestra cĂ³mo va cambiando progresivamente la cara del usuario y, finalmente, el rostro se parece pero no se podrĂa saber la identidad. Ni siquiera los mecanismos de reconocimiento facial actuales podrĂan dar detalles de la persona que aparece en la imagen.
Una mayor conciencia ligada al deepfake
La estrategia de la empresa cobra especial relevancia en un momento en el que muchos gobiernos alrededor del mundo, asĂ como empresas privadas, han aumentado el uso de la vigilancia por la pandemia del coronavirus. Gil Perry, fundador de D-ID explicĂ³ para TechChrunch que las autoridades estĂ¡n utilizando la nueva normalidad «como una excusa para la vigilancia masiva». Se refiere a casos como el de Israel, que ha puesto en funcionamiento una app para seguir y monitorear a los ciudadanos y asĂ poder determinar si han estado en contacto con personas contagiadas con COVID-19.
AdemĂ¡s de esta situaciĂ³n excepcional por la pandemia mundial, empresas como la de reconocimiento facial Clearview AI han ido recopilando informaciĂ³n personal a travĂ©s de la plataforma. Por casos como este y por muchos otras experiencias, Perry indicĂ³ que la sociedad estĂ¡ mucha mĂ¡s concienciada en lo que a protecciĂ³n de datos se refiere.
A pesar del potencial de este tipo de empresas, este modelo de negocio se encuentra todavĂa en etapas muy tempranas y su uso generalizado por parte de empresas sigue siendo una meta complicada en un corto plazo. Los prĂ³ximos desarrollos de la tecnologĂa serĂ¡n clave para marcar el futuro de estas compañĂas que han dado la vuelta a una de las mayores amenazas en las redes, el deepfake, para convertirlo en una herramienta de protecciĂ³n para los ciudadanos.
Fuente: Hipertextual









