Inicio / Sin categorĂ­a / Deepfake: del enemigo nĂºmero uno en redes a un aliado en la lucha por los derechos LGTBI+

Deepfake: del enemigo nĂºmero uno en redes a un aliado en la lucha por los derechos LGTBI+

El documental Welcome to Chechenya ha utilizado la tecnologĂ­a del ‘deepfake’ para mantener el anonimato de las personas del colectivo LGTBI+ que son perseguidas y torturadas.

Lo que conocemos del deepfake es de todo menos positivo. Un vĂ­deo porno con la cara de una actriz famosa o con las supuestas declaraciones incendiarias de un presidente. La inteligencia artificial para reemplazar los rostros se popularizĂ³ en Reddit pero ha trascendido en los Ăºltimos años, lo que ha provocado una campaña de acciĂ³n para identificarlos y eliminarlos. Sin embargo, esta tecnologĂ­a tiene tambiĂ©n un lado positivo que llega hasta la lucha por los derechos LGTBI+.

El documental Welcome to Chechenya de HBO, que se estrenĂ³ el 30 de junio, habla de la persecuciĂ³n de las personas pertenecientes a esta comunidad en la repĂºblica rusa de mayorĂ­a musulmana. La producciĂ³n habla de una red clandestina que ayuda a estas personas, en su mayorĂ­a homosexuales, a salir del paĂ­s y asĂ­ evitar la tortura, el acoso y hasta el asesinato. Pero el director, David France, tenĂ­a que explicar las historias de los protagonistas sin que aparecieran ni sus nombres ni sus rostros para evitar ponerles en peligro.

Hasta ahora, se han utilizado mĂ©todos como difuminar la cara o grabarlos en la sombra. Pero France optĂ³ por utilizar la misma tecnologĂ­a que se utiliza para el deepfake para poder transmitir de una manera mĂ¡s eficaz las emociones de los protagonistas que cuentan sus historias de persecuciĂ³n. En el documental, las voces y los rostros de los supervivientes han sido reemplazados por activistas de los derechos LGTBI+, en su mayorĂ­a residentes en Estados Unidos.

Mantener la esencia con el ‘deepfake’
Ryan Laney, el experto en efectos visuales de Welcome to Chechenya, dijo para Recode que el objetivo de utilizar esta tecnologĂ­a basada en el machine learning era crear una prĂ³tesis digital. Con ella, se busca mantener el movimiento, la emociĂ³n y la esencia de la persona que estĂ¡ hablando a la cĂ¡mara.

Los rostros de los protagonistas fueron reemplazados con los de activistas
Laney tambiĂ©n subrayĂ³ que, por el uso que se le estĂ¡ dando a esta tĂ©cnica, no serĂ­a correcto utilizar el tĂ©rmino deepfake, que estĂ¡ relacionado con la prĂ¡ctica ilĂ­cita. En el caso del documental de HBO, por el contrario, las imĂ¡genes han sido grabadas y editadas con el consentimiento de los activistas que han cedido su rostro.

AdemĂ¡s, Laney puso de relieve que los espectadores saben en todo momento que las caras han sido modificadas con inteligencia artificial. Y este no es el caso de los deepfakes. Un estudio reciente revelĂ³ que la mayorĂ­a de vĂ­deos de estas caracterĂ­sticas estĂ¡n relacionados con la industria pornogrĂ¡fica. TambiĂ©n con las grabaciones de polĂ­ticos atribuyĂ©ndoles declaraciones que no han dicho. En este caso, el reto es evitar estas campañas de desinformaciĂ³n y frenar las noticias falsas en redes sociales.

Cambiar el rostro para garantizar la seguridad
El caso de Welcome to Chechenya puede cambiar la manera en la que hemos visto los deepfakes hasta ahora, aunque algunos expertos apuntan a que esto solo es el principio. Sorprendentemente, el potencial por el que se estĂ¡ apostando responde a un objetivo contrario al que se ha relacionado hasta ahora con esta prĂ¡ctica ilĂ­cita. Algunas empresas estĂ¡n utilizando el machine learning para garantizar el anonimato y la seguridad de los usuarios en la red. Todo lo contrario de lo que hemos visto en los vĂ­deos pornogrĂ¡ficos y que fomentan las fake news.

Es el caso de Teus Media, que quiere garantizar el anonimato de las fuentes periodĂ­sticas. La explicaciĂ³n es la misma que en el caso del documental de HBO: evitar las medidas que se han tomado hasta ahora para conseguir este fin, como difuminar la cara. Con inteligencia artificial, esta empresa liderada tambiĂ©n por el experto en artes visuales quiere aumentar la protecciĂ³n para aquellas personas que dan informaciĂ³n que puede ponerles en peligro. Sobre todo en el caso de la televisiĂ³n, esta prĂ¡ctica puede ser acertada para transmitir las emociones y empatizar mĂ¡s fĂ¡cilmente con la fuente periodĂ­stica.

El otro nicho en el que el uso de los «deepafakes lĂ­citos» pueden tener lugar es para evitar el robo de identidad. La empresa D-ID ofrece en este sentido una soluciĂ³n para evitar la identificaciĂ³n de la identidad en imĂ¡genes sacados de datos biomĂ©tricos. Tanto empresas como particulares almacenan imĂ¡genes de circuito cerrado y, antes de que puedan ser utilizadas, la startup ofrece cambiar el rostro de la persona para proteger su identidad.

La tecnologĂ­a de la compañía funciona en distintos niveles. En un vĂ­deo, D-ID muestra cĂ³mo va cambiando progresivamente la cara del usuario y, finalmente, el rostro se parece pero no se podrĂ­a saber la identidad. Ni siquiera los mecanismos de reconocimiento facial actuales podrĂ­an dar detalles de la persona que aparece en la imagen.

Una mayor conciencia ligada al deepfake
La estrategia de la empresa cobra especial relevancia en un momento en el que muchos gobiernos alrededor del mundo, asĂ­ como empresas privadas, han aumentado el uso de la vigilancia por la pandemia del coronavirus. Gil Perry, fundador de D-ID explicĂ³ para TechChrunch que las autoridades estĂ¡n utilizando la nueva normalidad «como una excusa para la vigilancia masiva». Se refiere a casos como el de Israel, que ha puesto en funcionamiento una app para seguir y monitorear a los ciudadanos y asĂ­ poder determinar si han estado en contacto con personas contagiadas con COVID-19.

AdemĂ¡s de esta situaciĂ³n excepcional por la pandemia mundial, empresas como la de reconocimiento facial Clearview AI han ido recopilando informaciĂ³n personal a travĂ©s de la plataforma. Por casos como este y por muchos otras experiencias, Perry indicĂ³ que la sociedad estĂ¡ mucha mĂ¡s concienciada en lo que a protecciĂ³n de datos se refiere.

A pesar del potencial de este tipo de empresas, este modelo de negocio se encuentra todavĂ­a en etapas muy tempranas y su uso generalizado por parte de empresas sigue siendo una meta complicada en un corto plazo. Los prĂ³ximos desarrollos de la tecnologĂ­a serĂ¡n clave para marcar el futuro de estas compañías que han dado la vuelta a una de las mayores amenazas en las redes, el deepfake, para convertirlo en una herramienta de protecciĂ³n para los ciudadanos.

Fuente: Hipertextual

Deje un comentario

Tu direcciĂ³n de correo electrĂ³nico no serĂ¡ publicada. Los campos obligatorios estĂ¡n marcados con *

veinte − uno =

Este sitio usa Akismet para reducir el spam. Aprende cĂ³mo se procesan los datos de tus comentarios.