{ Latent Space } Un boletín sobre DeepFakes, Desinformación y Derechos Humanos

La 1era edición del boletín {Latent Space} ¡está disponible! y queremos compartírselas en español también. Escrito por Corin Faife, Coordinador Senior del área de Amenazas y Oportunidades Emergentes en WITNESS. Suscríbete y recibe este boletín en tu correo electrónico.

La novena conferencia de RightsCon tuvo lugar en julio de este año, ahora en formato en línea por primera vez como tantos otros eventos. Ya sea virtual o físico, desde WITNESS generalmente enviamos un gran contingente, ya que los derechos humanos digitales está tan directamente relacionados con nuestra misión, y por la calidad de espacio que se genera por las personas de defensoras de derechos humanos que lograr reunir.

El equipo de WITNESS dirigió numerosos talleres y páneles en RightsCon, entre ellos una sesión titulada Deepfakes ¿soluciones para quién? Descentrar a lxs políticxs estadounidenses, volver a centrar el resto del mundo. Se llevó a cabo en asociación con el Gulf Center for Human Rights, dirigido por Sam Gregory el director del programas de WITNESS, el director del programa para África Adebayo Okeowo y yo, en colaboración con Joana Varon de Coding Rights y Samuel Bannada de Kweeta Uganda.

Descentrar a los EE. UU. en la discusión de soluciones es una parte clave del trabajo de WITNESS en los deepfakes, que abarca muchas más de nuestras operaciones que un solo taller. De hecho, la sesión de RightsCon fue una extensión de una serie de talleres globales que hemos estado realizando durante más de un año: Brasil en julio de 2019, Sudáfrica en noviembre de 2019 y Malasia en abril de 2020. Cada uno de estos talleres fue por una parte una oportunidad educativa y por otro lado una sesión de priorización de soluciones parciales: durante la primera mitad proporcionamos una introducción a los deepfakes (la historia de la tecnología y su probable evolución) y, para la segunda mitad, dirigimos debates sobre posibles escenarios de amenazas y los pasos más importantes que se podrían tomar para abordarlos.

Cuando quitamos el centro de los EE. UU., como en los talleres globales y la reciente sesión de RightsCon, encontramos que las amenazas percibidas que surgen de los medios sintéticos cambian, al igual que las soluciones que se consideran más importantes para trabajar. En Estados Unidos, los deepfakes a menudo se imaginan como una amenaza política de alto nivel, especialmente con las elecciones que se avecinan. Preguntamos qué sucedería si un video falso apuntara a Biden, Trump o quizás a un miembro del congreso en un momento crucial, y desarrollamos soluciones, a menudo ingeniosas pero que requieren muchos recursos, como la “biometría suave“, para protegerse contra esa eventualidad.

Pero lxs políticxs y otras figuras de alto perfil, aunque son quizás los objetivos más comunes, también tienen una plataforma más grande desde la cual dejar las cosas claras. Tienen un gran número de seguidores en las redes sociales y una línea directa con las organizaciones de noticias que pueden investigar y desacreditar los reclamos y, por lo tanto, están doblemente protegidos en comparación con cualquier persona que no tenga acceso a ninguno de estos. Por lo anteior, en nuestros talleres globales nos alejamos de discutir las amenazas a lxs principales políticxs, no porque la amenaza no sea importante, sino porque quienes están bajo amenaza en ese caso ya están en mejores condiciones de defenderse.

En cambio, en RightsCon, lxs participantes de nuestra sesión nos dijeron que los ataques que empañan la reputación de una persona activista también deben entenderse como un atentado contra su seguridad física, ya que una pérdida de credibilidad personal puede sentar las bases para futuras campañas de acoso donde la persona se encuentre en una posición vulnerable, al dañarse la confianza que le tienen las personas a su alrededor. Al contrario de lxs políticxs, que pueden tomar una postura pública y amplificada frente a las campañas de difamación, escuchamos que los ataques centrados en la moralidad sexual, especialmente dirigidos a las personas LGBTQ+, a menudo tienen el efecto de silenciarles y sacarles de la esfera pública. Una sugerencia fue que se podrían desarrollar mejores protocolos para apoyar a las personas que están bajo el control de las campañas de acoso en línea, no solo a nivel de plataforma, sino también a nivel de comunidad, para que puedan encontrar la fuerza y ​​la resistencia para continuar en lugar de abandonar el espacio de las redes sociales por completo.

Escuchamos más preocupaciones y más sugerencias además de estas, que tendremos el tiempo y el espacio para discutir en futuros boletines. Si bien la sesión de RightsCon duró solo una hora, fue suficiente para unir voces de todo el mundo en la lucha por una nueva perspectiva sobre los deepfakes.

¿Qué pasaría, me pregunto, si en Estados Unidos pudiéramos dedicar más tiempo a este tipo de escucha?

Actualizaciones de WITNESS:

Otras noticias:

  • El algoritmo de Facebook es una gran amenaza para la salud pública, sostiene un nuevo informe de Avaaz, publicado la semana pasada.
  • Más aventuras en aplicaciones informales de deepfakes: TechCrunch tiene una entrevista con los fundadores ucranianos de Reface, que “apenas está comenzando con la cultura de las selfies que cambian de forma”.
  • Fakes de audio para “hacer el bien”: un desarrollador de software sintetizó la voz de David Attenborough y la usó para leer hilos de Reddit, lo que es extrañamente relajante.

Suscríbete y recibe las siguientes ediciones de este boletín en tu correo electrónico.

 



¿Eres nuev@ en WITNESS? Mantente en contacto.