Utilizando la Inteligencia Artificial Generativa (IAG) para Defender los Derechos Humanos

Reflexiones sobre el uso responsable de herramientas de Inteligencia Artificial (IA) para la creación y modificación de fotografías, videos y audios.

Escrito originalmente en inglés por shirin anlen y Raquel Vazquez Llorente. Traducción al español por Sara Vera López.

En WITNESS creemos firmemente en el poder de las tecnologías audiovisuales para proteger y defender los derechos humanos. Junto con el trabajo que realizamos para fundamentar nuestra comprensión de los daños de la IA y los medios sintéticos en las realidades a las que se enfrentan las comunidades a causa de la desinformación y la información errónea, reconocemos el potencial del uso de las herramientas de Inteligencia Artificial Generativa y medios sintéticos (“herramientas de IA”) para apoyar la defensa de los derechos humanos y la crítica social – pero sólo con la debida precaución y las consideraciones éticas pertinentes.

Nuestro equipo de Amenazas y Oportunidades Tecnológicas está explorando algunas de las herramientas de IA que pueden crear o modificar contenidos audiovisuales y que actualmente están disponibles al público. Por ejemplo, las técnicas de Procesamiento del Lenguaje Natural (Natural Language Processing) pueden generar material visual sintético a partir de instrucciones de texto (text prompt). También pueden permitir a las personas usuarias editar para añadir o eliminar objetos de una foto generada por IA o una foto real cargada por la persona usuaria. Las Redes Neuronales Profundas pueden reconocer patrones en los datos para sustituir el estilo o parecido de una persona por otra, así como segmentar una imagen en múltiples partes o regiones en función de criterios específicos, tales como el color o el objeto. La clonación de voz por IA puede imitar cualquier voz objetivo con la que se entrene.

A partir de esta experimentación y de nuestras consultas globales, este artículo esboza los escenarios en los que consideramos que la IA generativa audiovisual tiene más potencial para la defensa de los derechos humanos. También se reflexiona sobre las cuestiones éticas que el uso de determinadas tecnologías puede plantear a una organización de derechos humanos, y se ofrece una lista de preguntas para tener en cuenta al utilizar estas herramientas. Reconocemos que los desarrollos en este ámbito de la IA se están produciendo rápidamente, y que nuestra perspectiva puede evolucionar con estos avances y ser revisada en el futuro. Esperamos que compartir algunas de nuestras recomendaciones en esta fase pueda ayudar a grupos similares que estén desarrollando sus propias políticas internas. Agradeceremos sus comentarios al correo raquel@witness.org.

Consideraciones clave: Debilitamiento de la documentación de los derechos humanos, la transparencia en la producción, el consentimiento y las expectativas del contexto 

El uso de la IA para crear o editar multimedia no debería socavar la credibilidad, la seguridad y el contenido de organizaciones de derechos humanos, periodistas, verificadorxs de datos y grupos de documentación. En las consultas globales que hemos realizado desde 2018, hemos escuchado constantemente a diversas comunidades que defienden los derechos humanos sobre cómo su contenido y credibilidad se ven constantemente cuestionados. La llegada de los medios de comunicación sintéticos ha hecho más fácil descartar las imágenes reales. A medida que las herramientas para crear imágenes, videos y audios generados o editados con IA se vuelvan más accesibles, será más fácil para los gobiernos y las empresas afirmar que las imágenes perjudiciales para ellos son falsas. Cuando se generen o modifiquen contenidos audiovisuales con IA, es importante pensar en el papel de las organizaciones de derechos humanos a nivel mundial al establecer estándares y utilizar herramientas de forma que no se produzcan daños colaterales a grupos locales que se enfrentan a presiones mucho más extremas. Estos grupos en ocasiones ya están sobrecargados defendiendo sus imágenes y videos o combatiendo información falsa, y son foco de repetidos ataques de sus gobiernos para desacreditarles.

Los productos que resulten de la IA deberían estar claramente etiquetados y llevar una marca de agua, y se debe considerar incluir metadatos o huellas digitales invisibles para rastrear la procedencia de los contenidos multimedia. Cuando se publican contenidos generados o manipulados mediante IA, siempre se debe revelar su uso. Para que los avisos o advertencias sean eficaces, deben ser legibles, es decir, que puedan ser vistos, leídos, oídos o comprendidos por quienes consumen la información. Abogamos firmemente por un enfoque más innovador y basado en principios para el etiquetado de contenidos que pueda expresar ideas complejas y ofrecer a las audiencias un contexto significativo sobre cómo se han creado o manipulado los archivos multimedia. En el mejor de los casos, estos enfoques de transparencia también deberían comunicar la intención que subyace al uso de la IA. Cuando se utilizan herramientas de código abierto, las marcas invisibles (por ejemplo, huellas digitales legibles por máquina y metadatos detallados) pueden proporcionar mayores niveles de transparencia y la capacidad de rastrear la procedencia de un contenido multimedia, sin embargo, al momento su implementación se requiere de conocimientos técnicos avanzados.

Un enfoque cuidadoso del consentimiento es fundamental en los contenidos audiovisuales de IA. Existen algunas excepciones que pueden abordarse preguntando quiénes son las personas representadas, a qué grupos poblacionales pertenecen, y cuál es la intención del contenido. Por ejemplo, la sátira política puede no requerir el consentimiento de la persona, ya que su objetivo es cuestionar la dinámica de poder de las figuras públicas, o criticar y resaltar lo absurdo de los sistemas que refuerzan la desigualdad. Las organizaciones de derechos humanos pueden basarse en las directrices existentes sobre el consentimiento informado de los contenidos audiovisuales, así como en las buenas prácticas a la hora de tratar situaciones o trabajar con poblaciones que requieran atención especial, por ejemplo, grabaciones que involucran a menores, personas con discapacidad, personas sometidas a contextos coercitivos, o perpetradorxs de abusos.

Las expectativas sobre la veracidad y la extensión de manipulación del contenido visual dependerá del contexto en el que se produzca y del género del material audiovisual. Por ejemplo, las películas narrativas y de ficción sobre derechos humanos pueden por sí mismas derivar en expresiones más artísticas que ayuden a las personas a conectar con temas complejos. En cambio, la información fáctica sobre derechos humanos que busca exponer los abusos lleva implícitas suposiciones de exactitud, veracidad y realismo. Algunas de estas expectativas también pueden evolucionar con el tiempo, particularmente cuando el material audiovisual se vuelve a ver o se recupere para propósitos distintos de aquellos para los que se creó. Por ello, la transparencia en la creación y modificación de los contenidos audiovisuales, así como un enfoque cuidadoso del consentimiento, son fundamentales para evitar contribuir a la desinformación y perjudicar a comunidades y personas.

Potenciales casos de uso y sus consideraciones éticas: nuestro pensamiento actual 

1) Protección de la identidad

La IA puede utilizarse para anonimizar a las personas o proteger sus identidades, siempre que se cumplan con determinadas condiciones. Filtros como el desenfoque (blur), la pixelización o la alteración de la voz en personas o lugares pueden ayudar a crear disfraces digitales para imágenes y audios. Del mismo modo, los usos creativos pueden tanto proteger a las personas como atraer a la audiencia, un ejemplo de esto son los métodos deepfake empleados en el documental Bienvenida a Chechenia (Welcome to Chechnya), y otras técnicas como los modelos de video a video, los avatares de IA basados en videos reales y los clones de voz. Estas herramientas pueden ser útiles, pero siempre que se sigan las directrices mencionadas arriba de dignidad, transparencia y consentimiento.

Sin embargo, el uso de técnicas de IA puede producir resultados deshumanizadores que deberían evitarse. Las herramientas actuales de IA suelen generar resultados que refuerzan los prejuicios sociales, raciales y de género, así como producir errores visuales que muestran cuerpos humanos deformados. Cualquier proceso que utilice la IA para la protección de la identidad debe contar siempre con una cuidadosa curaduría y monitoreo humanos, junto con un profundo entendimiento de la comunidad y la audiencia a la que sirve.

Preguntas que ayudan a guiar el uso de la IA para la protección de la identidad: 

  • ¿Quiénes son las personas representadas y a qué grupos poblacionales pertenecen?
  • ¿Cuál es la intención del contenido?
  • ¿Existe consentimiento informado de la persona o personas representadas o implicadas en el contenido audiovisual? En caso de que no exista, ¿por qué?
  • Si el uso de la IA para proteger la identidad no es obvio (por ejemplo, si se utiliza la clonación de la voz), ¿se revela claramente la modificación a la audiencia?
  • ¿Podría revertirse la técnica de enmascaramiento y revelar la identidad real de una persona o la imagen que hay detrás?
  • ¿La grabación resultante preserva la dignidad de la persona o personas?
  • ¿La grabación resultante refuerza, directa o involuntariamente, los prejuicios o sesgos existentes en los conjuntos de datos (data sets) de IA generativa?

2) Visualizar testimonios de personas sobrevivientes, víctimas, y testigos, o reconstruir lugares y eventos a partir de las declaraciones

Los enfoques expresivos y artísticos en la visualización de testimonios pueden ser éticos y apropiados, siempre que se cumplan ciertas condiciones. Existe una abundante historia de animaciones y formas alternativas de narración de documentales, y la IA puede ayudar a promover formas audiovisuales que transmitan historias de forma eficaz y atraigan a la audiencia con fines de incidencia. Las herramientas de IA tales como la conversión de texto a imagen, texto a video, y la interpolación de fotogramas pueden utilizarse para generar visuales de testimonios basados en audio y en texto a los que les faltan imágenes y contenido de video para mostrar las emociones subyacentes y los subcontextos de la experiencia. Sin embargo, hay que dejar claro que estos visuales están intencionados para ser una expresión artística en lugar de una representación estricta palabra por palabra.

En determinadas circunstancias, la IA puede utilizarse para retratar y reconstruir lugares con propósitos de incidencia. Cuando los lugares físicos son inaccesibles por motivos de seguridad o cuando han sido destruidos, las técnicas de IA como la síntesis de escenas volumétricas o la conversión de imágenes a video, pueden permitir a las audiencias visualizar un sitio de importancia histórica o las circunstancias experimentadas por una comunidad determinada en un lugar concreto (por ejemplo, las condiciones de la detención). Del mismo modo, pueden ayudarnos a imaginar realidades alternativas y futuras, como la devastación medioambiental. Sin embargo, en estos casos, debe tenerse en cuenta cómo se generaron estos visuales, y el uso de la IA debe siempre coincidir con los objetivos de incidencia y basarse en información verificada.

El uso de la IA para “resucitar” a personas fallecidas requiere de un enfoque cuidadoso y no debe hacerse macabramente. Traer “a la vida” a las personas fallecidas plantea muchos desafíos éticos relacionados con el consentimiento, la explotación de las personas muertas y la revictimización de la familia y las comunidades sobrevivientes. La generación de representaciones realistas mediante la IA, que utiliza el parecido de alguien (por ejemplo, la imagen y/o audio), puede reproducir el daño y el abuso que la persona o su comunidad sufrieron en primer lugar. Por otro lado, el uso cuidadoso de la IA puede ayudar a representar realidades alternativas o a recuperar el mensaje de alguien (mira aquí el video de Mauricio Pérez-Propuesta Cívica en español sobre un ejemplo de uso), y tener un poderoso efecto para la incidencia. Cuando se utilizan herramientas de IA para estos fines, es fundamental considerar las implicaciones legales; incorporar el consentimiento estricto de las personas familiares más próximas, la comunidad y otrxs dependiendo, de la cultura, el contexto, y los riesgos; pensar en el respeto a la memoria de la persona en el proceso de curaduría y creación; y revelar claramente el uso de la IA.

La IA no debe utilizarse para generar seres humanos y eventos cuando existan grabaciones reales y puedan ser obtenidas. Separamos el uso de la IA para aplicar efectos o alteraciones específicas a un rostro, una figura o una voz, del uso de la IA para generar visuales de todo un acontecimiento crítico del que existen grabaciones reales. Fotoperiodistas, personas defensoras de los derechos humanos y equipos de documentación realizan coberturas de eventos y recopilan información valiosa, a pesar de los riesgos que eso significa para su seguridad. Su trabajo puede exponer abusos, reunir evidencia de crímenes, o conectar con las audiencias. En un mundo en el que la desinformación es desenfrenada utilizar la IA para generar contenidos visuales nos aleja de la evidencia real y socava nuestra capacidad de luchar contra las violaciones de los derechos humanos y atrocidades. Es importante destacar que, en estas situaciones, las audiencias esperan recibir información real sobre hechos reales.

La IA no debe utilizarse para editar de forma autónoma o modificar el tono de los testimonios de las personas sobrevivientes, víctimas y testigos.  Cuando se utilizan testimonios escritos y visuales para la incidencia, la aplicación de la IA en la edición del material puede producir errores y cambios en el tono y el significado. La interpretación de estos testimonios requiere de un nivel de sensibilidad y comprensión del tema y del propósito del material que no está dentro de las capacidades de la IA.

Preguntas que ayudan a guiar el uso de la IA en la visualización de testimonios o la reconstrucción de lugares y acontecimientos a partir de declaraciones: 

  • ¿Existe información de la vida real que pueda utilizarse para explicar un suceso? Si no es así, ¿el uso de la IA socavaría la credibilidad de quienes intentan recopilar y compartir información sobre esa situación concreta; y, más en general, de otras organizaciones de derechos humanos, activistas y la sociedad civil que intentan compartir información fidedigna?
  • ¿Cuál es el objetivo de reconstruir un sitio concreto, y qué información está disponible ahí?
  • ¿Cuál es el nivel de precisión que esperarían las personas que observan la visualización o reconstrucción? ¿Existe alguna forma de comunicar las lagunas existentes entre la información subjetiva y el resultado producido?
  • ¿Se revela claramente el uso de técnicas y herramientas de IA, en parte o en la totalidad de la reconstrucción?
  • ¿Se ha comprobado o puede comprobarse la exactitud y el tono del resultado por un ser humano?

3) Sátira y expresión artística 

El uso de IA para la sátira y la parodia puede ser poderoso, especialmente cuando la intención es abrir conversaciones sobre la desigualdad, la injusticia y otras dinámicas de poder. WITNESS se ha centrado extensamente en cuestiones relativas a encontrar el balance entre contrarrestar la desinformación al mismo tiempo que se respeta la libertad de opinión y expresión. Por ello, es importante proteger el uso satírico y artístico de los medios sintéticos y de la IA generativa en contextos políticos y sociales de acuerdo con las normas internacionales de los derechos humanos (como se analiza en el informe Just Joking!, en colaboración con el Co-Creation Studio del MIT. Disponible completo en inglés. El resumen ejecutivo del reporte se encuentra disponible en español). En lo que respecta a estos usos, un etiquetado claro, una marca de agua o la revelación de cómo se fabrican y alteran los medios es clave para evitar que contenidos nocivos sean presentados después del hecho como satírico, o si el contenido satírico pierde su contexto y es reutilizado maliciosamente. El uso de la IA para estos fines también nos obliga a reflexionar sobre nuestra concepción de la dignidad digital y los derechos similares, así como sobre nuestra comprensión del consentimiento.

Preguntas para ayudar a guiar el uso de la IA para la expresión satírica y artística: 

  • ¿Es fácil eliminar la marca de agua?
  • ¿Cuál es el riesgo de “colapso del contexto” (por ejemplo, si la foto o el video se circulan fuera de contexto)?¿Cómo puede el público rastrear la procedencia del contenido hasta la/s persona/s creadoras, o hasta la herramienta de inteligencia artificial utilizada para generar la imagen o el video (por ejemplo, huellas digitales invisibles)?¿Pueden estos metadatos de procedencia poner en riesgo a alguien?
  • ¿Se limita el contenido a representar a un personaje público o también a otras personas? En este último caso, ¿cómo se obtuvieron las imágenes y existe consentimiento para utilizar su imagen o su voz en contenidos generados o manipulados por IA?
  • ¿Cómo se comparan los contenidos con la legislación internacional sobre derechos humanos y otras normas reconocidas que abordan la libertad de expresión, la dignidad y la privacidad?

Desde la fundación de WITNESS en 1992, nuestra historia ha sido de innovación incesante. Nos preocupamos profundamente por apoyar a las comunidades y los movimientos de base en su labor de compartir y crear información confiable que contribuya a la rendición de cuentas y la justicia. Nuestro Equipo de Oportunidades y Amenazas Tecnológicas se involucra desde el principio con las tecnologías emergentes que tienen el potencial de mejorar o socavar nuestra confianza en el contenido audiovisual. Como tal, nos acercamos al uso de la IA generativa con extrema precaución. Es importante destacar que hay muchas preguntas que estas herramientas aún tienen que responder, en particular con respecto a los derechos de autor y la agencia de las personas artistas sobre su contenido (por ejemplo, en el uso de fotos de archivo), o la transparencia en la divulgación de cómo se crean o modifican los medios de comunicación. De manera similar, hemos escuchado en nuestras consultas que las preocupaciones por la privacidad y la seguridad de las personas representadas en los conjuntos de datos (data sets) utilizados para entrenar son cada vez mayores para las organizaciones que publican imágenes reales de derechos humanos en línea, y merece una mayor investigación sobre cómo las etiquetas “no entrenar” se pueden incorporar a los datos disponibles públicamente.

Con la anticipación del impacto social significativo de la IA generativa y la falta de regulaciones que aborden los riesgos y daños a escala global, debemos asegurarnos de comprender los desafíos éticos que plantea esta tecnología y nuestro papel para abordarlos. De lo contrario, corremos el riesgo de devaluar y socavar la credibilidad del contenido visual y de quienes podrían verse más afectadxs.

Publicado el 28 de junio, 2023

Nota: Muchos de los enlaces mencionados en esta publicación están disponibles únicamente en inglés, si tienes cualquier duda sobre alguna de estas referencias escríbenos a es@witness.org



¿Eres nuev@ en WITNESS? Mantente en contacto.