Verdad, mentiras y responsabilidad de las plataformas de redes sociales en 2021

El blog original fue escrito por Sam Gregory en inglés. Foto: dole777.

Una perspectiva de WITNESS sobre las prioridades de cara al 2021 y más allá

En 2021, los temas críticos en la intersección de las redes sociales, la rendición de cuentas y los derechos humanos estarán finalmente en el centro de la discusión pública global. Fue necesario el intento de insurrección en el Capitolio de los Estados Unidos para que las plataformas de redes sociales finalmente suspendieran las cuentas del ex presidente Donald Trump y forzaran una discusión sobre contenido en línea, odio y violencia. En el contexto de la pandemia de COVID-19 en curso, así como de la desenfrenada desinformación política, los gobiernos están buscando nuevas medidas para abordar la verdad y la falsedad, así como esfuerzos legislativos y regulatorios más amplios en torno a las plataformas en línea.

Durante más de una década desde nuestro informe Cameras Everywhere en 2011, WITNESS se ha centrado en cómo las plataformas de Internet median la confianza, la evidencia en línea y amplifican o reprimen las voces marginadas. Este trabajo sistémico se basa en nuestro apoyo continuo al uso de video y tecnología para los derechos humanos y en los esfuerzos para integrar las voces globales y de base en los esfuerzos de incidencia con las empresas de tecnología. Aquí describimos preguntas críticas y relevantes para nuestro trabajo a nivel mundial y recomendamos acciones para avanzar.

TL;DR

  • Garantizar que la responsabilidad de las plataformas se base en las realidades globales y los derechos humanos
  • Exigir cuentas a los líderes que incitan a la violencia en las redes sociales y se “salen con la suya”
  • Crear “casilleros para evidencia” funcionales para el contenido crítico en línea
  • Basar las normas en torno a la moderación del contenido en los derechos humanos
  • Defiender el ser testigos
  • Combatir la desinformación de la manera correcta: “Hay verdad y hay mentiras, mentiras dichas por poder y por lucro”.

Garantizar que la responsabilidad de las plataformas se base en las realidades globales y los derechos humanos

Los activistas de derechos humanos a nivel mundial (por ejemplo, en Myanmar, Brasil, Sri Lanka, Etiopía, Filipinas, Hungría e India) han señalado el fracaso de las plataformas para proporcionar recursos, responder y actuar cuando las redes sociales se utilizan para incitar a la violencia y amplificar la crisis , o despertar el odio en sus países, a menudo coordinado, comercializado y dirigido por los gobiernos. En los Estados Unidos, los activistas han pedido a Facebook y otras plataformas que rindan cuentas por no abordar el odio racializado y la desinformación. Para nuestrxs aliadxs, estos problemas son una realidad de la vida diaria: la eliminación de evidencia clave o video revelador, un ataque en línea de una fuente desconocida, un “rumor” que provoca violencia en el mundo físico o una campaña de difamación coordinada como del tipo que apuntó al monje Luon Sovath en Camboya.

Aunque se han logrado algunos avances, en la abrumadora mayoría de los contextos, los activistas señalan la falta de recursos del personal corporativo responsable de reaccionar ante las crisis, la desatención a los llamados a la acción de la sociedad civil, la gran cercanía de las plataformas a los gobernantes políticos y la falta de comprensión del contexto y el daño para poder tomar decisiones informadas sobre los riesgos potenciales.

La activista líder en derechos digitales Nighat Dad de Digital Rights Foundation Pakistan capturó la frustración que sienten tantos defensores de todo el mundo en sus tweets posteriores al 6 de enero:

“… Los hombres blancos que dirigen estos gigantes tecnológicos tuvieron que ver el incidente del Capitolio para dar un paso “drástico”, pero ¿sería esto lo mismo en nuestros países? La mayoría de lxs activistas de derechos digitales del sur global están entre la espada y la pared, por un lado, su trabajo está amenazado en sus propios países, y por otro lado, tienen que señalar y demandar a las plataformas que no rinden cuentas a las personas usuarias de sus países. Las plataformas a menudo aplican diferentes estándares/políticas a los países del sur global, mientras que al mismo tiempo se rinden ante gobiernos opresivos cuando están en peligro”.

Lo que se necesita: Cualquier enfoque eficaz de rendición de cuentas de la plataforma, ya sea en la reforma estructural o la reducción de daños actual, debe centrarse en los derechos humanos y mirar globalmente a cómo las plataformas han fallado simultáneamente a las personas defensoras de derechos y comunidades marginadas y minoritarias, y han protegido a líderes poderosos. La incidencia debe exigir que las plataformas inviertan más recursos en los esfuerzos globales, considerando que los eufemísticamente llamados “mercados emergentes” son sociedades reales que albergan a la mayoría de la población mundial. Y debemos continuar rechazando las demandas ilegítimas o que comprometen los derechos humanos formuladas por los gobiernos.

Yendo más allá del status quo hacia la reforma y la renovación, legisladores, la sociedad civil y los medios de comunicación ya han ejercido una presión significativa sobre las plataformas para que respondan al odio y a la desinformación globalizada. Pero en este contexto, cuando las voces del poder y los privilegios son las más fuertes, debemos centrar intencionalmente las experiencias, el expertise y las voces de las comunidades marginadas y los activistas críticxs, particularmente del “Sur Global” (ver muchas sugerencias aquí y aquí), así como investigación académica que evalúa empíricamente los impactos de la moderación de las plataformas.

Debemos asegurarnos de que los próximos pasos urgentes sobre la rendición de cuentas de la plataforma estén guiados por los principios de derechos humanos (como los articuló el ex Relator Especial sobre la libre expresión y se describen en esta guía de AccessNow), con rendición de cuentas y transparencia para las personas usuarias e investigadoras como se articula en el Principios de Santa Clara.

Exigir cuentas a los líderes que incitan a la violencia en las redes sociales y “se salen con la suya”

La mayoría de las veces, los líderes mundiales que incitan a la violencia y el odio en línea “se salen con la suya”. Mi ex colega Dia Kayyali destaca esto de manera mordaz en un artículo reciente: Si Trump puede ser baneado, ¿qué pasa con otros líderes mundiales que incitan a la violencia? Twitter y Facebook deberían dejar de tratar a los EE. UU. como excepcionales, señalando situaciones que involucran a líderes en Brasil, India y Filipinas (ver también New York Times y Chinmayi Arun, entre otrxs).

Ahora que la suspensión de Trump fue aprobada para su revisión por la Junta de Supervisión de Facebook, es esencial considerar si se trata de una excepción única centrada en Estados Unidos o una decisión que sienta un precedente basado en las normas internacionales de derechos humanos. En esencia, se trata de garantizar que un mayor poder conlleve una mayor responsabilidad cuando se trata de hablar en una plataforma de redes sociales. Los líderes deben estar sujetos a un escrutinio igual o mayor cuando empujan los límites en las plataformas, no menos (como ha sido la política en muchas plataformas hasta hace poco). Al mismo tiempo, debemos exigir transparencia sobre cómo se toman las decisiones tanto para los líderes como para las personas usuarias comunes, y respetar los principios de legitimidad, proporcionalidad y especificidad de los derechos humanos, en lugar de un desnivel excesivo e inconsistente.

Lo que se necesita: las plataformas no deben darles a los líderes un pase libre para promover el discurso del odio o la desinformación, como a menudo lo han hecho hasta la acción tardía contra el presidente Trump el año pasado. El poder conlleva responsabilidad y la libertad de expresión no garantiza la libertad de alcance. En el futuro, debemos exigir que estos enfoques se apliquen de manera consistente y con una comprensión del contexto fuera de los EE. UU., en lugar de reforzar una tendencia de excepcionalismo estadounidense que ha llegado a definir la rendición de cuentas de las plataformas.

Crear “casilleros de evidencia” funcionales para el contenido crítico en línea

Los videos filmados por participantes y periodistas en el intento de insurrección en el Capitolio muestran actos de violencia e individuos dentro de la multitud dirigiendo acciones. La amplia difusión de estos videos arrojó luz sobre las formas en que el contenido de las redes sociales también puede servir como fuente de evidencia y recurso para la rendición de cuentas, tanto en el momento como en el futuro. Dentro de nuestro trabajo para fortalecer el video como evidencia, WITNESS se ha involucrado ampliamente en el tema de los videos grabados por los perpetradores de crímenes (por ejemplo, documentación por ISIS) y su valor para la rendición de cuentas. Estos videos ahora están comenzando a desempeñar un papel clave en los casos de justicia penal internacional. Muchas veces, estos videos también se pierden porque las plataformas los eliminan rápidamente por violar sus términos de servicio, o quienes los suben los eliminan más adelante al darse cuenta de que les implican a ellxs o a otras personas.

WITNESS y el Centro de Derechos Humanos de Berkeley han abogado durante varios años por ‘casilleros de evidencia‘ que protejan el contenido de interés público crítico y de derechos humanos cuando es eliminado por las plataformas, que se remonta a nuestra propia experiencia al ejecutar el Canal de Derechos Humanos en YouTube desde 2012 y viendo cómo los contenidos de derechos humanos desaparecen día a día. Una investigación reciente de Human Rights Watch basada en la experiencia en curso de grupos como Mnemonic habla aún más de la necesidad.

Nuestra perspectiva de los casilleros de evidencia se basa en nuestra experiencia en el apoyo a las comunidades locales y a activistas para archivar contenido importante de derechos humanos: debemos decidir qué contenido contienen estos casilleros, quién tiene acceso a ellos (reconociendo la privacidad y la seguridad, pero sin excluir a las partes interesadas globales que no son los grandes actores de derechos humanos y justicia), y cómo y durante cuánto tiempo se conservarán los datos. La ética y la privacidad deben ser fundamentales.

También hemos visto cómo la documentación capturada por testigos presenciales, activistas y perpetradores de violencia, a menudo escenas gráficas e inquietantes como las secuelas de un devastador ataque aéreo en un espacio civil, se pierde rápidamente en las plataformas en línea. Esto sucede tanto por las reglas legítimas en torno al contenido extremista, como por la aplicación arbitraria, discriminatoria o excesiva (tanto por parte de humanos como por métodos automatizados) de esas mismas reglas, así como por las reglas de contenido gráfico relacionadas. En 2017, la organización de archivo Mnemonic vio que cientos de miles de videos filmados por testigos, documentadorxs y periodistas del conflicto sirio desaparecieron de la noche a la mañana de YouTube debido a que un barrido automático los etiquetó falsamente como “contenido terrorista”, a pesar de que capturaron probable evidencia de crímenes de guerra. En respuesta, es crucial abordar el uso creciente de la moderación automatizada y basada en inteligencia artificial, ya que se cruza con la creciente regulación gubernamental y su impacto en personas usuarias vulnerables y el contenido crítico de interés público.

Qué se necesita: la sociedad civil y el gobierno deben hacer un esfuerzo concertado para garantizar que la documentación de futuras crisis de derechos humanos compartida en plataformas en línea se pueda guardar en ‘casilleros de evidencia’ (archivos seguros o mecanismos de intercambio que preservan el contenido importante de derechos humanos, incluso si el público no lo ve) y está disponible para uso legítimo. Esto requiere un pensamiento crítico sobre la privacidad, el acceso y la seguridad informado por diversas comunidades y un proceso inclusivo para desarrollar estos casilleros de evidencia. Los datos de los casilleros de evidencia también pueden ayudarnos a garantizar que la moderación de contenido basada en IA sea responsable de los principios de derechos humanos y se implemente correctamente. WITNESS compartirá más sobre sus propuestas para tales casilleros de evidencia en las próximas semanas.

Basar las normas en torno a la moderación del contenido en derechos humanos

La administración de Biden en los EE. UU., así como el Congreso y los legisladores en el Reino Unido (Online Harms Act) y en toda Europa (Ley de servicios digitales, TERREG) ya han señalado una intención, o están en proceso, de aumentar la regulación de la plataforma. WITNESS apoya nuevas regulaciones o reformas que se centren en principios fundamentales de derechos humanos: equilibrar la privacidad, la libertad de expresión y de reunión con preocupaciones legítimas sobre el discurso de odio, la desinformación y la incitación a la violencia dentro y fuera de internet. Un área clave de enfoque es la moderación del contenido: las decisiones que toman las plataformas sobre qué contenido (y personas usuarias) están permitidos en sus sitios. Con base en las respuestas en políticas previas y la tendencia de legisladores a centrarse en sus propias jurisdicciones, tememos que las regulaciones futuras centren miopemente a EE. UU. y Europa, lo que generará consecuencias adversas para las poblaciones globales que ya han sido perjudicadas y excluidas (así como para las poblaciones vulnerables en sus propias jurisdicciones).

Las políticas que buscan responder deben tener en cuenta cómo los intentos anteriores de forzar la eliminación rápida de categorías amplias como el contenido “terrorista y extremista violento” han eliminado evidencia crítica de derechos humanos y las cuentas de defensorxs de los derechos humanos. Es probable que los esfuerzos de reformas inminentes sean más amplios incluso que las propuestas actuales de TERREG en la UE sobre contenido terrorista y extremista violento, con un potencial aún mayor para mejorar los derechos y, a la inversa, crear consecuencias adversas. También hay una creciente proliferación de esfuerzos entre empresas, como el Foro Global de Internet para Contrarrestar el Terrorismo (GIFCT) para compartir ejemplos de contenido infractor y potencialmente eliminarlo en todas las plataformas. Estos “cárteles de contenido” tienen implicaciones importantes sobre cómo las eliminaciones necesarias, así como los errores y abusos del sistema, afectan a todo el ecosistema de redes sociales. También notamos riesgos claros en el “oportunismo legislativo” de los gobiernos no democráticos para ejercer el poder de aplastar la disidencia utilizando supuestas “noticias falsas” y leyes de “seguridad nacional”.

Lo que se necesita: la legislación y la regulación deben basarse en principios de derechos humanos y con una comprensión clara de las compensaciones. Los legisladores deben escuchar a personas defensoras de los derechos humanos o las comunidades marginadas a nivel nacional y mundial para evitar empeorar una situación que ya es un desafío, y los gobiernos democráticos deben garantizar que sus medidas no sean ser fácilmente cooptadas o emuladas para reprimir la disidencia y la libertad de expresión, o comprometer la privacidad.

Defender el ser testigos

En el corazón del trabajo de WITNESS se encuentra el compromiso de garantizar que un mayor número de personas pueda exigir a aquellxs al poder, mostrar la realidad de las violaciones de derechos humanos y desafiar las mentiras a través de su activismo, su testimonio y su periodismo cívico. La promesa de un grupo más diverso de personas capaces de exponer estas realidades es evidente en el trabajo de nuestrxs aliadxs y redes globales y muchos otrxs que aprovechan el poder de ser testigos con sus teléfonos, día con día. Las personas usan videos para exponer crímenes de guerra, demostrar patrones de abuso por parte de la policía y otros actores estatales, hacen alianza con investigadores de OSINT que buscan fuentes en línea para exponer irregularidades (tal como grupos e individuos han tratado de hacer en torno a los disturbios del Capitolio, aunque con un enfoque en salvaguardas), o defienden en injusticias de larga data, como los derechos a la tierra de los pueblos indígenas.

Los llamados a la justicia racial en los EE. UU., #ENDSars en Nigeria y otros movimientos a nivel mundial han enfatizado el poder de ser testigo a través del uso de nuestros teléfonos para impulsar los movimientos y exponer las violaciones de larga data a comunidades más amplias. El derecho a grabar, que fue reconocido en la ONU en 2018, es fundamental para dar poder a esta capacidad diversificada de rendir cuentas. Ahora más que nunca, necesitamos promover el derecho a ser testigos, el derecho a grabar.

Las personas defensoras de los derechos humanos utilizan, y con frecuencia deben, utilizar las redes sociales y las herramientas digitales para encontrar, compartir y defender la injusticia. Sin embargo, los actores maliciosos utilizan estas mismas plataformas para vigilar, atacar y acosar a los grupos marginados, y lo están haciendo de formas cada vez más eficaces. En el mundo actual, las redes sociales y las plataformas en línea se utilizan con la misma frecuencia para compartir desinformación y odio, o promover agendas antiderechos, como para promover los derechos y la justicia. Las mujeres, BIPOC, LGBTQI + y otros grupos y personas marginadas son atacadas y perjudicadas de manera desproporcionada e interseccional.

Qué se necesita: Debemos promover las habilidades y capacidades de una amplia gama de activistas, periodistas cívicos y personas defensoras de los derechos humanos para continuar exigiendo a los gobiernos y a perpetradores que rindan cuentas por las violaciones de derechos mediante el uso de videos, redes sociales y tecnología, y defender el derecho a grabar.

Mientras tanto, debemos centrar y abordar los riesgos de seguridad inherentes a tales acciones y el desequilibrio de poder entre gobiernos/plataformas y personas defensoras de derechos humanos. El compromiso de WITNESS con la promoción sistémica en torno a los problemas que enfrentan nuestrxs aliadxs en el día a día se basa en este claro entendimiento. Nuestras preocupaciones sobre la rendición de cuentas de las plataformas reflejan además el campo de juego desigual en el que operan los testigos presenciales, los periodistas cívicos y las personas defensoras de los derechos.

Combatir la desinformación de la manera correcta: “Hay verdad y hay mentiras, mentiras dichas por poder y por lucro”.

En el discurso inaugural del presidente Biden, prometió un compromiso con la verdad y los hechos. A medida que reformamos y mejoramos las redes sociales, y enfrentamos el odio y la desinformación, debemos asegurarnos de preservar la muy necesaria, creciente diversidad y dar voz a la revolución digital al tiempo que reconocemos el mundo online como el espacio desigual que es y que es incluso usado como arma.

Durante los últimos tres años, WITNESS se ha centrado ampliamente en las respuestas a las nuevas oleadas de desinformación, en particular la evolución de las estrategias para crear y utilizar medios audiovisuales manipulados. Esto incluye tanto “shallow fakes” (por ejemplo, videos y fotos mal contextualizados y mal subtitulados que generan violencia), como también problemas emergentes de ‘deepfakes‘ que se dirigen a las mujeres, las obligan a salir de la esfera pública y comprometen la capacidad de usar video como prueba. WITNESS organizó una serie de reuniones globales (Brasil, África Subsahariana, Sudeste de Asia, EE. UU.) que centran la experiencia vivida y profesional de activistas, periodistas y actores cívicos a nivel mundial, que enfatizan la desinformación como problema global y que necesita soluciones basadas en la experiencia mundial mayoritaria y las experiencias de las poblaciones vulnerables, no solo las preocupaciones de la clase política y los medios de comunicación en los Estados Unidos y Europa. Los temas críticos que escuchamos incluyeron un énfasis en cómo la desinformación es racializada y fuertemente condicionadas por el género, y preocupaciones sobre cómo el aumento de la manipulación de los medios socavó la credibilidad del video legítimo de base como evidencia. A menudo, las personas participantes asumieron que tanto las soluciones políticas como las técnicas no se adaptarían a sus contextos y realidades, y que no tendrían acceso a ellas ni a los recursos ni a la capacidad para utilizarlas. Vincularon explícitamente las tendencias de desinformación a las acciones de sus propios gobiernos y los problemas relacionados de cerrar el espacio de la sociedad civil, la vigilancia y la criminalización.

Advertimos enérgicamente contra las soluciones tecnológicas que conducen a efectos inadvertidos pero predecibles. El sesgo dentro de las empresas de tecnología será buscar soluciones tecnológicas “escalables” para los problemas sociales. Como se señaló anteriormente, esto se aplica a los intentos de controlar el “contenido terrorista y extremista violento” que barre el contenido de derechos humanos y se dirige a las voces de las minorías con plazos arbitrarios y rápidos para la eliminación de contenido y la coordinación entre empresas sobre la eliminación y el uso de métodos automatizados. Pero la misma lógica se aplica en el mundo tecnodeterminista de respuestas erróneas/desinformativas. Continuaremos abogando por una comprensión matizada de las compensaciones en la infraestructura emergente que responde a la desinformación, y un reconocimiento de que las soluciones tecnológicas a menudo abordan los síntomas y no los problemas subyacentes y que las soluciones únicas para problemas sociales complejos no funcionan.

Un ejemplo de dónde es fundamental destacar las compensaciones y los no negociables es el impulso para desarrollar una “infraestructura de autenticidad” como la Iniciativa de autenticidad de contenido dirigida por Adobe. Estos enfoques para rastrear mejor los orígenes, manipulaciones y ediciones de los medios en línea pueden servir poderosamente a las personas que afirman la verdad y los hechos y luchan contra shallow fakes como los audiovisuales con subtítulos incorrectos, pero también amenazan inadvertidamente su seguridad física y su credibilidad si no pueden o deciden no usar dichas herramientas.

Lo que se necesita: WITNESS a veces ha utilizado el lenguaje de “ver para creer”. Si bien esto sigue siendo muy cierto en algunos contextos donde ver las violaciones de derechos y comprender las realidades de base con nuestros propios ojos puede impulsarnos a la acción, también es muy controvertido. Sin embargo, debemos luchar contra la retórica que afirma que no puedes creer nada de lo que ves. Uno de los efectos más perniciosos de la retórica de “Todo está falsificado … Es un deepfake es la habilitación de quienes están en el poder a expensas de la verdad genuina de las bases. Debemos escudriñar las soluciones técnicas para asegurarnos de que realmente respondan a las dinámicas de poder subyacentes, no privar de derechos a las voces críticas y que sean realmente accesibles y relevantes para los contextos globales.

De cara al 2021 y más allá, debemos defender la verdad de la realidad experimentada tanto a nivel de base como de sistemas y luchar contra los incentivos comercializados y politizados que discriminan esa verdad y promueven mentiras. Debemos enfocarnos en cómo los activistas y periodistas pueden mejorar la confiabilidad de su contenido, responder éticamente a las estrategias armadas de mentiras comercializadas y partidistas, y comprometerse con aliadxs y enemigxs en el frente narrativo de las emociones y la persuasión.



¿Eres nuev@ en WITNESS? Mantente en contacto.