Con moderadores de contenido dentro de sus casas, el contenido puede quedar fuera de internet

Blog original escrito en inglés por Dia Kayyali. Foto de Erik Mclean en Unsplash

La mayoría de nosotrxs pasamos mucho tiempo en las redes sociales en este momento. Las redes sociales han sido instrumentales para difundir información errónea sobre COVID-19, pero también han proporcionado gran ayuda a personas de todo el mundo, en forma de recaudaciones de fondos y ofertas de apoyo para grupos en riesgo que no pueden ir de compras o comprar medicamentos por sí mismxs. También ha convencido a algunas personas de tomar en serio esta pandemia. En un ejemplo particularmente conmovedor, en un video con más de 5 millones de visitas en YouTube, los italianos grabaron “un mensaje para sí mismxs hace 10 días”.

Si has usado Facebook en particular esta semana, es probable que hayas visto a personas quejándose de que sus publicaciones se eliminan como spam. 1 Estas eliminaciones de contenidos serían un problema en el mejor de los casos, pero en este momento, podrían ser mortales. El único comentario de Facebook sobre esto ha sido un Tweet del vicepresidente de integridad Guy Rosen que dijo que es un error con su software antispam, y en seguimiento dijo que ya se había solucionado. Como anécdota, parece que las quejas de remoción han disminuido. Pero en WITNESS nos preocupa que esto sea solo el comienzo.

Esta semana, YouTube, Twitter y Facebook anunciaron que aumentarían su dependencia de la moderación de contenido automatizada. Eso significa que utilizarán más inteligencia artificial y eliminarán a las personas del proceso. Una razón para esto es que las personas moderadoras de contenido, que a menudo no son empleadxs directos, no pueden trabajar de forma remota, al menos en el caso de YouTube y Facebook. Esto es tema de una publicación de blog por separado: fue un error obligar a las personas moderadoras de contenido a ir a las oficinas ya que la pandemia estaba en marcha, pero también es un error que sean empleados de empresas como Accenture, contratados por gigantes tecnológicos, y que los procesos de moderación de contenido sean tan opacos que su trabajo está intrínsecamente oculto. Deben ser empleados directos, con el pago y los beneficios que conlleva trabajar para gigantes tecnológicos, y deberían poder trabajar de forma remota.

A medida que las plataformas aumentan su dependencia a la IA en este momento crítico, WITNESS está prestando mucha atención a todas las plataformas principales para ver si aumenta la eliminación del contenido de derechos humanos. WITNESS lleva mucho tiempo buscando incidir en esta cuestión junto con nuestrxs compañerxs de Syrian Archive. La moderación automática de contenido no ha funcionado bien. No hay razón para esperar que de repente vaya a funcionar ahora. Si encuentras que se eliminan grandes extensiones de contenido, comunícate con nosotrxs. Esperamos que proporcionar ejemplos de eliminaciones inadecuadas pueda ayudar a mejorar la IA que usa cada compañía. A la larga, esperamos que quede claro que el simple cambio a la moderación automática no es la solución a prueba de balas a como las compañías lo quieren presentar.

Dicho esto, los anuncios de YouTube y Twitter fueron relativamente claros acerca de lo que significa un mayor uso de la inteligencia artificial y, como mínimo, no están tratando estas remociones como si fueran confiables. No lo son. YouTube señaló: “los sistemas automatizados comenzarán a eliminar parte del contenido sin revisión humana”. La publicación de la compañía fue más allá al explicar:

A medida que hacemos esto, las personas usuarias y creadoras pueden ver mayores eliminaciones de videos, incluidos algunos videos que no estén violando las políticas. No eliminaremos este contenido, excepto en los casos en que tengamos una gran confianza en que es violatorio. Si las personas creadoras consideran que su contenido se eliminó por error, pueden apelar la decisión y nuestros equipos lo analizarán. Sin embargo, ten en cuenta que nuestras medidas en torno a los recursos humanos también darán lugar a revisiones de apelaciones demoradas.

El anuncio de Twitter fue similar, aunque solo remarcaron que no suspenderán permanentemente las cuentas:

Aumentar nuestro uso del aprendizaje automático y la automatización para tomar una amplia gama de medidas sobre contenido potencialmente abusivo y manipulador. Queremos ser claros: si bien trabajamos para garantizar que nuestros sistemas sean consistentes, a veces pueden carecer del contexto que traen nuestros equipos, y esto puede provocar que cometamos errores. Como resultado, no suspenderemos permanentemente ninguna cuenta basada únicamente en nuestros sistemas automatizados de cumplimiento.

Facebook, desafortunadamente, fue aún menos comunicativo. Esto es particularmente molesto porque ahora, más que nunca, Facebook ES la legendaria “plaza pública”; es el lugar donde las personas se unen virtualmente para compartir información, pero también para consolarse mutuamente e incluso para actuar y organizarse. Facebook dijo:

Dada la rápida evolución de las preocupaciones de salud pública, estamos tomando medidas adicionales para proteger a nuestros equipos y trabajaremos con nuestrxs socixs en el transcurso de esta semana para enviar a todas las personas contratadas que realizan la revisión de contenido a casa, hasta nuevo aviso … Con menos personas disponibles para revisión humana continuaremos priorizando el daño inminente y aumentando nuestra dependencia de la detección proactiva en otras áreas para eliminar el contenido infractor. No esperamos que esto afecte a las personas que usan nuestra plataforma de manera notable. Dicho esto, puede haber algunas limitaciones a este enfoque y podemos ver algunos tiempos de respuesta más largos y cometer más errores como resultado.

Bueno, Facebook … Hay limitaciones. Cuéntanos más. Es obvio que la desinformación es una prioridad, y dada la amenaza para la vida de las personas, eso es comprensible. Pero cerrar las recaudaciones de fondos y eliminar los artículos de hecho también puede costar vidas. Dígamos que no cerrarás cuentas. Cuéntanos qué estás haciendo para mitigar las amenazas a la vida de las personas que plantea este virus … más allá de desencadenar un filtro de spam muy celoso en todxs nosotrxs. Asegura a los miles de millones de personas que confían en ti que, de hecho, estás haciendo tu mejor esfuerzo.

Actualización: ¡Facebook nos contó más! Mira la actualización. Es importante destacar que Facebook ha admitido que “esperamos cometer más errores, y las revisiones tomarán más tiempo de lo normal”, han señalado que algunxs revisores trabajarán desde casa, y que ciertas categorías de contenido, incluido contenido terrorista, se revisarán por empleados a tiempo completo. Finalmente, las notas actualizadas dicen que “daremos a las personas la opción de decirnos que no están de acuerdo con nuestra decisión y monitorearemos esos comentarios para mejorar nuestra precisión, pero probablemente no revisaremos el contenido por segunda vez”.

Twitter y YouTube, aunque Facebook les está haciendo verse bien, también les estamos vigilando. Manténgannos al tanto a medida que se desarrolla esta situación. Hagan de este el momento en que FINALMENTE permiten que la sociedad civil y expertxs como Syrian Archive y el Centro de Derechos Humanos de Berkeley alimenten sus algoritmos y otros procesos de moderación de contenido. Reconsideren sus estructuras: ¿quién es un empleadx valiosx y quién es un contratista? Al igual que todas las otras cosas que Covid-19 nos está haciendo reconsiderar, tal vez ahora es el momento de presionar el botón de reboot.

Si eres una persona defensora de los derechos humanos y tu contenido ha sido eliminado en esta semana. escríbenos. Haremos todo lo posible para responder, y te preguntaremos si podemos usar tu información en nuestros esfuerzos de incidencia.

1. Solo algunos ejemplos, reunidos en 30 minutos:



¿Eres nuev@ en WITNESS? Mantente en contacto.