La COVID-19 intensifica los errores de moderación de contenido

Somos millones los que ahora nos conectamos, nos compadecemos, formamos equipos, trabajamos y jugamos exclusivamente en línea. Por Solana Larsen, editora del Informe de la Salud de lInternet de Mozilla, y Leil Zahra, becaria de Mozilla en WITNESS.

Mientras la gente en todo el mundo se protege contra la pandemia de COVID-19, internet se ha convertido un recurso más vital que antes. Somos millones los que ahora nos conectamos, nos compadecemos, formamos equipos, trabajamos y jugamos exclusivamente en línea.

De alguna manera, la pandemia ha revelado el potencial de internet como recurso público global. Pero también está revelando qué no es saludable sobre internet: Quienes no tienen acceso están ahora en mayor desventaja. Y las desventajas de privacidad y seguridad en tecnología del consumidor están haciendo que más personas sean exponencialmente vulnerables.

Un asunto complicado que la pandemia hace destacar es el averiado ecosistema de moderación de contenido de internet. Es decir, las maneras muy defectuosas en que las grandes plataformas de tecnología enfrentan el discurso de odio en línea, la desinformación y el contenido ilegal. A pesar de muchos avances, Facebook, YouTube y otras plataformas suelen moderar el contenido de maneras que son caprichosas o realmente peligrosas: contenido perjudicial que cae en el olvido, y se elimina injustamente contenido aceptable. Estas decisiones, a menudo afectan desproporcionadamente a personas en el hemisferio sur y que hablan idiomas que tienen menos contenido en línea.

En este momento, estamos en un momento decisivo. ¿Los defectos de la moderación de contenido se ciernen más imponentes? ¿O puede estar crisis ser un trampolín para un cambio positivo y duradero en cómo nos comunicamos en línea?

Uno de los problemas más espinosos con el moderación de contenido es quién —o qué— se encarga de la moderación

Con la información equivocada relacionada con la pandemia que atosiga las plataformas y muchos moderadores de contenido humanos sin poder trabajar, muchas plataformas recurren cada vez más a la inteligencia artificial. Los límites de este enfoque son claros. La filtración automatizada no ha logrado evitar que la información equivocada sobre COVID-19 se propague como reguero de pólvora y ponga en peligro la salud pública. Las plataformas están atiborradas de publicaciones que sugieren que beber blanqueador puede curar el virus, o que la tecnología 5G está esparciendo la enfermedad de alguna manera.

Además de pasar por alto la información equivocada, la moderación automatizada también puede censurar contenido de calidad por accidente. Los usuarios de internet que hacen preguntas honestas o que hablan con vocabularios o contextos locales pueden terminar calificados incorrectamente como problemáticos. La moderación automatizada a mitad de la pandemia en Facebook tuvo como resultado el retiro erróneo de una gran cantidad de contenido, incluidos enlaces a artículos de noticias sobre el COVID-19. En marzo, Facebook sostuvo que un “problema” técnico estaba detrás de esto, y que habían restablecido el contenido eliminado. Pero el episodio plantea serias preguntas sobre la eficiencia de esos sistemas, y además arroja dudas sobre la transparencia de Facebook. Cuando YouTube anunció que había extremado la filtración automatizada debido al COVID-19 en marzo, escribió: “Al hacerlo así, usuario y creadores pueden ver más eliminación de video, incluidos algunos videos que no han infringido las políticas”. De la misma manera, Twitter explicó también en marzo que su moderación automatizada “a veces puede carecer del contexto que tienen nuestros equipos, y esto puede tener como resultado que cometamos errores”.

No ayuda que, cuando se retira contenido injustamente o se suspende una cuenta, el proceso de apelación puede no ser claro. En muchos casos, los usuarios quedan sin entender la razones detrás de la eliminación de contenido o la suspensión de una cuenta. E incluso antes de la pandemia, el contexto era una gran parte de la discusión en torno a la moderación de contenido. Por ejemplo, si se debe aplicar internacionalmente un enfoque centrado en Estados Unidos a qué es lenguaje aceptado.

La tecnología defectuosa es un problema con la moderación de contenido; las políticas desiguales son otro

En Estados Unidos y algunos países europeos, las grandes plataformas de tecnología pueden ser bastante justicieras sobre seguir noticias locales y mantener sus propios compromisos de política interna. En otros lugares, ese no es el caso. Durante las elecciones de Nigeria de 2018, Rosemary Ajayi, investigadora y colaboradora de Global Voices, y un grupo de colegas catalogaron cientos de tuits que difundían desinformación y quedaban consternados por las índices de respuesta impredecibles e inconsistentes a las denuncias sobre esta actividad. “Si denuncias algo serio en día de elecciones y te contestan una semana después, ¿qué sentido tiene?, dijo Ajayi. La idea es igualmente aterradora en el contexto actual: si la plataforma retira información equivocada sobre COVID-19 después de que millones ya la vieron, el daño ya está hecho.

Estos son apenas dos de los persistentes problemas en el campo de la moderación de contenido, En la reciente encuesta de Mozilla sobre el espacio de medios sociales, analizamos varios más. Hablamos con SIN, grupo polaco de reducción de daños por drogas, que fue suspendido por Facebook y no pudo apelar la decisión. Y hablamos con el grupo de investigación de derechos humanos Syrian Archive, que dijo que las plataformas borran con frecuencia los abusos de derechos humanos en guerra. No es difícil ver cómo casos así pueden ser especialmente graves también durante una pandemia. ¿Y si se elimina por error información de salud fundamental, o evidencia de abusos de derechos humanos relacionados con el confinamiento?

No hay panacea para estos problemas

A los investigadores y comunidades afectados les podría ayudar una mayor transparencia sobre lo que se elimina, cuándo y por qué se elimina, y también qjué parte de lo eliminado se apela y restablece les ayudaría a asesor mejor a plataformas y a quienes hacen las políticas. No obstante, los informes de transparencia de las principales plataformas se han vuelto más detalladas a lo largo de los años, debido en parte a la presión de la sociedad civil, incluidos los signatarios de los Principios de Santa Clara . Esta iniciativa comunitaria para definir las guías para la transparencia y rendición de cuentas en la moderación de contenido se lanzó en 2018, y varias plataformas la han respaldado. En marzo, al señalar que los principios podrían beneficiarse con una actualización, Electronic Frontier Foundation (EFF) inició un llamado global de propuestas (el plazo vence el 30 de junio) sobre cómo cumplir mejor las necesidades de las voces marginadas que se ven fuertemente impactadas.

Es tanto lo que se desconoce sobre la moderación y patrones de apelación en diferentes contextos globales que hasta la evidencia anecdótica de los usuarios afectados sería un recurso valorado. Silenced.online es una nueva herramienta de base para colaboración colectiva y para analizar experiencias de eliminaciones injustas en todo el mundo. Su objetivo es crear una red de organizaciones y personas que han estado trabajando, o quieren empezar a trabajar, en eliminación y moderación de contenido.

Otros grupos coincidirán en que es crucial que la sociedad civil y los investigadores participen en preguntas de moderación de contenido y regulación de plataformas. Los escándalos y las crisis tienden a provocar nuevas reglas y regulaciones, o llamados para mayor automatización que no necesariamente se basan en análisis independiente sobre qué funciona. Los nuevos enfoques para crear rendición de cuentas y mecanismos de apelación, como la Nueva Junta de Supervisión de Facebook exige atención de público global.

Como ya se dijo, la pandemia de COVID-19 está poniendo de manifiesto los fallos en la moderación de contenido, pero los problemas son de toda la vida, en particular en asuntos de salud y desinformación. Piden un cambio en la operación diaria de las plataformas y en cómo se hacen responsables. Una mayor atención en el problema tiene el potencial de catalizar algo bueno. Puede generar más transparencia, tecnología más humana, mejores leyes, y una Internet más saludable.



Solana Larsen
Leil Zahra

GlobalVoices

Créditos a la foto de cabecera: Imagen de Gerd Altmann en Pixabay

américa capitalismo chile ciencia cine confinamiento coronavirus covid19 crisis cultura derechos civiles derechos humanos derechos laborales economía educación empleo entretenimiento españa estados unidos historia internacional internet investigación latinoamérica legislación medicina medioambiente música neoliberalismo opinión pandemia política postcovid19 protestas racismo RBU redes sociales renta básica salud sanidad servicios públicos sociedad tecnología trabajo unión europea

Entradas relacionadas

No te guardes tu opinión, nos interesa: