Censura en plataformas de redes sociales comerciales

13 abril, 2020 / Guías, Recursos / by

Foto: Digital Trends

Las plataformas de redes sociales se han convertido en espacios públicos donde las personas, a través de una cuenta, podemos expresarnos y difundir diversidad de contenidos, sin embargo ha permanecido en debate la regulación por parte de gobiernos, la moderación y censura de dichos mensajes por parte de las plataformas. Artículo 19 señala que los gobiernos no deberían de interferir en la publicación o remoción de los contenidos, sino en motivar que las plataformas promuevan y defiendan los derechos humanos de las personas usuarias. 

La remoción de contenidos sucede cuando una persona usuaria denuncia un contenido publicado y de acuerdo a las normas de cada red social, éste es evaluado para decidir si debe ser eliminado o no. También se realiza a través de algoritmos que buscan contenidos que violen ciertas normas, sin la necesidad de ser denunciados por usuarixs. Las plataformas, en particular Facebook, han sido criticadas por las limitaciones de su equipo de moderación de contenidos debido a la cantidad, diversidad y preparación de los recursos humanos. De igual manera, hay muchas críticas al aumentar la confianza y delegar algoritmos a esta tarea. 

Por ejemplo, muchos contenidos de colectivas y defensoras de los derechos sexuales y reproductivos han sido removidos por considerarse inmorales para ciertos ideologías, poniendo en tela de juicio la universalidad del derecho a la libre expresión. En la práctica, han identificado a grupos organizados detrás de las denuncias a sus contenidos. En caso de medios locales en el centro de México, hemos visto cómo estos grupos han impedido incluso que sigan informando y haciendo uso de sus páginas en Facebook. 

Esta otra implicación de la censura de contenidos obstaculiza el acceso a la información de interés público o noticioso. Es decir que al remover de las redes sociales información relacionada con casos de corrupción, crímenes de guerra, feminicidios, por ejemplo, dejan a la sociedad sin evidencia para exigir a las autoridades el respeto a sus derechos humanos. Así, la sociedad ve entorpecido su ejercicio a la democracia y a la transparencia.

Dentro de los criterios que las redes sociales más populares como Facebook, Twitter e Instagram utilizan para moderar los contenidos de sus usuarios son:

Facebook prohíbe publicar principalmente: 

  • Desnudos o contenido de carácter sexual.
  • Lenguaje ofensivo, amenazas creíbles o ataques directos a un individuo o un grupo.
  • Contenido con violencia excesiva o autolesiones.
  • Perfiles falsos o engañosos.
  • Spam.

Encuentra mayor información acerca de sus Normas Comunitarias aquí

Mientras que Twitter expresa su apertura para publicar mensajes, incluso si son provocativos, siempre y cuando no se infrinjan sus Reglas aquí mencionadas. 

Instagram incita principalmente a:

  • Publicar sólo fotos y videos propios, y cumplir la ley en todo momento. 
  • Respetar a todos los usuarios de Instagram; no enviar spam ni publicar desnudos.

También tiene un listado de Normas Comunitarias las cuales las puedes encontrar aquí

Así como es relevante tener en cuenta estas normatividades para publicar nuestros contenidos, recordemos que estamos usando plataformas que al final no son propias, sino estamos en territorios “prestados” de dichas compañías. 

Por ello, te compartimos algunas ideas sobre qué hacer en caso de que tus contenidos sean removidos

  • Toma capturas de pantalla de lo sucedido. Ésto te ayudará a llevar un registro, a tener pruebas que tus contenidos se han borrado y también para comprender el suceso e identificar patrones en agresorxs, momentos de denuncias, entre otros.
  • Sigue las instrucciones que cada plataforma te indica:
    • Facebook: Una vez que te llegó la notificación de la remoción de tu contenido dale click en “Apelación”, así tu solicitud se enviará a la comunidad de la plataforma para evaluar tu caso (atención humana). Hasta ahora, hemos probado que enviar el contexto en inglés ha ayudado más en este proceso (lamentablemente). 
    • Twitter: Dependiendo de la gravedad de la situación tu cuenta puede ser bloqueada o sus funciones inhabilitadas temporalmente. Aquí algunas instrucciones de lo que puede hacer o si prefieres puedes llenar este formulario para apelar a la suspensión y recibir atención humana.
    • Instagram: Si uno de tus contenidos fue removido o tu cuenta ha sido deshabilitada puedes volver a entrar a tu cuenta, solicitar una revisión para tener una segunda opinión y esperar los resultados. O llenar este formulario si tu cuenta fue desactivada para que tu caso sea evaluado por personas.
  • ¡Respalda tu información! Es importante respaldar todos los contenidos que subes a las plataformas (textos, imágenes, videos, etc.), ya que es mejor tener una copia de esos archivos por si son borrados de la plataforma.

También te recomendamos revisar estas iniciativas: 

Silenced Online  

Es una plataforma y una campaña que promueve la libre expresión en las redes sociales, brindando asesoría para reportar contenidos removidos injustificadamente, así como difundiendo información acerca de la moderación de contenidos y sus impactos en diferentes partes del mundo. 

#LibertadNoDisponible

Artículo 19 ha lanzado esta campaña donde explican en qué consiste la remoción de contenidos, los registros de casos donde el gobierno ha requerido a las plataformas que eliminen publicaciones y las implicaciones que puede tener ante la crisis actual por la COVID19, donde podría ser utilizada para acallar las denuncias a violaciones de derechos humanos. 

Leer más:

La censura de Facebook llega a la lucha feminista

Leaks ‘expose peculiar Facebook moderation policy’