13 abril, 2020 / Guías, Recursos / by Sandy
Foto: Digital Trends
Las plataformas de redes sociales se han convertido en espacios públicos donde las personas, a través de una cuenta, podemos expresarnos y difundir diversidad de contenidos, sin embargo ha permanecido en debate la regulación por parte de gobiernos, la moderación y censura de dichos mensajes por parte de las plataformas. Artículo 19 señala que los gobiernos no deberían de interferir en la publicación o remoción de los contenidos, sino en motivar que las plataformas promuevan y defiendan los derechos humanos de las personas usuarias.
La remoción de contenidos sucede cuando una persona usuaria denuncia un contenido publicado y de acuerdo a las normas de cada red social, éste es evaluado para decidir si debe ser eliminado o no. También se realiza a través de algoritmos que buscan contenidos que violen ciertas normas, sin la necesidad de ser denunciados por usuarixs. Las plataformas, en particular Facebook, han sido criticadas por las limitaciones de su equipo de moderación de contenidos debido a la cantidad, diversidad y preparación de los recursos humanos. De igual manera, hay muchas críticas al aumentar la confianza y delegar algoritmos a esta tarea.
Por ejemplo, muchos contenidos de colectivas y defensoras de los derechos sexuales y reproductivos han sido removidos por considerarse inmorales para ciertos ideologías, poniendo en tela de juicio la universalidad del derecho a la libre expresión. En la práctica, han identificado a grupos organizados detrás de las denuncias a sus contenidos. En caso de medios locales en el centro de México, hemos visto cómo estos grupos han impedido incluso que sigan informando y haciendo uso de sus páginas en Facebook.
Esta otra implicación de la censura de contenidos obstaculiza el acceso a la información de interés público o noticioso. Es decir que al remover de las redes sociales información relacionada con casos de corrupción, crímenes de guerra, feminicidios, por ejemplo, dejan a la sociedad sin evidencia para exigir a las autoridades el respeto a sus derechos humanos. Así, la sociedad ve entorpecido su ejercicio a la democracia y a la transparencia.
Dentro de los criterios que las redes sociales más populares como Facebook, Twitter e Instagram utilizan para moderar los contenidos de sus usuarios son:
Facebook prohíbe publicar principalmente:
Encuentra mayor información acerca de sus Normas Comunitarias aquí.
Mientras que Twitter expresa su apertura para publicar mensajes, incluso si son provocativos, siempre y cuando no se infrinjan sus Reglas aquí mencionadas.
Instagram incita principalmente a:
También tiene un listado de Normas Comunitarias las cuales las puedes encontrar aquí.
Así como es relevante tener en cuenta estas normatividades para publicar nuestros contenidos, recordemos que estamos usando plataformas que al final no son propias, sino estamos en territorios “prestados” de dichas compañías.
Por ello, te compartimos algunas ideas sobre qué hacer en caso de que tus contenidos sean removidos:
También te recomendamos revisar estas iniciativas:
Es una plataforma y una campaña que promueve la libre expresión en las redes sociales, brindando asesoría para reportar contenidos removidos injustificadamente, así como difundiendo información acerca de la moderación de contenidos y sus impactos en diferentes partes del mundo.
Artículo 19 ha lanzado esta campaña donde explican en qué consiste la remoción de contenidos, los registros de casos donde el gobierno ha requerido a las plataformas que eliminen publicaciones y las implicaciones que puede tener ante la crisis actual por la COVID19, donde podría ser utilizada para acallar las denuncias a violaciones de derechos humanos.
Leer más: