Porque las redes pueden transmitir ideas negativas fácilmente
En Facebook no todo es color de rosa y la información que se hace viral para ayudar a ciertas personas también puede perjudicar a otros.
Una investigación del grupo ProPublica filtró información de los documentos de Facebook que explican sus reglas de censura. Y sí, muchas de ellas dejan lugar al racismo y discursos de odio.
El algoritmo de censura de Facebook se basa en dos tipos de información: protegida y no protegida, y con ellas determinan si un post tiene que ser removido.
Las categorías protegidas son: sexo, afiliación religiosa, origen nacional, identidad de género, raza, etnicidad, orientación sexual y discapacidad o enfermedad.
Las no protegidas son: clase social, origen continental, apariencia, edad, ocupación, ideología política, religión y países.
Si en una publicación se habla negativamente de un grupo o una persona que tiene dos categorías protegidas, entonces Facebook elimina el contenido. Pero si tiene una categoría protegida y una no protegida, automáticamente se le quita la protección a la primera y se deja el post.
Por ejemplo, si una publicación ataca a todos los musulmanes, Facebook lo denuncia como discurso de odio y lo remueve. Pero, si la publicación ataca a los musulmanes 'radicalizados', Facebook no lo borra.
Peor aún, un post que ataca a los niños de raza negra se puede mantener en línea porque, aunque raza sí es una categoría protegida, la edad no lo es.
Aunque Facebook implementa estas reglas supuestamente con el fin de promover igualdad y libertad de expresión, también hay muchos grupos sociales marginados que denuncian censura en su contra.
Los miembros de estos grupos sienten que su libertad de expresión está siendo amenazada. Stacey Patton, una profesora de la Morgan State University (EU), un colegio de personas de color, también fue víctima de la censura en sus posts que hablaban sobre la injusticia racial.
"Es una violencia emocional. Particularmente como una persona de color, siempre tenemos estas discusiones sobre el encarcelamiento en masas, y aquí tienes este lugar de fibra-óptica donde te puedes expresar. Luego dices algo que a una persona anónima no le gustó y ya estás en la 'cárcel"
«Stacey Patton»
¿QUÉ DICE FACEBOOK AL RESPECTO?
El martes pasado, Facebook publicó un blog afirmando que borraría 66 mil mensajes por ser "racistas o intolerantes". Pero, según ellos, la decisión va a estar basada en este algoritmo de categorías protegidas.
Hoy, Facebook tiene cuatro mil 500 empleados dedicados a revisar el contenido reportado como inapropiado y se comprometió a contratar a otros tres mil más para el siguiente año.
Claramente es difícil controlar todo el contenido que existe en la plataforma pues la red cuenta con cerca de dos billones de usuarios.