Opinión

Pedro Kumamoto: ¿Cómo regulamos las redes?

Rendición de cuentas. | Las redes sociales deben de cuidar y evitar que se difunda información violenta | Fuente: Nación321

La suspensión de la cuenta de Twitter, Facebook y Youtube de Donald Trump, entonces presidente de Estados Unidos, sorprendió al planeta. Hasta ese momento, nunca una figura política de alto calibre había sido restringida tan determinantemente por violación a las normas de las plataformas. 

La medida pionera generó, con justa razón, una enorme oleada de discusiones sobre la libertad de expresión, ejercicio de poder, censura por parte de privados y la regulación de las redes sociales.

En nuestro país, resucitaron la conversación sobre la posibilidad de regular las (benditas) redes sociales a través del Instituto Federal de Telecomunicaciones. Hay quien defiende que la regulación es necesaria porque, lejos de buscar censurarnos, tiene como objetivo proteger la libertad de expresión en estos espacios. 

Pero no es cosa menor: en un contexto en el que dependemos tan profundamente de la interacción digital –ya ni hablemos de cómo esta dependencia se ha agudizado durante la pandemia–, las redes sociales se han convertido en un ágora importantísima para el debate público y el intercambio de ideas, pero ¿deberíamos dejarlas en manos privadas?, ¿puede el Estado hacer un mejor trabajo? 

En búsqueda de una opinión experta en la materia, entrevisté a Antonella Perini, investigadora en Asuntos del Sur, especialista en la gobernanza del internet y estudiante en Oxford en el Instituto del Internet.

-Antonella ¿cuál es el mejor camino para enfrentar los retos de libertad de expresión que estamos presenciando en redes sociales? ¿Las propias compañías deberían de autorregularse o deberían de existir leyes nacionales?

De entrada estas compañías están basadas en Estados Unidos y por ejemplo en Myanmar, donde narrativas de violencia étnica se estaban difundiendo a una escala masiva en Facebook, la compañía no actuó. No contaba con herramientas ni recursos humanos suficientes para monitorear los contenidos en birmano porque no despliegan esfuerzos de atención similares a ciertos fenómenos o geografías. 

Sin embargo, así como la autorregulación es compleja, también las regulaciones más duras tienen varios desafíos. El alcance que estas tienen a múltiples jurisdicciones con diferentes marcos regulatorios (y a veces en conflicto) o tipos de intervenciones de gobiernos que pueden afectar la libertad de expresión es un desafío. 

El Online Harms White Paper de Reino Unido es un ejemplo de por qué es necesario abordar los intentos de regulación desde una óptica de la libertad de expresión. La propuesta, que fue revisada y mejorada desde la primera versión, abarca una serie de medidas para proteger la experiencia en línea de la ciudadanía pero añade obligaciones a las grandes compañías de redes sociales en relación a contenidos dañinos pero legales (ej. contenidos violentos). Por un lado, la falta de claridad sobre qué contenidos caen en esta categoría pone en riesgo que expresiones legítimas terminen siendo censuradas. Por otro lado, la carga en las tareas de monitoreo incentiva a que las empresas refuercen la automatización de procesos de monitoreo y baja de contenidos, que puede fallar.

-Entonces, no se trata solo de afirmar que “se necesitan regular las redes”, sino de qué forma en que se pretende hacerlo. 

-Así es, pensar exclusivamente en crear leyes lo veo simplista. Yo me inclino más por una gobernanza con una combinación de tipos de acciones y donde los distintos actores con intereses en juego formen parte de ella. Por ejemplo, en el marco del EU Internet Forum, la Unión Europea y el sector privado realizaron reuniones durante dos años luego de las cuales acordaron un Código de Conducta para el discurso de odio en línea ilegal y que guía la remoción de material terrorista. También hay iniciativas donde organizaciones no gubernamentales y plataformas elaboran en conjunto guías o marcos para la remoción de contenidos como –como The Global Network Initiative– o bien las plataformas incorporan propuestas de investigadores para mejorar los procesos internos, ejemplo de ello es el Conditional Demographic Disparity test para para la detección de sesgos y discriminaciones en los sistemas de inteligencia artificial. 

Incluso en los últimos años empleados de estas compañías han tomado un rol creciente para reforzar los procesos de monitoreo y rendición de cuentas. Por ejemplo, empleados de compañías como Amazon, Microsoft o Google que al enterarse de negociaciones o proyectos con potenciales riesgos han hecho público su descontento y han pedido frenar estas negociaciones.

Después de conversar con la Profesora Perini me quedo con que este no es un tema de blanco o negro; el debate tiene que ser más amplio y pensar primero cuál es el abanico de acciones a nuestro alcance, cuáles son los criterios a tener en cuenta, qué actores tienen que estar involucrados, y en el caso de que la regulación sea la respuesta, habilitar los procesos de consulta y debate necesarios. 

Pienso también que en lo público se nos agotaron los temas fáciles y si queremos resolverlos tenemos que empezar por escuchar. Se dice fácil, pero no lo es. 

Pedro Kumamoto 09.01.2021 Última actualización 09 febrero 2021 7:1

RELACIONADAS:

10 puntos para entender la iniciativa de regulación de redes

Lo que sabemos de la propuesta para regular redes sociales

Pedro Kumamoto: Su agenda, nuestra agenda

Pedro Kumamoto: ¿Quién sigue en la fila?

Pedro Kumamoto: La transparencia no es un acto de magia

Compartir:
Lo más importante
Advertising
Advertising