¿Supervisión, regulación o moderación?

En su nuevo libro, el Relator Especial para la promoción y protección del derecho a la libertad de expresión del Consejo de Derechos Humanos de las Naciones Unidas, David Kaye, expone de manera sucinta y con un enfoque práctico los desafíos que, hoy por hoy, suscita la necesidad de enfrentar el contenido nocivo o problemático que está presente en línea, y en particular, aquel que ve amplificado su efecto en algunas plataformas específicas usadas por cientos de millones de personas.

Se trata de problemas esencialmente complejos, que hacen lucir casi imposible su ejecución de manera satisfactoria y respetuosa de los derechos. Ni una concentración del poder de controlar el debate público por parte de los estados, ni la delegación completa de funciones de interés público en empresas privadas, ni la expectativa de reglas únicas de aplicación a realidades diversas, resultan mecanismos óptimos. Casos muy recientes, como la amplificación de un video alterado de una figura política estadounidense en Facebook, o la desidia de YouTube para sancionar el acoso homofóbico, mantienen viva una discusión difícil.

Christchurch

El ataque terrorista de marzo de 2019 en una mezquita en Christchurch, Nueva Zelanda, además del daño creado a las personas directamente afectadas, a todo su grupo, y a la sociedad neozelandesa completa, tuvo consigo (tal como tantos otros crímenes de odio) un “componente digital”. En este caso, además de un historial de involucramiento en redes sociales, la intensa proliferación, –especialmente en Facebook– del registro audiovisual del ataque volvió a enfatizar un aspecto especialmente difícil en la regulación de la expresión: la celeridad para detectar y actuar, a fin de prevenir el daño resultante de la amplificación.

El “Llamado de Christchurch a la acción”, iniciativa que convoca a gobiernos, empresas y otras organizaciones para comprometerse a eliminar contenido terrorista y extremista de internet, muestra una fuerte voluntad. Sin profundizar en esta instancia en lo problemático que resulta el Llamado, tanto en su contenido como en su proceso de formulación, es importante reparar en lo que significa asignar, a instancias de algunos gobiernos y la exclusión de todo el resto, roles para empresas privadas en la decisión sobre qué contenido debe estar en línea y cuál no, a nivel global.

Para David Kaye, ejemplos anteriores de leyes y propuestas (especialmente en Europa) por regular asignando tales funciones, no resultan tan solo en un reconocimiento institucional de la responsabilidad de estas plataformas en la difusión de ciertos contenidos, sino, paradójicamente una concentración mayor de poder con efecto global en compañías estadounidenses. Se trata de un desmedro de la función que los gobiernos, en tanto depositarios de la confianza ciudadana, deberían asumir en la búsqueda de soluciones.

La supervisión de las decisiones

El anuncio de Facebook de contar con un Comité de Supervisión para estudiar casos complejos de moderación de contenidos ha sido recibido con distintos grados de escepticismo y de reconocimiento, especialmente por la sociedad civil global. Cabe reconocer el avance que significa someterse a una revisión independiente de esas decisiones; a la vez, cabe exigir de la generalidad de las plataformas más transparencia sobre esas decisiones, especialmente dada la decreciente confianza en la justicia de las mismas en casos difíciles.

Por cierto, se trata de un proceso en curso, donde muchas dudas buscan respuesta, mientras aparecen llamados de la sociedad civil a asegurar no solamente decisiones puntuales, sino también el futuro de la formulación de las políticas de contenidos vean mejoras sustantivas. Esto es, que el proceso sirva no solamente para resolver mejor casos puntuales, sino para un establecimiento de estándares de manera abierta a la sociedad, no como expresión de “valores” corporativos.

Se trata de un paso importante porque implica el reconocimiento de la necesidad de participación de la pericia externa a estas compañías. Para Kaye, al igual que para buena parte de la sociedad civil, la supervisión es deseable a través de un modelo que involucre a toda la industria, y con roles para el Estado en la supervisión del comportamiento de las plataformas.

Expresión de la democracia

El escenario actual es resultado, entre otras cosas, de la falta de estándares claros. En parte, porque es prácticamente imposible tener un único conjunto de estándares de aplicación universal frente a situaciones complejas y realidades culturales diversas. En parte, porque también parece poco sensato buscar soluciones a cuestiones sociales profundas en la regulación de la tecnología donde esas cuestiones se manifiestan. Pero no es ello una razón para renunciar a la aspiración de un mejor entorno digital.

Las recomendaciones formuladas por distintas organizaciones de la sociedad civil, por la academia, y por el propio Relator Especial, ponen el énfasis tanto en la acción estatal como en la autorregulación, pero también en la interacción entre sectores. La pregunta que se formula David Kaye, “¿quién ha de estar a cargo?”, busca seguidamente una respuesta en el interés general. Subyace a múltiples recomendaciones de transparencia, responsabilidad y multisectorialismo una noción de participación que ha sido parte del desarrollo de sistemas políticos democráticos. Es decir, allí donde reconocemos un interés público relevante, aspiramos también a un involucramiento que desconcentre el ejercicio del poder. En la gobernanza de las plataformas de internet, aun nominalmente privadas, también esperamos más democracia.

En Derechos Digitales entendemos ese desafío también desde la particularidad de nuestra región. Tal como advierte David Kaye, enfrentamos situaciones en que la acción estatal es usada precisamente para acallar voces críticas. En las próximas semanas publicaremos un informe al respecto, para esclarecer algunos de los aspectos críticos del debate. El desafío principal, de mantener un entorno de pleno ejercicio de derechos fundamentales, y de plena expresión de la ciudadanía, involucra a todos los actores sociales.

Tratto da derechosdigitales.org