Guía: cómo proteger los derechos humanos en la gobernanza de contenidos

Read in English

Cuando los actores en este espacio toman decisiones sobre la moderación de contenidos (es decir, cuando participan en la “gobernanza del contenido”) tienen el deber de tener en cuenta los derechos humanos. Los gobiernos están obligados a proteger estos derechos, mientras que las empresas son responsables de respetarlos.

Para ayudar en esos procesos de toma de decisiones, hemos publicado 26 recomendaciones para la gobernanza de contenido: una guía para legisladores, reguladores y encargados de políticas empresariales. Estas recomendaciones centradas en el usuario y los derechos humanos se resumen a continuación y se detallan en su totalidad en el documento. Dado que el contexto es diferente para cada país y región, nuestras recomendaciones no constituyen una recetas única. En cambio, están destinadas a servir como una base de referencia para la gobernanza de contenido que salvaguarde los derechos humanos.

Dividimos la gobernanza de contenido en tres categorías principales: regulación estatal, aplicada por los gobiernos; autorregulación, ejercida por plataformas mediante moderación o curación de contenido; y corregulación, emprendida conjuntamente por gobiernos y plataformas a través de acuerdos obligatorios o voluntarios.

Tenga en cuenta que en la siguiente lista se han resumido las recomendaciones. Para la enunciación completa y  un análisis detallado, consulte el documento completo.

Regulación estatal: 13 recomendaciones para la gobernanza de contenido

1. Atenerse a estrictos principios democráticos
Las regulación debe instrumentarse mediante un instrumento legal formal que contenga salvaguardas protectoras de los derechos humanos y que se establezcan a través de un proceso democrático que respete los principios de participación y transparencia. Cualquier regulación debe ser necesaria y proporcionada; y perseguir un objetivo legítimo.

2. Adoptar mecanismos de puerto seguro y exenciones de responsabilidad legal
Los intermediarios deben estar exentos de responsabilidad por el contenido de terceros mediante un régimen de puerto seguro. Sin embargo, nos oponemos a la inmunidad absoluta. Las reglas que protegen a los intermediarios deben permitir formas de abordar la propagación de contenido ilegal.

3. No imponer una obligación de monitoreo general
Una obligación de monitoreo general es una obligación que los actores estatales imponen directa o indirectamente a los intermediarios para llevar a cabo un monitoreo activo y a granel del contenido y la información que los usuarios comparten. Esto viola el derecho a la libertad de expresión y el acceso a la información.

4. Definir mecanismos de respuesta adecuados
Para que la respuesta al contenido ilegal sea adecuada y proteja los derechos humanos, los mecanismos de respuesta deben definirse en la legislación nacional, adaptarse a categorías específicas de contenido e incluir procedimientos claros y disposiciones de notificación, incluida la notificación a usuarios que actúan como proveedores de contenido.

5. Establecer normas claras para cuando no aplican las exenciones de responsabilidad legalp
Un marco legal debe establecer cuándo y cómo se entiende que las plataformas en línea tienen “conocimiento efectivo” del contenido ilegal en su plataforma (como podría darse, por ejemplo, al recibir una orden judicial).

6. Evaluar detenidamente y de manera limitada el contenido de ilegalidad manifiesta
El contenido es manifiestamente ilegal cuando es fácilmente reconocible como tal sin ningún análisis adicional, como el material de abuso sexual infantil. Solo un pequeño porcentaje del contenido cae dentro de esta categoría, pero todo el contenido ilegal requiere una adjudicación independiente para ser considerado como tal, y los gobiernos deben tener cuidado de no ampliar la definición, para evitar abrir excesivamente el alcance de la remoción de contenidos. La única situación en la que las plataformas podrían ser consideradas responsables de no eliminar dicho contenido sin una orden judicial es después de recibir una notificación privada.

7. Desarrollar procedimientos de notificacion y accion que respeten los derechos
Los procedimientos de notificación y acción son mecanismos que las plataformas en línea pueden seguir para combatir el contenido ilegal al recibir la notificación. Para evitar una censura amplia de contenido generado por usuarios dependiente del contexto, sugerimos diferentes tipos de mecanismos de notificación y acción según el tipo de contenido que se evalúa.

8. Limitar las medidas temporales e incluir salvaguardas.
El bloqueo temporal del contenido debe usarse solo cuando es una cuestión urgente, y el bloqueo debe estar estrictamente limitado en el tiempo y restringido a tipos específicos de contenido ilegal. Esos requisitos deben estar claramente definidos por la ley. Esto es así, para evitar el abuso estatal de esta herramienta para restringir el acceso a la información sin un procedimiento adecuado para la determinación de su ilegalidad.

9. Imponer sanciones proporcionadas para el incumplimiento
Si las sanciones por incumplimientos legales se vuelven desproporcionadas (bloqueo del servicio o encarcelamiento de ejecutivos de la empresa, por ejemplo) es muy probable que conduzcan a un “sobrecumplimiento” excesivo, lo que podría dañar la libre expresión y el acceso a la información compartida en plataformas en línea.

10. Usar medidas automatizadas solo en casos limitados
Debido a la gran cantidad de contenido en línea que se comparte en las plataformas, a menudo es necesario el uso de medidas automatizadas para detectar contenido ilegal. Sin embargo, la tecnología para estas medidas no es capaz de interpretar el contexto antes de marcar un contenido para su bloqueo o eliminación. En consecuencia, el uso de medidas automatizadas debe tener un alcance estrictamente limitado, basarse en una regulación clara y transparente, y debe incluir salvaguardas apropiadas para mitigar su posible impacto negativo en los derechos humanos de los usuarios.

11. Legislar salvaguardas para el debido proceso
Para proporcionar seguridad jurídica, previsibilidad y proporcionalidad en las medidas de eliminación de contenido, es esencial garantizar un proceso con todas las garantías para la toma de decisiones, que incluya notificaciones y contranotificaciones bien fundadas antes de tomar cualquier medida.

12. Crear obligaciones significativas de transparencia y rendición de cuentas
Los reguladores no pueden monitorear adecuadamente la implementación y el impacto de las leyes de gobernanza de contenido si los estados e intermediarios no emiten informes de transparencia. Estos informes deben centrarse en la calidad de las medidas adoptadas, en lugar de la cantidad de contenido eliminado de las plataformas.

13. Garantizar los derechos de apelación y reparación efectiva de los usuarios
Los errores son inevitables en las decisiones de gobernanza de contenido; por lo tanto, los mecanismos de apelación, incluida la opción de contranotificaciones para los proveedores de contenido, son la principal garantía para un proceso justo.

Autorregulación: 10 recomendaciones para la gobernanza de contenido

1. Prevenir perjuicios a los derechos humanos
Las plataformas deben incorporar protecciones de los derechos humanos en la elaboración de cualquier política y consultar periódicamente a expertos independientes en la materia.

2. Evaluar el impacto
Las plataformas deben realizar evaluaciones públicas, participativas y periódicas del impacto de sus decisiones de moderación y curación de contenido, lo que incluye compartir información de manera proactiva con los investigadores y la sociedad civil.

3. Ser transparentes
Todos los criterios de moderación y curación de contenido, reglas, sanciones y excepciones deben ser claros, específicos, predecibles e informados adecuadamente a los usuarios con anticipación. Esto incluye obtener el consentimiento previo, válido e informado de los usuarios con respecto a las reglas que rigen sus actividades en la plataforma.

4. Aplicar los principios de necesidad y proporcionalidad
Las sanciones que las plataformas imponen a los usuarios por violar las reglas de moderación de contenido deben tener en cuenta la efectividad y el impacto en los derechos del usuario (necesidad) y ser proporcionales al daño que se está abordando. Excluir a un usuario del uso del servicio debería ser una medida de último recurso.

5. Considerar el contexto
Las plataformas no deben aplicar las reglas de moderación de contenido de la misma manera para todos los casos. Además de los principios de derechos humanos, es esencial tener en cuenta los matices sociales, culturales y lingüísticos al tomar decisiones de moderación de contenido.

6. No tomar posiciones arbitrarias o injustamente discriminatorias
La aplicación de decisiones de moderación de contenido, además de matizadas y basadas en el contexto, deben ser tan coherentes, sistemáticas y predecibles como sea posible, para evitar la arbitrariedad que puede recaer injustamente en las comunidades marginadas.

7. Promover la toma de decisiones con intervención humana
Las plataformas deben minimizar la toma de decisiones automatizada, ya que los humanos son los más adecuados para evaluar el contexto. También deben proporcionar a los usuarios el derecho de solicitar una revisión humana de su caso.

8. Crear mecanismos de notificación y revisión
Las plataformas en línea deben notificar a los usuarios cuando se ha tomado una decisión de moderación sobre su contenido o discurso, y la notificación debe contener la información necesaria para solicitar una revisión de la decisión.

9. Brindar reparaciones
Las plataformas deben proporcionar reparaciones efectivas a los usuarios, por ejemplo, mediante la restauración del contenido eliminado, cuando las reglas de moderación de contenido se hayan aplicado de manera errónea o excesiva.

10. Involucrarse en una gobernanza abierta
Para mejorar la evaluación de los riesgos para los derechos humanos, las plataformas deben invitar a la participación de los usuarios y otras partes interesadas en la gobernanza de sus aplicaciones y servicios.

Corregulación: 3 recomendaciones para la gobernanza de contenido

1. Adoptar marcos legales participativos, claros y transparentes
Para permitir los mecanismos de rendición de cuentas necesarios, los modelos de corregulación deben basarse en un marco legal vinculante que los actores estatales adopten para proporcionar salvaguardas a los usuarios.

2. No cambiar ni tergiversar las responsabilidades de los actores
Los gobiernos no deben permitir o alentar a los actores privados a decidir sobre la legalidad o restricción del contenido generado por los usuarios.

3. Prevenir abusos
Los estados deben evitar cualquier acción que pueda conducir al abuso de las medidas de corregulación, tales como el uso de estas medidas para imponer un monitoreo general del contenido o alentar el “sobrecumplimiento” y la eliminación excesiva del contenido generado por el usuario.