Este es el tercer post de una serie sobre la responsabilidad de los intermediarios de Internet en Brasil. Nuestro primer post ofrece una visión general del actual régimen brasileño de responsabilidad de los intermediarios de Internet, establecido en una ley conocida como "Marco Civil da Internet", el contexto de su aprobación en 2014 y el inicio del juicio del Tribunal Supremo sobre dicho régimen en noviembre de 2024. Nuestro segundo post ofrece una visión más amplia del contexto brasileño que subyace al análisis del tribunal y a su más que probable decisión final.
El examen del Tribunal sobre el Artículo 19 de Marco Civil comenzó con el Juez Dias Toffoli en noviembre del año pasado. Explicamos aquí sobre los casos enjuiciados, el alcance de la decisión del Tribunal Supremo y los antecedentes del artículo 19 relacionados con la aprobación del Marco Civil en 2014. También destacamos algunos aspectos y riesgos del voto del Juez Dias Toffoli, que consideró inconstitucional el régimen de responsabilidad de los intermediarios establecido en el Artículo 19.
La mayoría de los jueces han acordado declarar este régimen inconstitucional, al menos parcialmente, pero difieren en los aspectos concretos. Los elementos relevantes de sus votos incluyen:
- Es probable que la notificación y retirada se convierta en la norma general para la responsabilidad de las plataformas por contenidos de terceros (basada en el artículo 21 del Marco Civil). Los jueces aún tienen que resolver si esto se aplica a las aplicaciones de Internet en general o si son pertinentes algunas distinciones, por ejemplo, aplicarse sólo a las que curan o recomiendan contenidos. Otra cuestión abierta se refiere al tipo de contenidos sujetos a responsabilidad en virtud de esta norma: los votos apuntaron a contenidos/actos ilícitos, contenidos manifiestamente delictivos o claramente ilícitos, u optaron por centrarse en los delitos. Algunos jueces no calificaron explícitamente la naturaleza del contenido restringido en virtud de esta norma.
- Si es parcialmente válido, la necesidad de una orden judicial previa para responsabilizar a los intermediarios de las publicaciones de los usuarios (artículo 19 del Marco Civil) sigue vigente para determinados tipos de contenidos (o determinados tipos de aplicaciones de Internet). Para algunos jueces, el artículo 19 debería ser el régimen de responsabilidad en caso de delitos contra el honor, como la difamación. El juez Luís Roberto Barroso también consideró que esta norma debería aplicarse a cualquier acto ilícito de derecho civil. El juez Cristiano Zanin tiene un enfoque diferente. Para él, el artículo 19 debe prevalecer para las aplicaciones de Internet que no curen, recomienden o impulsen contenidos (lo que denominó aplicaciones "neutrales") o cuando existan dudas razonables sobre si el contenido es ilícito.
- Se considera que las plataformas son responsables de los anuncios y contenidos potenciados que ofrecen a los usuarios. Ésta era la postura mantenida por la mayoría de los votos hasta ahora. Los jueces lo hicieron bien presumiendo el conocimiento de las plataformas del contenido pagado que distribuyen, considerándolas estrictamente responsables de las publicaciones pagadas, bien considerando la entrega de contenido pagado como un acto propio de las plataformas (en lugar de una conducta "de terceros"). El juez Dias Toffoli fue más allá, incluyendo también los contenidos recomendados no pagados. Algunos jueces ampliaron este régimen a los contenidos publicados por cuentas no auténticas o falsas, o cuando la falta de identificación de las cuentas impide responsabilizar a los autores de los contenidos por sus publicaciones.
- Obligación de vigilancia de determinados tipos de contenidos nocivos y/o delictivos. Lo más preocupante es que diferentes votos establecen algún tipo de deber de vigilancia activa y probablemente de restricción automatizada para una lista de contenidos, sujeta a la responsabilidad de las aplicaciones de Internet. Los jueces han reconocido un "deber de vigilancia" o han considerado que las plataformas son responsables de este tipo de contenidos independientemente de una notificación previa. Los jueces Luís Roberto Barroso, Cristiano Zanin y Flávio Dino adoptan un enfoque de defecto sistémico menos problemático, según el cual la responsabilidad de las aplicaciones no se derivaría de cada contenido individualmente, sino de un análisis de si las plataformas emplean los medios adecuados para hacer frente a este tipo de contenidos. La lista de contenidos también varía. En la mayoría de los casos se limitan a delitos penales, como delitos contra el Estado democrático, racismo y delitos contra niños y adolescentes; pero también pueden incluir términos más vagos, como "cualquier violencia contra las mujeres", como en el voto del juez Dias Toffoli.
- Deberes complementarios o procesales. Los jueces también han votado a favor de establecer deberes complementarios o de procedimiento. Entre ellas se incluyen proporcionar un sistema de notificación de fácil acceso para los usuarios, un mecanismo de debido proceso en el que los usuarios puedan recurrir las restricciones de contenido y la publicación de informes periódicos de transparencia. El juez Alexandre de Moraes también mencionó específicamente las medidas de transparencia algorítmica.
- Supervisión. Los magistrados también debatieron sobre qué entidad o modelo de supervisión debería utilizarse para vigilar el cumplimiento mientras el Congreso no apruebe una regulación específica. Plantearon distintas posibilidades, como el Consejo Nacional de Justicia, la Fiscalía General del Estado, la Autoridad Nacional de Protección de Datos, un organismo autorregulador o una entidad multisectorial con participación del gobierno, las empresas y la sociedad civil.
Otros tres jueces aún tienen que presentar sus votos para completar la sentencia. Como hemos señalado, la sentencia decidirá tanto los casos individuales que entraron en el Tribunal Supremo a través de recursos como las cuestiones de "repercusión general" subyacentes a estos casos individuales. Para abordar estas cuestiones de repercusión general, el Tribunal Supremo aprueba una tesis que orienta las decisiones de los tribunales inferiores en casos similares. La tesis final reflejará la mayoría de los acuerdos del tribunal en torno a los temas que hemos esbozado anteriormente.
El juez Alexandre de Moraes argumentó que la tesis final debería equiparar el régimen de responsabilidad de las redes sociales y las aplicaciones de mensajería privada al que se aplica a los medios de comunicación tradicionales. Esto hace caso omiso de importantes diferencias entre ambos: aunque las plataformas de medios sociales curen contenidos, se trata de un volumen masivo de publicaciones de terceros, organizadas principalmente mediante algoritmos. Aunque esta selección refleja decisiones empresariales, no se equipara a los medios de comunicación que crean directamente o compran individualmente contenidos específicos a productores independientes autorizados. Esto se complica aún más con las aplicaciones de mensajería, poniendo en grave peligro la privacidad y la encriptación de extremo a extremo.
El juez André Mendonça fue el único hasta ahora que preservó la plena aplicación del artículo 19. Su propuesta de tesis destacaba la necesidad de salvaguardar la privacidad, la protección de datos y el secreto de las comunicaciones en las aplicaciones de mensajería, entre otros aspectos. También indicaba que las órdenes judiciales de retirada deben motivarse de forma específica y ponerse a disposición de las plataformas, aunque se dicten en el marco de un procedimiento sellado. La plataforma también debe tener la posibilidad de recurrir la orden de retirada. Todos estos son puntos importantes que la sentencia final debería respaldar.
Riesgos y puntos ciegos
Hemos subrayado los numerosos problemas que entrañan los amplios mandatos de notificación y retirada y la ampliación de las obligaciones de supervisión de contenidos. Confiar ampliamente en la moderación de contenidos basada en IA- y vincularla a la responsabilidad de los intermediarios por los contenidos de los usuarios probablemente exacerbará los efectos perjudiciales de las limitaciones y defectos de estos sistemas. Los peligros y preocupaciones que fundamentaron la aprobación del Artículo 19 siguen siendo válidos y deberían haber llevado al tribunal a preservar su régimen.
Sin embargo, dado el estado actual de la sentencia, sigue habiendo algunas salvaguardias mínimas que los jueces deberían considerar o reforzar para reducir el daño.
Es crucial poner barreras contra el abuso y la instrumentalización de los mecanismos de notificación. Como mínimo, las plataformas no deberían ser responsables tras una notificación extrajudicial cuando existan dudas razonables sobre la licitud del contenido. Además, los procedimientos de notificación deben garantizar que las notificaciones sean suficientemente precisas y estén debidamente fundamentadas, indicando la ubicación específica del contenido (por ejemplo, URL) y por qué el notificador lo considera ilegal. Las aplicaciones de Internet también deben proporcionar una justificación razonada y mecanismos de recurso adecuados para quienes se enfrentan a restricciones de contenidos.
Por otra parte, responsabilizar a los intermediarios de contenidos individuales de los usuarios, independientemente de la notificación, confiando masivamente en el marcado de contenidos basado en la IA, es una receta para la censura excesiva. Adoptar un enfoque de defecto sistémico podría mitigar mínimamente este problema. Además, los jueces deberían diferenciar claramente las aplicaciones de mensajería privada, ya que las restricciones obligatorias basadas en el contenido erosionarían las implementaciones seguras y encriptadas de extremo a extremo.
Por último, debemos señalar que, en general, los jueces no distinguieron las grandes aplicaciones de Internet de otros proveedores al detallar los regímenes de responsabilidad y los deberes en sus votos. Éste es un punto ciego importante, ya que podría afectar significativamente a la viabilidad de alternativas alternativas y descentralizadas a los modelos de negocio de las grandes tecnológicas, afianzando la concentración de plataformas. Del mismo modo, a pesar de las críticas a los intereses comerciales de las plataformas para monetizar y captar la atención de los usuarios, los debates judiciales no abordaron principalmente la omnipresente infraestructura de vigilancia que subyace bajo el poder y los abusos de las Grandes Tecnologías.
De hecho, aunque los jueces han denunciado el enorme poder de las grandes empresas tecnológicas sobre el flujo de información en Internet -sobre lo que se oye y se ve, y por quién-, las consecuencias de esta decisión pueden en realidad profundizar esta poderosa posición.
Merece la pena recordar una frase de Aaron Schwarz en la película "The Internet's Own Boy" al comparar la radiodifusión e Internet. Dijo "[...] lo que ves ahora no es una cuestión de quién consigue el acceso a las ondas, es una cuestión de quién consigue el control sobre las formas en que encuentras a la gente". Como él dice, el reto actual no es tanto quién consigue hablar, sino quién consigue ser escuchado.
Existe una innegable fuente de poder en el funcionamiento de las reglas y estructuras internas por las que fluye la información dentro de una plataforma con alcance global y millones de usuarios. Las intervenciones cruciales deben apuntar a esta fuente de poder, poniendo fin a los anuncios de vigilancia del comportamiento , rompiendo el dominio de los guardianes de la Big Tech y redistribuyendo el flujo de información.
Eso no quiere decir que no debamos preocuparnos por cómo organiza cada plataforma su entorno en línea. Deberíamos, y lo hacemos . La Ley de Servicios Digitales de la UE, por ejemplo, estableció normas en este sentido, dejando en gran medida intacto el régimen de responsabilidad tradicional. En lugar de utilizar las plataformas como guardianes del discurso de los usuarios, responsabilizando potencialmente a los intermediarios de cada contenido de los usuarios, los esfuerzos de responsabilidad de las plataformas deben dirigirse ampliamente a los procesos de las plataformas y las elecciones empresariales. De lo contrario, acabaremos centrándonos en vigilar a los usuarios en lugar de centrarnos en los abusos de las plataformas.