Sección 230 y otras leyes de moderación de contenidos en todo el mundo
Introducción
A medida que Internet ha crecido y las empresas que alojan (y moderan) los contenidos de los usuarios han surgido y se han extendido por todo el mundo, se ha hecho más difícil seguir los distintos marcos y políticas que estas empresas aplican a la moderación de contenidos, que a menudo son diferentes de una empresa a otra y de un país a otro.
En Estados Unidos, las opciones de política de expresión de los intermediarios -es decir, las plataformas de medios sociales y otros sitios que alojan contenidos generados por los usuarios (CGU)- están determinadas en parte por tres leyes: la Primera Enmienda de la Constitución de Estados Unidos, el 47 U.S.C. §230 (comúnmente conocido como Sección 230) y la Ley de Derechos de Autor del Milenio Digital (DMCA).
La Primera Enmienda y la Sección 230
En general, la Primera Enmienda protege el derecho de las plataformas a decidir si acogen o no contenidos, sin interferencia del gobierno, con algunas excepciones para algunos tipos de contenidos ilegales, como la pornografía infantil. En otras palabras, el gobierno no puede interferir en las políticas de conservación de una plataforma.
Dicho esto, en los primeros días de Internet, los intermediarios podrían haberse enfrentado a amenazas muy serias de partes privadas que pretendían hacerles responsables de contenidos que pudieran violar otras leyes, como la difamación. En este entorno, los costes de los litigios podrían sofocar muchos servicios nuevos antes de que se pusieran en marcha. E, irónicamente, los servicios que moderan activamente los contenidos generados por los usuarios podrían correr más riesgo que los que no moderan en absoluto.
El artículo 230, aprobado por ley en 1996, mitiga sustancialmente ese riesgo. En pocas palabras, protege en gran medida a los intermediarios de la responsabilidad por los contenidos generados por los usuarios, y proporciona una protección adicional para garantizar que la moderación de los intermediarios no genere nuevas responsabilidades.
La sección 230 contiene dos estatutos importantes relacionados con la moderación de contenidos y la censura. La primera, (c)1, establece que "ningún proveedor o usuario de un servicio informático interactivo será tratado como el editor o el orador de cualquier información proporcionada por otro proveedor de contenido de información", lo que significa efectivamente que aunque usted es legalmente responsable de lo que dice en línea, si aloja o vuelve a publicar el discurso de otras personas, sólo esas personas son legalmente responsables de lo que dicen. En virtud del artículo 230, la única parte responsable de la expresión ilegal en línea es la persona que la dijo, no el sitio web donde la publicó, la aplicación que utilizó para compartirla o cualquier otro tercero. Esto es así tanto si el anfitrión de la web es una gran plataforma como Facebook, como si se trata de tu propia web o blog personal.
Existen algunas limitaciones: el artículo 230 no protege a los intermediarios de la responsabilidad que les impone la legislación penal federal, ni tampoco de las reclamaciones federales de propiedad intelectual.
En pocas palabras, el artículo 230 hace posible la existencia de sitios y servicios que albergan discursos y contenidos generados por los usuarios, y les permite compartir sus ideas, sin tener que crear sus propios sitios o servicios individuales que probablemente tendrían un alcance mucho menor. Desde su aprobación en 1996, a esta ley se le atribuye el mérito de haber contribuido a crear el ecosistema de Internet que tenemos hoy en día, dando a muchas más personas acceso a los contenidos que otros crean de lo que nunca habrían tenido de otro modo. Es parte de la razón por la que tenemos florecientes comunidades en línea en las que los usuarios pueden comentar e interactuar entre sí sin esperar horas, o días, a que un moderador, o un algoritmo, revise cada publicación.
El artículo 230 también ayuda a evitar la censura excesiva de contenidos controvertidos o potencialmente problemáticos o "perjudiciales", una categoría que a menudo cambia con el tiempo, puede estar sujeta a caprichos políticos y depende considerablemente del punto de vista. La censura de las plataformas es un problema grave, pero sin el artículo 230, las plataformas podrían sentirse presionadas a cerrar conversaciones aún más controvertidas por miedo a la responsabilidad indirecta, lo que inevitablemente perjudicaría más a los grupos vulnerables, cuyas voces ya están a menudo marginadas. Se ha demostrado que la censura amplifica los desequilibrios existentes en la sociedad, a veces de forma intencionada y otras no. El resultado ha sido que las plataformas son más propensas a censurar las voces de las personas y comunidades sin poder.
En resumen, gracias al artículo 230, si infringes la ley en línea, eres tú el responsable, no el sitio web, la aplicación o el foro donde has dicho algo ilegal. Del mismo modo, si reenvías un correo electrónico o incluso retuiteas un tuit, estás protegido por el artículo 230 en caso de que ese material se considere ilegal. Recuerde que este intercambio de contenidos e ideas es una de las principales funciones de Internet, desde los servicios de tablón de anuncios de los años 80, pasando por los chats de retransmisión de Internet de los años 90, hasta los foros de los años 2000 y las plataformas de medios sociales de hoy en día. El artículo 230 protege todos estos tipos de servicios de intermediación (y muchos más). Aunque el artículo 230 no existió hasta 1996, se creó, en parte, para proteger los servicios que ya existían y los muchos que han venido después.
La DMCA
La inmensa mayoría de las retiradas de formas de expresión se deben a acusaciones de infracción de derechos de autor, mediante los procedimientos establecidos en la Ley de Derechos de Autor del Milenio Digital (DMCA).
La DMCA contiene dos secciones principales. Las disposiciones "antielusión" (secciones 1201 y siguientes de la Ley de Derechos de Autor) prohíben la elusión de los controles de acceso y las medidas técnicas de protección. Las disposiciones de "puerto seguro" (sección 512) protegen a los proveedores de servicios que cumplen ciertas condiciones de daños monetarios por las actividades infractoras de sus usuarios y otros terceros en la red.
Para recibir estas protecciones, los proveedores de servicios deben cumplir las condiciones establecidas en la sección 512, incluidos los procedimientos de "notificación y retirada", que ofrecen a los titulares de derechos de autor una forma rápida y sencilla de desactivar el acceso a los contenidos presuntamente infractores. La sección 512 también contiene disposiciones que permiten a los usuarios impugnar las retiradas indebidas. Sin estas protecciones, el riesgo de una posible responsabilidad por derechos de autor impediría a muchos intermediarios en línea prestar servicios como el alojamiento y la transmisión de contenidos generados por los usuarios. Así, los puertos seguros, aunque imperfectos, han sido esenciales para el crecimiento de Internet como motor de innovación y libertad de expresión. Dicho esto, a menudo se abusa de la DMCA para retirar contenidos legales.
Leyes en otros países
Dado el número de grandes plataformas con sede en Estados Unidos, entender la Primera Enmienda y la Sección 230 es esencial para comprender las políticas y prácticas de moderación de las plataformas. Pero no podemos ignorar cómo la moderación de contenidos está influenciada por las leyes de otros países. Por ejemplo, de los 2.790 millones de usuarios globales de Facebook (en febrero de 2021), solo 228 millones están en Estados Unidos.
La gran mayoría de los usuarios de Internet en todo el mundo están sujetos a marcos de moderación basados en leyes locales más estrictas, incluso cuando las empresas a las que recurren tienen su sede en EE.UU. En otros países, el gobierno suele desempeñar un papel considerablemente mayor, y más peligroso, en la determinación de las políticas de moderación de contenidos.
Por ejemplo, la defectuosa ley NetzDGde Alemania, aprobada en 2018, exige a las grandes plataformas de medios sociales que eliminen rápidamente los "contenidos ilegales" definidos en más de 20 códigos penales diferentes. La amplia ley obliga a los moderadores con una comprensión potencialmente limitada del contexto a tomar decisiones rápidamente o las empresas se enfrentan a fuertes multas. La ley también obliga a las plataformas de redes sociales con dos millones de usuarios a nombrar un representante local autorizado para actuar como punto de contacto con las fuerzas del orden y recibir las solicitudes de retirada de contenidos de las autoridades públicas. También obliga a estas empresas a retirar o desactivar los contenidos que parezcan "manifiestamente ilegales" en un plazo de 24 horas desde que se les avise de su existencia. Human Rights Watch ha criticado la ley por considerar que viola la obligación de Alemania de respetar la libertad de expresión.
Venezuela, Australia, Rusia, India, Kenia, Filipinas y Malasia han seguido con sus propias leyes o han propuesto leyes similares al ejemplo alemán. Una propuesta de ley en Indonesia obligaría a las plataformas de redes sociales, aplicaciones y otros proveedores de servicios en línea a aceptar la jurisdicción local sobre sus contenidos y las políticas y prácticas de datos de los usuarios. La estricta Proclamación de Delitos Informáticos y la Proclamación de Prevención y Supresión de Discursos de Odio y Desinformación de 2020 de Etiopía exige a las plataformas que vigilen los contenidos dándoles 24 horas para retirar la desinformación o los discursos de odio. Más recientemente, Mauricio propuso una ley que permitiría al gobierno interceptar el tráfico hacia las plataformas de medios sociales.
La lista, por desgracia, continúa: Singapur, inspirado en la NetzDG de Alemania, aprobó en mayo de 2019 el proyecto de ley de protección contra la falsedad y la manipulación en línea, que faculta al gobierno para ordenar a las plataformas que corrijan o desactiven contenidos, acompañado de importantes multas si la plataforma no cumple. Una ley recientemente aprobada en Turquía va mucho más allá de NetzDG, ya que su alcance no solo incluye las plataformas de medios sociales, sino también los sitios de noticias. En combinación con sus exorbitantes multas y la amenaza de bloquear el acceso a los sitios web, la ley permite al gobierno turco borrar cualquier disidencia, crítica o resistencia.
Esto es sólo un breve resumen del panorama legal de la moderación de contenidos. Para más información, visite la sección "Track an Issue" del sitio.