Moderación de contenidos: ¿Qué es?
La moderación de contenidos es la práctica de aplicar un conjunto predeterminado de normas a los contenidos generados por los usuarios, con el fin de determinar si esos contenidos son admisibles o no. Todo tipo de plataformas y proveedores de servicios de Internet moderan los contenidos, según distintas normas. Esas reglas suelen ser una combinación de obligaciones legales y otras normas que ponen en práctica para tratar de mantener los tipos de comunidad o de contenido que quieren fomentar. Los documentos que establecen esas normas para los usuarios suelen llamarse acuerdos de condiciones de servicio y directrices/estándares comunitarios.
¿Cómo se marcan los contenidos para su eliminación u otra acción?
Hay cuatro formas principales de marcar los contenidos para su eliminación: La denuncia de los usuarios, las solicitudes gubernamentales, el marcado automático y las solicitudes de la DMCA.
En primer lugar, un usuario marca un contenido que viola las normas de la comunidad o las directrices de un servicio concreto, y esa marca se envía para su revisión. El usuario suele pasar por una serie de preguntas que le ayudan a identificar qué norma cree que ha violado el contenido.
El segundo tipo, las solicitudes gubernamentales, implican que los gobiernos envíen solicitudes de retirada directamente a las empresas. Los gobiernos pueden presentar solicitudes judiciales o de aplicación de la ley a las empresas, a veces a través de canales oficiales (como una orden emitida por una autoridad judicial competente), y esas solicitudes se revisan internamente para comprobar el cumplimiento de la ley. A veces, las empresas también revisan las solicitudes gubernamentales de eliminación en virtud de sus propias condiciones de servicio o de las directrices de la comunidad, un fenómeno que a veces se denomina "solicitudes de retirada de la política de la plataforma" o "retirada voluntaria del gobierno". Algunos gobiernos también emplean a personas para que utilicen los mecanismos de denuncia de los usuarios en un esfuerzo por eliminar contenidos. Las plataformas ofrecen distintos niveles de transparencia sobre el número de solicitudes que han recibido directamente de los gobiernos y cuántas de ellas se han completado.
El tercer tipo es la eliminación automática. Muchas empresas utilizan la automatización para marcar los contenidos que posteriormente serán revisados por un humano, mientras que otras emplean algoritmos de aprendizaje automático para detectar y eliminar contenidos antes de que se publiquen. Esta última práctica se utiliza cada vez más para eliminar contenidos extremistas, por ejemplo. Los contenidos sujetos a restricciones de derechos de autor también son marcados de forma rutinaria por ContentID.
Por último, los usuarios pueden presentar una denuncia en virtud de la Ley de Derechos de Autor del Milenio Digital (DMCA) si son titulares de los derechos de autor de un contenido que ha sido cargado por otra persona, o son agentes del titular de los derechos de autor, y la carga es ilegal.
Después de que el contenido se marque, normalmente se someterá a una revisión. Esto puede no aplicarse a los contenidos marcados por violación de derechos de autor.
Cuando se pone en marcha un proceso de revisión para comprobar si hay o no una razón legítima para retirar un contenido que ha sido marcado por violar las normas de la comunidad, hay dos métodos que son los más comunes: la revisión realizada por una persona real, y la revisión automatizada. La revisión humana suele ser un tipo de trabajo remunerado en el que las personas recorren la cola de material asignado y determinan manualmente si el contenido infringe las normas de la comunidad o las reglas legales y debe ser eliminado. Los procesos de revisión automatizada son mecanismos algorítmicos que comparan el contenido con bases de datos de contenido "malo" conocido y buscan similitudes. A veces, estas revisiones automatizadas comprueban un análisis de sentimiento en el que los algoritmos intentan determinar el tono emocional, o el estado de ánimo, del contenido. Dado que tanto la revisión automatizada como la humana pueden ser propensas a errores, puede haber varias rondas de revisión que sean una combinación de ambos tipos.
¿Qué ocurre con los contenidos que infringen las normas?
Una vez marcado y revisado el contenido, se decide qué hacer con él. Si se determina que el contenido infringe las normas de la comunidad o las condiciones de uso, lo más habitual es que se elimine de la plataforma. Por lo general, el usuario que creó el contenido recibe algún tipo de aviso de que se han tomado medidas para eliminarlo. Dependiendo de la gravedad de la infracción o del número de veces que el usuario haya creado contenidos inapropiados, se pueden tomar medidas más punitivas, como la suspensión temporal de la cuenta o su prohibición indefinida.
Si el contenido se encuentra dentro de las normas establecidas por las TdS y las directrices de la comunidad, la plataforma permitirá que se mantenga. Si el contenido se "inmuniza" contra una revisión posterior por parte de la plataforma (para ahorrar tiempo o dinero) depende de la propia plataforma.
Algunas empresas también emplean formas de moderación de contenidos que se sitúan entre los "leave ups" y los "take downs". Estos mecanismos de aplicación son a menudo secretos, y los usuarios pueden no ser notificados adecuadamente. Se manifiestan de diversas maneras, pero por ejemplo, el contenido marcado por un usuario puede simplemente dejar de mostrarse a ese usuario. Otro ejemplo conocido es la desmonetización de contenidos, por la que se permite a un usuario seguir publicando, pero no puede albergar anuncios en sus contenidos. Dada la falta de resultados determinados con esta opción, puede inspirar teorías conspirativas sobre la magia algorítmica que suprime o potencia determinados tipos de contenido como una especie de control civil.
Condiciones de servicio vs. Directrices comunitarias
Como se ha mencionado anteriormente, el documento de las condiciones de servicio describe las responsabilidades que el usuario acepta al participar en una plataforma. Suele presentarse al usuario en el momento de registrar la cuenta. Las condiciones de servicio suelen complementarse con un documento de directrices o normas de la comunidad. Este otro documento presenta esas normas en un formato más legible, pero también suele establecer otras normas que, además del intento de la plataforma de cumplir la ley, restringen otros comportamientos legales.
Por ejemplo: algunos tipos de contenido son directamente ilegales y, por tanto, nunca se toleran, como el material de abuso sexual infantil. Todo lo que se encuentre claramente en una de estas categorías es susceptible de ser eliminado inmediatamente y, en ocasiones, de recibir medidas punitivas.
Otros contenidos, como la incitación al odio, el extremismo, la desnudez o la pornografía, no son necesariamente ilegales, pero suelen estar prohibidos por las directrices comunitarias de una plataforma. Algunas de estas cosas pueden ser ilegales en determinadas jurisdicciones, mientras que otras pueden reflejar simplemente los propios valores de la empresa o su adhesión a las normas. Las plataformas suelen estar incentivadas a ser demasiado amplias en sus medidas restrictivas y a eliminar cualquier contenido que pueda requerir más recursos para su categorización.
Para obtener información sobre cómo apelar a contenidos que han sido retirados, visite nuestras guías de apelación.