La idea de Onlinecensorship.org nació en 2011, cuando Facebook eliminó un enlace publicado por la popular banda Coldplay. El enlace, considerado "abusivo" por la red social, era una canción de protesta alusiva a la libertad palestina, un problema por el que las llamadas de manipulación y censura por parte de los medios de comunicación son frecuentes.

En este caso, no fue la censura de los medios de comunicación de contenidos, ni tampoco fue, necesariamente, un supervisor humano; más bien, los usuarios de medios sociales reportaron el enlace como abusivo, lo que resultó en su eliminación por los sistemas automatizados. Si el dedo acusador debe señalar a alguien, sería difícil determinar a quién.

Las redes sociales son en muchos aspectos nuevos porteros de los medios de comunicación. Por política, se bloquean ciertos tipos de contenido, desde los discursos de odio a la desnudez y un montón de temas en el medio, estimados inapropiados para sus usuarios. Pero ¿qué pasa con el contenido que la mayoría pueda calificar de interés periodístico?

En agosto, Facebook pidió disculpas por bloquear temporalmente la publicación, por parte de los usuarios,  de informes del Centro de Estudios de Inmigración que sugerían que los inmigrantes están tomando una gran parte de los nuevos empleos que se abren en los Estados Unidos. Una vez más, los enlaces habían sido reportados por los usuarios del sitio como "abusivos" y, sin supervisión humana aparente, se quitaron esos informes.

Tanto en este reciente incidente y el de 2011 involucrando a Coldplay, un gran número de usuarios se sintieron ofendidos con los enlaces publicados (esto es, sin duda, una circunstancia en que un eventual botón "no me gusta" sería muy útil), pero en lugar de ignorarlos, los usuarios denunciaron los enlaces como información "abusiva"; un mecanismo pensado para evitar el spam. Dicho mecanismo en sí es propenso al abuso, sin embargo, estos dos informes de cuatro años sugieren además lo poco que se ha hecho para asegurar que el contenido periodístico no pueda ser censurado con tanta facilidad.

Hay otros casos en los que las empresas parecen estar implicadas de manera más activa en seleccionar qué contenido debe ser visible. En agosto, en medio de la crisis mundial de los refugiados, Facebook eliminó una serie de fotografías publicadas por el artista sirio Khaled Barakeh que mostraban niños ahogados y bodybags de un naufragio frente a la costa de Libia. En su estado en la red social,  Barakeh escribió: "Ayer por la noche [28 de agosto de, 2015], más de 80 sirios y palestinos refugiados se han ahogado en el Mediterráneo cerca de las costas de Libia mientras intentaban llegar a Europa."

Las imágenes fueron sin duda gráficas, pero eso por sí solo no debería bastar para invitar a una prohibición: la propia política de Facebook establece específicamente que se eliminan las imágenes gráficas cuando se comparten por placer sádico o para celebrar o glorifican la violencia. las propias palabras de Barakeh junto a las imágenes aclaran que ése no era su intención.

Esa misma semana, Twitter decidió cerrar Politwoops, un proyecto de rendición de cuentas que controlaba los tweets borrados de los políticos y funcionarios públicos. Llamando a la supresión de un tweet "una expresión de la voz del usuario," Twitter, efectivamente, argumentó que la privacidad de las figuras públicas triunfa sobre el derecho del público a saber lo que han dicho.

Y, más recientemente, la compañía fue acusada de censurar los tweets de ciertos usuarios en ciertas jurisdicciones. En concreto, los tweets por ciertos usuarios muy conocidas sobre los documentos acerca de aviones no tripulados de octubre de 2015 parecen haber sido bloqueados en los Estados Unidos, pero a diferencia de cuando la compañía elimina tweets en otras jurisdicciones debido a los requisitos legales, no hay transparencia; el tweet no está marcado como eliminado, sino que simplemente desapareció.

Cuando las compañías de medios sociales se imponen a sí mismos como los guardianes de los contenidos de interés general, ya sea intencionalmente o por error técnico, terminan adoptando -  inherentemente -  un nuevo papel: el de curador de contenidos. Si las compañías de medios sociales controlan tanto el medio y el mensaje, sin supervisión o transparencia, dan el salto  de un ser un "jardín amurallado" a un bosque podado selectivamente. Es el interés de todos los usuarios de las redes sociales poder tener confianza en el contenido que ven, pero igualmente, el estar al tanto del contenido que se elimina y la política detrás de esa decisión.

Si las compañías de medios sociales controlan tanto el medio y el mensaje, sin supervisión o transparencia, dan el salto de un ser un "jardín amurallado" a un bosque podado selectivamente.

Jillian C. York

COMPARTIR