Hubo un tiempo en que internet era la promesa de un mundo libre. Pero llegó un día en que empezamos a pensar que necesitábamos la censura.
La mayoría de plataformas, redes sociales, foros, chats o juegos online nacieron sin límites. Entre sus paredes virtuales podías hacer, más o menos, lo que quisieras. Pero para no acabar convirtiendo la red en un universo de violencia, pornografía y actividades delictivas, pronto se empezaron a establecer filtros. Normas de comportamiento.
En los últimos años, ante el auge de los discursos de odio y, también, el temor a la poscensura, estos filtros se han reforzado. Hoy, la mayoría del contenido es revisado de forma automática por una inteligencia artificial. Cada plataforma tiene la suya. Pero, casi siempre, las decisiones de esta IA tienen que ser confirmadas y refinadas por un par de ojos humanos. Una persona que lee, escucha y ve todo lo que el resto del mundo no quiere ver. Son los escudos humanos de internet.
Moderador de contenidos: ¿quién es quién?
Una búsqueda rápida en LinkedIn arroja cerca de 400.000 personas trabajando en el campo de la moderación de contenidos. Y no es demasiado suponer que existan muchos moderadores que no están en esta red social. El filtrado de vídeos, fotos y mensajes se ha convertido en un gran negocio en el que conviven consultoras y empresas más pequeñas con corporaciones que acaparan los contratos con las grandes redes sociales como Facebook, YouTube o Twitter. Además, muchas plataformas online cuentan con sus propios moderadores en plantilla.
“El trabajo de los moderadores de contenido ha sido visto de forma negativa en el pasado. Sin embargo, moderar contenido inapropiado online es un trabajo vital que debe hacerse para proteger a los usuarios inocentes […]”. Así define el trabajo TaskUs, una consultora digital que modera contenido, entre otras tareas, para empresas como Mailchimp, Eventbrite o Hootsuite. Un trabajo que es especialmente difícil en la esfera de las redes sociales.
Seguir leyendo en Nobbot.