Home / TECNOLOGIA / El horroroso trabajo del moderador de contenido online

El horroroso trabajo del moderador de contenido online

El contenido violento todavía lo filtran personas que pueden sufrir problemas psicológicos tras una exposición constante

La semana pasada, Facebook anunció que iban a contratar a 3.000 nuevos moderadores para vigilar los directos de la red social. Esa cifra se suma a los ya 4.000 empleados que tiene en todo el mundo para vigilar que no se suba contenido que infrinja las normas de uso de la plataforma y su objetivo es, principalmente, que no se vuelvan a emitir asesinatos o violaciones.

Ese contenido que va contra el contrato que todo usuario acepta al registrarse en Facebook varía bastante: desde pechos con pezones al descubierto hasta fotografías de pornografía infantil, vídeos de asesinatos, post de texto con enlaces a webs de descargas y un larguísimo y grotesco etcétera. Para que todo esto se cuele entre las fotos de tu cuñado en la playa y ese vídeo de cachorros jugando torpemente en su perrera, hay un muro de personas.

Las tecnologías para moderar sin un humano de por medio todavía no están lo suficientemente maduras y entrañan problemas que luego son un dolor de cabeza. Un ejemplo reciente de por qué esto es un problema es el modo restringido de YouTube, que funciona automáticamente y que, para ‘proteger’ al usuario, considera legítimo bloquear vídeos inocuos sobre temática LGTBQ+.

Hasta que las inteligencias artificiales y las redes neuronales no hayan avanzado lo suficiente, pues, no podrán sustituir a las personas que ejercen de filtro. Y eso es un problema: muchos de los empleados que eliminan contenido violento de Facebook u otros servicios online sufren problemas mentales a causa de su trabajo.

Hace unos años, la revista Wired documentó varios de estos casos de primera mano. Uno de ellos, Jake Swearingen, abandonó el trabajo poco después de aceptarlo porque le daba miedo inmunizarse o verse trastornado por el contenido con el que estaba tratando.

“En mi tercer día, me topé con el vídeo de una decapitación” y al comunicarlo en voz alta, un compañero más experimentado respondió: “Oh, ¿cuál de ellos”. En ese momento, decidió dejarlo porque “no quería echar la vista atrás y ver que me había inmunizado tanto como para hacer chistes o ironizar sobre las cosas horribles que estaban sufriendo estas personas”.

El artículo aseguraba que la media de duración en un puesto de este tipo es de entre tres y seis meses, algo increíble si se tiene en cuenta que suelen ganar unos 300 dólares al mes por esta tarea. Sí, es una cifra irrisoria, pero en los países donde normalmente se llevan acabo estas tareas, como Filipinas en el caso citado, es un sueldo en la media.

No está claro dónde se llevará a cabo la moderación de directos anunciada por Facebook, pero esta censura de contenidos no siempre se lleva a cabo en países alejados de las empresas interesadas. Microsoft, por ejemplo, tenía una departamento dedicado a eliminar imágenes y vídeos violentos de Bing, su buscador de Internet. Debido al pobre trato que dieron a dos de sus empleados, la empresa ha sido denunciada por no prestar ayuda psicológica suficiente.

Según los demandantes, Henry Soto y Greg Blauert, las secuelas psicológicas han sido severas tras años a cargo del departamento de censura de contenido violento de Microsoft, hasta el punto de que no pudieron reincorporarse a sus puestos tras una baja médica causada por sus responsabilidades.

En todo caso, el funcionamiento es siempre el mismo: se confía más en la comprobación una vez se ha subido el contenido a la red social o servicio de turno que en impedir que esta se pueda publicar a priori. De ahí las consecuencias para el trabajador, que ni siquiera depende de la compañía para la que realiza estas labores en la mayoría de casos.

Si existe un problema con la salud mental de los moderadores de contenido, al final no es Facebook, en este caso, quien se responsabiliza de ellos, sino la tercera compañía que han contratado. Dado el inmenso reto que supone esta tarea, la cuestión sobre cómo se trata a los empleados en estos puestos es tan crucial como la reacción que estos tengan para que el contenido inapropiado que suben ciertos usuarios no llegue a los demás.

About Sandy Productions

Check Also

HBO llega a los televisores inteligentes de Samsung

Las compañía surcoreana ha llegado a un acuerdo en exclusividad para tener la aplicación de …

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *