Facebook está contratando a un pequeño ejército para bloquear los videos de asesinatos y suicidios

¿Pueden miles de moderadores de contenido resolver los problemas de los videos en vivo de Facebook?

Un año después de anunciar su servicio de transmisión de video en vivo, Facebook ha admitido tácitamente que Facebook Live tiene un problema. Mientras los creadores lo utilizan para transmitir contenido original, Facebook Live también ha sido una plataforma para transmitir suicidios y crímenes violentos.

El mes pasado, un hombre en Cleveland obligó a la policía a una cacería nacional después de subir un video a Facebook del asesinato de un anciano. El miércoles, Mark Zuckerberg, el presidente de Facebook, anunció una posible solución: contrató a más de tres mil personas para escanear los videos y eliminar los peores de ellos de la plataforma.

“En las últimas semanas, hemos visto en Facebook a gente que se lastima a sí misma y a otros, en vivo o después, ya cuando está publicado el video”, escribió Zuckerberg en una anotación en línea. “Es descorazonador, y he estado pensando en cómo podemos mejorar para nuestra comunidad”.

Facebook está casi duplicando a su equipo de operaciones de comunidad, el cual ya tenía cuatro mil 500 personas, y tiene planes de construir nuevas herramientas para que los usuarios de Facebook puedan ayudar a eliminar videos ofensivos.

El anuncio de Zuckerberg fue hecho un poco antes de la junta trimestral de resultados de la compañía, durante la cual los inversionistas seguramente preguntarán a la gente de Facebook que acciones están tomando para eliminar el contenido negativo de su plataforma y prevenir futuros desastres de relaciones públicas. La vigilancia de contenidos violentos o de odio se ha convertido en una preocupación central de la industria de la tecnología mientras el ecosistema de internet evoluciona y se consolida. La responsabilidad de ser los guardianes del Internet ha recaído sobre un puñado de compañías públicas y enormes.

Twitter ha empezado a utilizar inteligencia artificial para identificar a cuentas que caen en comportamiento abusivo, y Alphabet, la compañía responsable de Google, recientemente liberó una infraestructura que a través de aprendizaje de máquinas determina si un comentario en línea es abusivo.

Sin embargo, mientras esta tecnología mejora, hay un número estimado de cien mil moderadores de contenido trabajando en sitios web y apps alrededor de todo el mundo como los que Facebook planea contratar. Como Wired lo reporta, la mayoría de ellos ganan un salario bajísimo y no reciben prestaciones por vigilar y retirar videos brutales e imágenes perturbadoras de la red.

En los primeros días del año, dos empleados de Microsoft demandaron a la compañía, alegando que fueron negligentes en proveer servicios de salud mental a sus empleados del equipo de seguridad en línea, quienes removían y revisaban contenido gráfico.

La decisión de Facebook de expandir a su equipo de operaciones de comunidad con más gente en vez de otorgarles una inteligencia artificial más avanzada, nos dice cuán rápido Zuckerberg está tratando de resolver los problemas en Facebook Live. Sin embargo, los detalles acerca del trabajo no están claros.

¿Los tres mil moderadores de contenido serán empleados o estarán por contrato? La bolsa de trabajo de Facebook aparentemente no indica si la compañía está empleando para algún papel dentro de su equipo de operaciones de comunidad justo como lo describió Zuckerberg en su entrada.

Facebook dice que la gente contratada para revisar el contenido recibirá apoyo psicológico, pero cuando los buscamos para que nos dieran un comentario, un vocero de Facebook se negó a responder preguntas sobre si la gente mencionada por Zuckerberg estará por contrato (en Estados Unidos o el extranjero), o si serán empleados de tiempo completo con prestaciones.

*Texto originalmente publicado en Vanity Fair U.S.