Por: Redacción AGENCIAS
Septiembre 28,2017 / redaccion@criterio.hn
Facebook
agregará a 3000 personas al equipo que monitorea Facebook Live y otros
aspectos de la red social para evitar esparcir contenido inapropiado,
ofensivo o ilegal.
Noticia Relacionada: Conoce estas 10 Formas para detectar perfiles de Facebook falsos
La
decisión se tomó después de que la plataforma de Facebook Live, el
popular servicio de transmisión de video de la empresa, fue utilizada
para transmitir actos como el homicidio de una bebé en Tailandia y otro
asesinato en Cleveland en el que un hombre mostró cómo disparaba a un
señor aparentemente al azar.
La
empresa también ha sido criticada por hacer un mal trabajo respecto a
eliminar el contenido que viole sus reglas, como en el caso del
intercambio de fotografías de militares desnudas, sin su consentimiento,
así como el de ventas ilegales de armas de fuego.
En una
publicación de Facebook, Mark Zuckerberg, el director ejecutivo de la
empresa, señaló que los episodios recientes fueron “desgarradores” y que
los nuevos moderadores se sumarán a las 4500 personas que ya tiene en
su equipo de operaciones para la comunidad.
“Si
vamos a construir una comunidad segura, necesitamos responder
rápidamente”, escribió. “Estamos trabajando para hacer que sea más fácil
reportar estos videos, de manera que podamos tomar la acción adecuada
de manera más pronta, ya sea al responder rápidamente cuando alguien
necesite ayuda o al eliminar una publicación”.
Zuckerberg
también apuntó que Facebook facilitará que los usuarios y los empleados
de la empresa tomen medidas cuando vean un problema.
“Haremos
que sea más sencillo que nos reporten problemas, que sea más rápido para
nuestros moderadores determinar cuáles publicaciones violan nuestros
estándares y que sea más fácil para ellos contactar a las autoridades en
caso de que alguien necesite ayuda”, dijo.
Pese a
las promesas de Zuckerberg, muchos usuarios de la red social se
mostraron escépticos de que la contratación de 3000 moderadores vaya a
resultar en cambios. Cientos de comentarios en la publicación de
Zuckerberg hablaban de casos en los que reportaron contenido que
consideraron inapropiado y que la compañía no removió.
La
mayoría de los moderadores son contratistas que reciben un sueldo
relativamente bajo y viven alrededor del mundo.
Usualmente revisan una
publicación por solo algunos segundos. Una investigación de la Radio
Pública Nacional estadounidense (NPR) llevada a cabo el año pasado halló
que los estándares de contenido de Facebook eran aplicados de manera
inconsistente.
Zeynep
Tufekci, profesora asociada de la Universidad de Carolina del Norte que
estudia temas relacionados a las publicaciones en línea, dijo que
Facebook diseño la plataforma de video en vivo para que los amigos de
quien transmita reciban la alerta de manera automática y que eso es
atractivo para quienes buscan la publicidad.
“Me quedó
claro que eso llevaría a suicidios transmitidos en vivo, a homicidios,
abusos, tortura”, dijo Tufecki. “El FBI concluyó en un estudio abarcador
de estudiantes que llevan a cabo tiroteos en sus colegios que la
‘infamia’ es uno de sus motivos”.
El
anuncio de Zuckerberg fue hecho horas antes de que la empresa informara
sobre su desempeño financiero trimestral, que ha aumentado en parte
gracias a la popularidad de los videos en la plataforma.
http://criterio.hn/2017/09/28/facebook-busca-contratar-3000-moderadores-vigilar-contenido-ofensivo/
No hay comentarios:
Publicar un comentario