Internacional

Conozca la nueva política de Facebook para eliminar contenido

La divulgación del documento se produce tras las frecuentes críticas y la confusión sobre las políticas de la compañía.

"La gente no quiere compartir sus mejores momentos y que le den un voto negativo", cuenta el creador de Facebook.

Internacional Por: Julian David Calderon Hortua

Por primera vez, Facebook Inc. ha dejado que la gente conozca sus directrices específicas para eliminar contenido una vez que es informado a los moderadores de la red social. El documento de 27 páginas rige el comportamiento de más de 2.000 millones de usuarios y entrega las definiciones de Facebook de discurso de odio, amenazas violentas, explotación sexual y más. Es lo más cerca que ha llegado el mundo a ver un código de conducta internacional que fue promulgado a puertas cerradas.

(Lea: Apple tendrá que pagar 13.000 millones de euros en impuestos a Irlanda)

La divulgación del documento se produce tras las frecuentes críticas y la confusión sobre las políticas de la compañía. Los estándares de la comunidad parecen el resultado de años de ensayo y error y se utilizan para proporcionar a los trabajadores la suficiente especificidad para tomar decisiones rápidas y consistentes.

(Lea: Facebook quiere diseñar sus propios chips)

Facebook publicó las políticas para ayudar a las personas a entender dónde la compañía traza la línea en cuestiones matizadas, dijo Monika Bickert, vicepresidenta de gestión de políticas globales de la firma, en una publicación de blog.

La compañía dará a la gente por primera vez derecho a apelar sus decisiones. La divulgación de las políticas de contenido se produce solo unos días después de que el máximo ejecutivo de Facebook, Mark Zuckerberg, testificara ante el Congreso, donde enfrentó frecuentes preguntas sobre las prácticas de la compañía. En la sesión, los legisladores le preguntaron si Facebook eliminaba injustamente más contenido conservador que liberal o por que el mal contenido, como perfiles falsos y publicaciones de venta de drogas opioides, permanecía a pesar de haber sido reportado.

"Nuestras políticas son tan buenas como la fuerza y la precisión de nuestra aplicación, y nuestra aplicación no es perfecta", dijo Bickert. "En algunos casos, cometemos errores porque nuestras políticas no son lo suficientemente claras para nuestros revisores de contenido. En muchas ocasiones, sin embargo, cometemos errores porque nuestros procesos involucran a personas y las personas son falibles".

La compañía tiene 7.500 revisores de contenido, un 40% más que hace un año, que trabajan en 40 idiomas. Facebook también ha dicho que está trabajando para aumentar el número de empleados que hablan los idiomas que requieren más atención. Pero con 2.200 millones de usuarios en todo el mundo, cada revisor es responsable en promedio de una base de usuarios que es equivalente a la población de Pittsburgh, Pensilvania.

En su testimonio ante el Congreso, Zuckerberg prometió que la aplicación de estándares mejoraría con la inteligencia artificial. Esos sistemas, sin embargo, están entrenados por humanos y es probable que también sean falibles.

Aunque Facebook aspira a aplicar sus políticas "sostenida y justamente a una comunidad que trasciende regiones, culturas e idiomas", con frecuencia no lo hace. El New York Times ha informado recientemente como la compañía ha tardado en responder a mensajes que incitan a la violencia étnica en países como Myanmar y Sri Lanka. En muchos casos, las personas han reportado contenido que Facebook permitió que se mantuviera en la página, aun cuando viola los estándares.

Las políticas son detalladas cuando se trata de problemas que se han experimentado en Estados Unidos, especialmente la violencia con armas de fuego. Los perfiles de asesinos en masa son eliminados si mataron a cuatro personas a la vez, en virtud de si fueron condenados o identificados por la policía con imágenes del crimen, o si se quitaron la vida o fueron asesinados en la escena o después.

Una de las definiciones de Facebook de acoso involucra "acusaciones de que la víctima de una tragedia violenta miente sobre ser una víctima, actúa o finge ser la víctima de un evento verificado o recibe un pago o se le empleo para engañar a las personas sobre su participación en el evento". Esa definición se aplica solo cuando un mensaje se envía directamente a un sobreviviente o un familiar directo, como ocurrió con las víctimas de los tiroteos de Sandy Hook y Parkland.

Ahora que Facebook publicó las políticas, está solicitando comentarios para editarlas.


*Bloomberg.