CIUDAD DE MÉXICO.
La gente comparte todas sus aficiones a través de mensajes, fotos o videos en Facebook, pero a veces ese contenido puede ser vetado si se considera que atenta contra los principios de equidad, voz y seguridad que sigue la red social.
Para ayudar a los más de dos mil millones de usuarios a entender qué tipo de contenido es o no apropiado, por primera vez la red social está publicando las pautas internas que usa para tomar estas decisiones.
Con esto queremos que la gente sepa sobre los estándares que tenemos, queremos ser muy claros y que la gente sepa qué esperar cuando entra a Facebook”, comentó la vicepresidenta de Administración de Producto Global de la red social, Monika Bickert.
En conferencia telefónica comentó que esta semana se podrán revisar las Normas Comunitarias en las que se establece el tipo de contenido que se puede eliminar.
Por ejemplo, lo relacionado con violencia plausible, personas u organizaciones peligrosas, promoción a la delincuencia, la organización de actos para infringir daños o desnudos y explotación infantil, por mencionar algunas.
Bickert destacó que establecer dichas pautas en algunos casos resulta complicado, ya que más del 85 por ciento de los usuarios de Facebook está fuera de Estados Unidos.
Sabemos que la gente alrededor del mundo tiene ideas muy diferentes acerca de qué tipo de información puede ser compartida, así que parte de lo que tratamos de hacer es pintar una línea que haga sentido para una comunidad global”, declaró.
¿CÓMO FUNCIONA?
La red social tiene un equipo de políticas de contenido que desarrolla las Normas Comunitarias, el cual incluye expertos en temas como discurso de odio, seguridad infantil o terrorismo pertenecientes a todo el mundo. Cada semana se reúnen para analizar qué está cambiando y así adecuar las normas, siempre tomando en cuenta los principios de seguridad, voz y equidad.
De hecho, estimó que las normas que se publican en esta ocasión, a futuro podrían sufrir cambios dependiendo del entorno global.
Para identificar alguna violación a estas normas cuentan con dos herramientas, la tecnología y las personas.
Usamos la tecnología, que incluye inteligencia artificial u otras como software de reconocimiento de imagen, para determinar potenciales violaciones y lo que se encuentra va a un equipo para revisión”, detalló.
Aunque a veces hay situaciones en que las tecnologías son tan acertadas que no requieren una revisión humana, como podría ser en caso de un abuso sexual infantil.
La otra herramienta son las denuncias hechas por los mismos usuarios, para lo que cuentan con un equipo de siete mil 500 personas en el mundo que revisan y determinan si el contenido debe eliminarse, dando una respuesta en cerca de 24 horas.
Aunque aceptó que al tratarse de humanos, sus decisiones no son infalibles. Información Excelsior.com.mx