La gran mayoría de la regulación de contenido de Facebook ahora se realiza mediante los sistemas de aprendizaje automático de la compañía, pero ¿cómo analiza Facebook tu publicación?
La compañía afirmó que el 98% de los videos y fotos terroristas se eliminan antes de que alguien tenga la oportunidad de verlos.
¡Así analiza Facebook tu publicación!
La compañía ha estado entrenando sus sistemas de aprendizaje automático para identificar y etiquetar objetos en videos, desde lo más básico, como jarrones o personas, hasta lo peligroso, como pistolas o cuchillos.
Si el sistema decide que la publicación contiene imágenes o comportamiento problemático, puede eliminarlo automáticamente o enviarlo a un revisor de contenido humano. Si rompe las reglas, Facebook puede crear un hash (una cadena única de números) para denotarlo y propagarlo por todo el sistema para que otro contenido similar se elimine automáticamente si alguien intenta volver a cargarlo.
Estos hash se pueden compartir con otras empresas de redes sociales para que también puedan eliminar copias del archivo ofensivo.
Un punto débil: Facebook todavía está luchando para automatizar su comprensión del significado, los matices y el contexto del lenguaje. Es por eso que la compañía confía en las personas para reportar la gran mayoría de las publicaciones de acoso y hostigamiento que no cumplen sus reglas.
Solo el 16% de estas publicaciones se analizan por sus sistemas automatizados. A medida que avanza la tecnología, podemos esperar que esa cifra aumente.
En marzo, un terrorista mató a 49 personas en dos mezquitas en Christchurch, Nueva Zelanda. Transmitió en vivo la masacre en Facebook, y sus videos circularon por el sitio durante meses después. Fue una llamada de atención para la industria. Si sucediera nuevamente ahora, hay mayor posibilidad de que sea atrapado y eliminado más rápidamente.
También te puede interesar : ¿Por qué los creadores de las redes sociales no las utilizan?