Cómo hizo Facebook para eliminar 8,7 millones de imágenes de desnudez infantil en 3 meses
Facebook es una de las redes sociales más importantes, y cuando se es tan grande también los problemas llegan a gran escala. La compañía creada por Mark Zuckerberg ha sido cuestionada a menudo por cuestiones vinculadas a la privacidad de sus usuarios, la proliferación de noticias falsas y su inacción ante la aparición de sitios que promueven la discriminación y la violencia.
Este progreso ha sido posible gracias a la acción de una herramienta de machine learning, o como puede traducirse al español, aprendizaje automático. El software marca todas las imágenes que contienen desnudez y niños, ayudando así a los moderadores en el proceso de eliminación del material.
Según la jefa de seguridad de Facebook, Antigone Davis, la herramienta distingue los archivos que deben revisarse como prioridad, y de esa manera mejora la eficiencia.
El error más famoso fue la censura de una conocidísima foto ganadora de un pulitzer que tenía a una niña desnuda huyendo de un ataque aéreo durante la guerra de Vietnam.
Al respecto de las quejas, Davis ha señalado que Facebook prefiere equivocarse en la dirección en la que lo está haciendo y proteger a los niños. El software ha dejado muy conforme a la red social, y la firma está considerando aplicarlo también a Instagram.