Los grupos racistas de EEUU usan Facebook para amplificar su odio
El posteo en Facebook que incitó hace dos semanas a civiles armados a patrullar la ciudad estadounidense de Kenosha poco antes de un tiroteo en el que murieron dos personas, expuso, tal como ocurrió en 2017 en Charlottesville, el uso que hacen los supremacistas blancos de esa red social para difundir su mensaje de odio racial.
De los 221 grupos vinculados a la supremacía blanca que fueron identificados por un censo anual que realizan organizaciones sociales, poco más de la mitad (113) tenían presencia en la red social creada por Mark Zuckerberg, según un informe reciente del Tech Transparency Project, un centro que investiga el comportamiento de las grandes empresas de tecnología.
A través de Facebook se organizó la marcha Unite the Right en la ciudad de Charlotesville, que en agosto de 2017 unió a nacionalistas, neoconfederados, miembros del Ku Klux Klan, neonazis y varias milicias, y que terminó cuando uno de ellos atropelló y mató a un contramanifestante e hirió a 19 personas.
Tres años después, y pese a las promesas de la empresa de un mayor control de los mensajes de odio, una milicia de la zona de Kenosha convocó en un posteo a “tomar las armas y defender la ciudad” de quienes protestaban contra el asesinato de un afroestadounidense por parte de la policía: esa misma noche, el 25 de agosto pasado, un joven blanco abrió fuego con un rifle semiautomático y mató a dos personas.
Desde el crimen de George Floyd, el 25 de mayo, las marchas por el movimiento Black Lives Matter (Las Vidas Negras Importan) se multiplican en los distintos estados y así como aumenta la tensión racial y política de cara a las elecciones presidenciales del 3 de noviembre, también crece la presión para que Facebook deje de ser una caja de resonancia para los mensajes de odio.
“Controlar los contenidos en las redes sociales o no hacerlo es una decisión. ¿Se puede? Sí ¿Se quiere? Parece que no”, afirmó a Télam Gabriel Zurdo, director de BTR Consulting, empresa dedicada a la seguridad informática.
El especialista indicó que esta falta de voluntad es tanto por parte de las grandes corporaciones tecnológicas como de los Gobiernos, que se benefician de lo que calificó como la “industria de la vigilancia”.
“El 84% del ingreso del grupo Facebook, que también tiene WhatsApp e Instagram, viene de publicidad. El resto con la comercialización de lo que hacemos: si pedís pizza, qué estudiás, si estás en pareja, qué películas mirás y qué música escuchás, por ejemplo”, explicó.
“El valor de estos datos quedó claro con el caso de Cambridge Analytica en el que se sospecha que 126 millones de potenciales votantes de Donald Trump (en las elecciones de 2016) pudieron ser influenciados por un grupo de ciberinteligencia ruso que generó algo así como 80.000 contenidos distintos a esas personas”, añadió Zurdo.
Y continuó: “La argumentación sostenía que con algoritmos de inteligencia artificial, sabiendo a qué hora te levantás, qué noticias mirás, a qué le das ´me gusta´, marca de auto, hobby y dónde vivís, entre otros datos, podían analizar y establecer las condiciones para hacerte llegar información y que cambies de opinión”.
“Es terreno fértil para hacer inteligencia”, afirmó y recordó que cuando el presidente francés Emmanuel Macron impulsó en la Asamblea Nacional (Cámara de Diputados) una ley que obliga a las plataformas y buscadores de internet a eliminar los contenidos de odio para evitar multas, no recibió un acompañamiento de otras potencias como Rusia, Estados Unidos y China.
Distinto es el caso de Alemania, que aprobó la Netzwerkdurchsetzungsgesetz, abreviada como NetzDG, una ley que obliga a las redes sociales que operan en el país a pagar multas de hasta 50 millones de euros si no eliminan los contenidos “obviamente delictivos” en un lapso de 24 horas desde que son denunciados, y que según sus opositores puede producir una censura extendida incluso sobre contenidos que pueden ser legales.
Del lado de las empresas la solución que ofrecen para moderar son las denuncias de los propios usuarios, pero principalmente a través de la inteligencia artificial: según un informe presentado por Facebook el mes pasado, en el trimestre de abril a junio de 2020 la tasa de detección automática a los mensajes de incitación al odio aumentó seis puntos del 89% al 95%
Sin embargo, el informe de Tech Transparency Project apuntó que esta herramienta “tiene limitaciones” y lo argumentó con que grupos neonazis, por ejemplo, lograron esquivar esa detección mediante técnicas tan simples como reemplazar la “s” por el signo “$” o simplemente utilizar nombres de fantasía.
“Facebook tiene 2.500 millones de usuarios y nosotros hacemos un cálculo que cruzamos con otras compañías que muestran que entre el 12% y el 15% de los usuarios son de identidad ficticia o fraguados”, añadió Zurdo en el mismo sentido.
La red social comunicó a principios de junio que eliminó aproximadamente 190 cuentas vinculadas a grupos de supremacía blanca, un anuncio que no terminó de conformar a varias marcas internacionales que un mes después se sumaron a un boicot para no publicitar hasta que se controlen los contenidos de odio.
Presionado además por sospechas de haber contribuido al triunfo de Trump en las últimas elecciones, la empresa decidió prohibir la publicación de todos los anuncios y mensajes políticos en sus páginas desde una semana antes de la celebración de los próximos comicios presidenciales.