Hombre blanco, entre 20 y 29 años, al menos una historia de odio o violencia contra las mujeres, registro penal menor y gran tiempo conectado a internet. Ese sería el tipo de perfil de quienes efectúan asesinatos masivos, como el ocurrido en Nueva Zelanda.
Una de las muchas tragedias de la masacre en dos mezquitas de Nueva Zelandia el viernes resulta una amarga ironía: el terrorista que mató al menos a 50 personas en un ataque islamofóbico se parece en muchos aspectos a un miembro de ISIS. Si su vida hubiera sido diferente de alguna manera, bien podría haber terminado siendo uno de ellos y haber matado a personas en otro lugar en su nombre. El tipo de extremismo y odio es, por supuesto, diferente. Pero tienen al menos una cosa en común: internet como herramienta de radicalización.
Todavía no sabemos mucho sobre el sospechoso y sus antecedentes. Pero antes de que se supiera algo acerca de él, cualquiera que haya estudiado o cubierto el extremismo y este tipo de ataques podría haber dado una idea de qué tipo de persona se trataba: hombre. Probablemente en sus veintes. Probabilidad de al menos un registro criminal de menor importancia. Más que probable, una historia de odio o violencia contra las mujeres. Ah, y una cosa más: probablemente pasaba una buena cantidad de tiempo en internet.
La gente podría fácilmente ser radicalizada antes de las redes sociales. Muchos todavía son radicalizados sin estas. Pero las redes sociales, a menudo en combinación con otros factores, han demostrado ser un radicalizador eficiente, en parte porque permiten la fácil formación de comunidades y en parte debido a sus algoritmos, utilizados para convencer a las personas de quedarse un poco más, ver un video más, hacer clic en una cosa más, generar un poco más de ingresos por publicidad.
Lee también: Facebook ha eliminado más de 1.5 millones de videos que muestran los ataques en Nueva Zelandia
Las recomendaciones que proporciona YouTube, por ejemplo, han demostrado que empujan a los usuarios hacia contenido extremo. Alguien que visita el sitio para ver un video sobre algo en las noticias podría encontrarse rápidamente viendo un clip de teorías de conspiración, por ejemplo. (En enero, YouTube dijo que estaba tomando medidas para remediar esto). Hace unos años, alguien que buscaba información sobre el Islam podría encontrarse pronto escuchando a un predicador radical.
Combina esos algoritmos con hombres insatisfechos, que pueden sentir que el mundo les debe más, y tendrás una receta para crear extremismo de cualquier tipo.
“Están eligiendo una ideología que les ayuda a justificar su ira, su decepción y que está disponible”, dijo el viernes a CNN Business Jessica Stern, profesora investigadora de la Pardee School of Global Studies de la Universidad de Boston y coautora de “ISIS: The State of Terror”. “El terrorismo se apoya en modas pasajeras. Nos dimos cuenta de que gente que estaba asumiendo la ideología de ISIS que ni siquiera era musulmana, se estaba convirtiendo al Islam. La ideología de ISIS era una forma atractiva para que algunos de estos hombres expresaran su ira y decepción. Esta es otra ideología que se está volviendo muy popular, es otra moda”.
A pesar de todas las críticas tan merecidas que han recibido recientemente sobre todas las cosas por las que no han actuado, las redes sociales sí se han adelantado y han tomado medidas reales e impresionantes cuando se enfrentan a una avalancha de partidarios y contenido de ISIS. Las grandes compañías tecnológicas ahora podrían tomar medidas similares contra los supremacistas blancos.
“El asunto en los sitios establecidos es que en su mayoría ha habido una eliminación agresiva” del contenido relacionado con ISIS, dijo Seamus Hughes, director adjunto del Programa sobre Extremismo en la Universidad George Washington. “Esa misma dinámica no ha sucedido cuando se trata de la supremacía blanca”.
Las compañías podrían ahora tomar medidas contra los supremacistas blancos. De hecho, podrían seguir así para siempre, jugando a los mazos con diferentes movimientos que aparecen y comienzan a radicalizar a sus usuarios, actuando contra ellos después de que se ha matado a suficientes personas. Eso sería más fácil para ellos que lidiar realmente con el problema subyacente de los algoritmos diseñados para mantener a la gente cerca.
“Tiene sentido desde una perspectiva de mercadotecnia; si te gusta Pepsi, verás más videos de Pepsi … pero lleva eso al extremo lógico con los videos de supremacía blanca”, dijo Hughes. “Tendrán que encontrar la manera de no desechar completamente un sistema que les ha brindado cientos de millones de dólares en ingresos publicitarios, al tiempo que no fomentan la radicalización o el reclutamiento de personas”.
Quizás el aspecto más desalentador de todo esto es que a las empresas se les ha dicho una y otra vez que tienen un problema. Ben Collins, un reportero de NBC News, tuiteó el viernes: “Investigadores sobre extremismo y periodistas (incluyéndome a mí) advirtieron a la compañía por correo electrónico, por teléfono y a las caras de los empleados después del último ataque terrorista que el próximo mostraría nuevamente signos de radicalización en YouTube, pero que el resultado sería peor. Literalmente, se rieron de mí”.
Entonces, ¿qué deberían hacer las plataformas ahora?
Ante esa pregunta, Bill Braniff, director del Consorcio Nacional para el Estudio del Terrorismo y las Respuestas al Terrorismo (START) y profesor en la Universidad de Maryland, dijo: “Lo que creo que deberíamos pedirles es que sigan minimizando la prominencia o el alcance de la propaganda violenta y extremista, que exige violencia … pero no limitarse a la simple eliminación de contenido como la forma de hacerlo. Lo que sucede cuando una gran plataforma elimina este contenido o estos puntos de vista es que el contenido simplemente cambia a plataformas más pequeñas … Tal vez haya menos gente expuesta con el tiempo, y eso es algo bueno, pero no es lo mismo que una solución integral”.
El retiro de contenido en solitario puede contribuir a una narrativa de persecución y llevar a las personas a sitios más radicales y más pequeños, señaló Braniff. Y piensa que eso significa renunciar a la oportunidad de usar los algoritmos para redirigir, en lugar de reforzar.
“Sabemos que las personas … en realidad pueden ser guiadas a través del asesoramiento [y] la tutoría”, dijo. “Si en lugar de dirigir a un ayuda a las personas que podrían estar coqueteando con el extremismo, si las censuras y las quitas de estas plataformas, pierdes … la capacidad de proporcionarles una vía de salida”.
Aunque admite que las plataformas aún deben eliminar el contenido que llama a la violencia de manera explícita, lo que también viola sus términos de servicio, Braniff dijo: “Hay un contenido que no viola los términos de uso, por lo que la pregunta es: ¿pueden asegurarse de que la información se contextualiza con videos antes y después de ella en el feed?”
La solución integral que observa es un cambio en los algoritmos, de modo que puedan señalar a las personas puntos de vista diferentes o, en algunos casos, apoyo, como asesoramiento.
“Los algoritmos pueden fomentar el pensamiento grupal y el refuerzo o pueden impulsar la discusión”, dijo. “En este momento, el contenido personalizado tiende a ser: ‘Creo que te va a gustar más de lo mismo’, y desafortunadamente ese es un escenario ideal no solo para el extremismo violento sino también para la polarización … Solo estamos compartiendo subconjuntos de información y eliminamos el terreno intermedio, el lugar donde nos reunimos para discutir diferentes ideas … [una] parte masiva del extremismo violento es la polarización, y es realmente peligrosa”.