Los grupos extremistas de ultraderecha utilizan plataformas de videojuegos para captar a jóvenes y radicalizarlos

A principios de 2021, Payton Gendron, un supremacista blanco de 18 años, anunció en una red social de videojuegos su intención de realizar un ataque. Horas después, usó un rifle comprado legalmente para matar a diez personas negras en un supermercado, transmitiendo la masacre en directo por Twitch. Su caso es solo un ejemplo de un fenómeno creciente: plataformas asociadas a los videojuegos como Discord, Twitch y Steam se han convertido en espacios donde grupos extremistas difunden sus ideologías, reclutan y radicalizan a jóvenes. Entre 2010 y 2020, el uso de internet como canal principal de radicalización en menores de 30 años aumentó un 413%.
Con más de 3.300 millones de jugadores en el mundo, estos espacios digitales son ahora comunidades globales y un terreno fértil para ideologías de extrema derecha, neonazismo, antisemitismo y teorías conspirativas. La toxicidad y las conductas de odio se han normalizado en la cultura gamer. Los extremistas maquillan sus mensajes con memes y códigos que solo un público específico comprende, ocultando discursos de odio.
El proceso de radicalización suele comenzar cuando un reclutador interactúa con un jugador en línea. Tras fortalecer la relación, lo invita a una comunidad externa para adoctrinarlo. Los expertos señalan que los reclutadores buscan perfiles específicos que ya muestran actitudes de odio o usan símbolos extremistas.
Detectar estos contenidos es difícil para las corporaciones tecnológicas. En entornos de juego, los símbolos deformados y el lenguaje codificado complican el uso de algoritmos, ya que es difícil distinguir entre una incitación real a la violencia y un comentario dentro de la ficción del juego. Aunque no hay una solución definitiva, los expertos coinciden en que vale la pena combatir a estos grupos en los espacios tóxicos de internet.