Los hechos apuntan a una especie de incompetencia deliberada que favorece al negocio: las cuentas de menores no se eliminan diligentemente, los filtros de moderación tampoco funcionan bien y permiten encontrar contenidos teóricamente prohibidos, algunas medidas de control que no son eficaces se mantienen porque blanquean su reputación ante la prensa. Según NPR, las tasas de “error” en la moderación de contenidos sobre pedofilia son enormes, llegando al 100%, por ejemplo, en la categoría “fetichización de menores”. Un jefe de proyecto dijo en un chat una frase reveladora sobre su fin último: “Nuestro objetivo no es reducir el tiempo de estancia”.
Una cosa es sospechar que las redes son un problema para los más jóvenes, y otra, escuchar cómo y por qué. También este mes hemos visto en el programa de televisión Salvados a Arturo Béjar, exjefe de ingenieros en Meta y uno de los principales testigos de la causa en su contra, que tomó conciencia de la gravedad del abuso en la plataforma a través de su hija. “Es el acoso sexual más grande de la historia de la humanidad”, dijo, y acusó a sus directivos de no importarle en absoluto. El programa, en dos partes, incluyó también entrevistas con moderadoras de Meta en Barcelona que explicaron cómo habían llegado a desarrollar trastorno de estrés postraumático debido a su trabajo. No ahorraron detalles sobre las decapitaciones, mutilaciones y ejecuciones que veían a diario, tampoco sobre pederastia, asesinatos, violaciones, parricidios, atentados y suicidios en directo. Junto a una veintena de compañeros, han querellado a la subcontrata que les empleó, que también trabaja con TikTok. El abogado que les representa insistió durante la emisión en que los pormenores, que no me atrevo a reproducir aquí, eran necesarios para dar una idea de la dimensión de los hechos.
La negrura no solo afecta a los moderadores humanos. Según otro estudio interno filtrado de TikTok, vídeos de autolesiones fueron reproducidos 75.000 veces antes de llegar a ellos. En cuanto se hizo con la propiedad de X, Elon Musk desinvirtió en el control de contenidos, con resultados evidentes para unos usuarios que creían participar en una red más civilizada. Podríamos resumir todo lo anterior así: las redes desbordan violencia y no termina de ser contenida porque va contra el negocio; los menores son las principales víctimas; la sociedad que los sobreprotegió está descubriendo espantada que corren peligro en su propia habitación, cuando la puerta está cerrada y tienen el móvil en la mano.