ASI PODEMOS EVITAR QUE LA IA RECONOZCA NUESTRA CARA EN LOS SELFIS


La empresa Clearview ya ha proporcionado a algunos cuerpos policiales de EE. UU. una herramienta de reconocimiento facial entrenada con las fotos de millones de personas extraídas de la web. Pero eso, probablemente, solo fue el inicio. Cualquier persona con habilidades básicas de programación ya puede desarrollar un software de reconocimiento facial, lo que significa que hay más posibilidades que nunca de abusar de esta tecnología para casi todo, desde el acoso sexual y la discriminación racial hasta la opresión política y la persecución religiosa.’Envenenar’ los datos no es algo nuevo. Eliminar los que las empresas tienen sobre nosotros o contaminar los conjuntos con ejemplos falsos puede dificultar que las empresas entrenen sus modelos tan precisos de aprendizaje automático. Pero estos esfuerzos generalmente requieren una acción colectiva, con la participación de cientos o miles de personas, para conseguir un impacto. La diferencia con estas nuevas técnicas es que funcionan con las fotos de una sola persona.

La mayoría de las herramientas, incluida Fawkes, tienen el mismo enfoque básico. Realizan pequeños cambios en una imagen que son difíciles de detectar con el ojo humano, pero confunden a una IA, lo que hace que el modelo identifique erróneamente a quién o qué ve en esa foto. Esta técnica es muy parecida a una especie de ataque antagónico, donde pequeñas alteraciones en los datos de entrada pueden obligar a los modelos de aprendizaje profundo a cometer grandes errores.

Wenger y sus colegas probaron su herramienta contra varios sistemas comerciales de reconocimiento facial ampliamente utilizados, incluidos AWS Rekognition de Amazon, Microsoft Azure y Face ++, desarrollado por la empresa china Megvii Technology. En un pequeño experimento con un conjunto de datos de 50 imágenes, Fawkes fue 100 % efectivo contra todos ellos y evitó que los modelos entrenados con imágenes modificadas de personas reconocieran más tarde los rostros de esas personas en otras imágenes nuevas. Las fotos de entrenamiento manipuladas habían impedido que las herramientas formaran una representación precisa de los rostros de esas personas.

La herramienta LowKey amplía el alcance de Fawkes, porque aplica alteraciones a las imágenes basadas en un tipo de ataque antagónico más fuerte, que también engaña a los modelos comerciales previamente entrenados. Al igual que Fawkes, LowKey también está disponible online.

Ma y sus colegas han añadido algo más. Su enfoque, que convierte las imágenes en lo que ellos llaman ejemplos que no se pueden aprender, hace que una IA ignore por completo esos selfis. Wenger afirma: «Creo que es genial. Fawkes entrena a un modelo para que aprenda algo equivocado, y esta herramienta entrena a un modelo a que no aprenda nada».

Más info: technologyreview

Esta entrada ha sido publicada en Privacidad y etiquetada como , , , . Guarda el enlace permanente.