Según cuenta en MIT Tech Review, las imágenes no fueron tomadas por una persona, sino por versiones de desarrollo del robot Roomba J7 de iRobot. Luego fueron enviados a Scale AI, una startup que contrata a trabajadores de todo el mundo para etiquetar datos de audio, fotos y vídeos utilizados para entrenar inteligencia artificial. Y de ahí, acabaron en cualquier sitio.Lógicamente, iRobot, recién comprada por Amazon, fue conocedora del problema, y en declaraciones al citado medio, confirmó que estas imágenes fueron capturadas por sus Roomba en 2020. No obstante, todas las imágenes fueron tomadas por “robots de desarrollo especiales con modificaciones de hardware y software que no están y nunca estuvieron presentes en los productos de consumo de iRobot para comprar”. El problema no estaba en el Robot en sí, sino en el factor humano que se encargaba de entrenar al algoritmo que ahora se emplea para sus aspiradoras inteligentes.
En total, MIT Tech Review ha conseguido 15 imágenes especialmente embarazosas y que atentan contra la intimidad. Pero en su presentación, la compañía confirmó que había entrenado a sus IA empleando más de 2 millones de imágenes con Scale AI y una cantidad desconocida más con otras plataformas de recolección de datos. No obstante, hay que tener en cuenta que no es que los robots tomasen imágenes sin consentimiento, puesto que los “protagonistas” de las imágenes estaban participando de forma activa en dichos programas de prueba.
No obstante, no estaba claro que un humano debiese revisar esas imágenes, sobre todo por una cuestión pura de privacidad. Y desde luego no sacarlas de su sitio. Por mucho que los participantes en los programas de desarrollo hayan aceptado participar en diversas pruebas.
Según iRobot esto no debería haberse producido nunca. Y la compañía ha puesto fin a su relación con el proveedor de servicios que filtró las imágenes, está investigando activamente el asunto y, según han confirmado al MIT Tech Review están tomando medidas para ayudar a prevenir una filtración similar por parte de cualquier proveedor de servicios en el futuro”.
Fuente: Blog elhacker