CCC: Sabemos dónde está su coche


El Chaos Computer Club (CCC) revela que el Grupo Volkswagen registra sistemáticamente datos de movimientos de cientos de miles de vehículos VW, Audi, Skoda y Seat y los almacena durante largos periodos de tiempo. Los datos, incluida la información sobre los propietarios de los vehículos, también estaban accesibles sin protección en Internet.Los datos sobre movimientos permiten a Volkswagen conocer la vida privada cotidiana -y, en particular, la no cotidiana- de cientos de miles de propietarios de vehículos. Y no sólo afecta a particulares, sino también a administradores de flotas, miembros de consejos de administración y de supervisión de empresas del DAX, así como a diversas autoridades policiales de Europa. Por ejemplo, los datos de movimiento de 35 coches patrulla eléctricos pertenecientes a la policía de Hamburgo se registraron y almacenaron en la plataforma de VW para que terceras partes pudieran verlos.

También se registraron datos sensibles sobre actividades de los servicios secretos y militares: Se encontraron registros de datos del aparcamiento del Servicio Federal de Inteligencia alemán (BND) y de la base aérea de las Fuerzas Aéreas de Estados Unidos en Ramstein, entre otros.
La información recopilada por Cariad, filial de VW, contiene detalles precisos sobre el lugar y la hora en que se desconectó el contacto. Los datos sobre movimientos se vinculan a otros datos personales. Esto también permite sacar conclusiones sobre proveedores, prestadores de servicios, empleados u organizaciones de cobertura de las autoridades de seguridad.

«El problema es que estos datos se recopilaron en primer lugar y se almacenaron durante un periodo de tiempo tan largo. El hecho de que encima estuvieran mal protegidos no hace más que poner la guinda al pastel», afirma Linus Neumann, portavoz del Chaos Computer Club.

Fuente: CCC

Publicado en Hardware | Etiquetado , | Comentarios desactivados en CCC: Sabemos dónde está su coche

Apple realizó grabaciones a sus usuarios sin su consentimiento


El gigante tecnológico Apple, fabricante del iPhone y desarrollador del sistema MacOS, acaba de acordar pagar una indemnización de 95 millones como parte de un acuerdo para resolver una demanda colectiva que acusa a la compañía de violar la privacidad de los usuarios a través de grabaciones realizadas por su asistente de voz Siri sin permiso de los usuarios.A pesar del elevado monto del acuerdo, los 95 millones de dólares representan menos de un día de ganancias para Apple, que ha declarado ingresos netos de 93.740 millones en su último año fiscal. Sin embargo, podría suponer un costo reputacional de las prácticas de privacidad cuestionables en un mercado donde la confianza del consumidor es crucial.

La demanda surgió tras un informe de 2019 que reveló que Siri, el asistente de voz de Apple, podía activarse accidentalmente y grabar conversaciones privadas sin el conocimiento o consentimiento del usuario.

Según el informe, estas grabaciones involuntarias eran revisadas ocasionalmente por contratistas externos como parte de un ‘programa de control de calidad’. Inevitablemente, esto pudo exponer información confidencial, desde datos médicos hasta conversaciones privadas entre parejas.

Pero el ‘control de calidad’ no fue la única razón por la que se dio acceso a terceros a estas grabaciones involuntarias: la demanda menciona que los anunciantes también tuvieron acceso a algunas de ellas.

El acuerdo cubre a usuarios de dispositivos habilitados para Siri, como iPhones, iPads, Apple Watches y HomePods, adquiridos entre el 17 de septiembre de 2014 y el 31 de diciembre de 2024. Todos los que estén dentro de esta categoría (se estima que decenas de millones) podrán recibir hasta 20 dólares por dispositivo, aunque el monto final dependerá del número de reclamaciones presentadas y aceptadas.

Apple cambió su política en 2019. Por su parte, Google y Amazon también han sufrido críticas y demandas por el uso de grabaciones accidentales en sus propios asistentes de voz. De hecho, los mismos abogados que lideraron la demanda contra Apple están representando a usuarios en un caso paralelo contra Google en un tribunal federal de San José, California.

En el caso de Apple, la compañía negó haber cometido irregularidades, pero luego suspendió el programa de revisión manual en 2019 tras el escándalo (los demandantes también acusaron a Apple de no informar adecuadamente sobre el uso de grabaciones para control de calidad).

Posteriormente, lo convirtió en un sistema opcional: ahora, los usuarios deben otorgar permiso explícito para que sus grabaciones sean revisadas, y se les facilita eliminar registros de audio.

Fuente: Genbeta

Publicado en Apple | Etiquetado , , | Comentarios desactivados en Apple realizó grabaciones a sus usuarios sin su consentimiento

El peligro de los juguetes que se conectan a internet


Un estudio del Instituto Estatal de Ciberseguridad revela que solo el 57% de los juguetes conectados a internet son seguras y protegen bien los menores que las usan. Un 23% de los juguetes analizados tienen deficiencias que las hacen susceptibles de sufrir un ciberataque y poner en peligro los datos personales o la intimidad de los usuarios y por extensión de toda la familia.A pesar de que el estudio no da nombres ni menciona marcas concretas, se ha hecho sobre los juguetes conectados en internet más vendidos del mercado. El Instituto de Ciberseguridad recomienda cambiar las contraseñas predeterminadas, usar redes wifi de confianza y desconectar el Bluetooth. También evitar que los juguetes se conecten a otros aparatos de la casa y cuando se ha acabado de jugar, apagar el aparato y tapar la cámara si tiene.

El experto en ciberseguridad Bruno Pérez Juncà ha asegurado al Vía libre que estas cifras no lo impresionan en absoluto y recuerda que los juguetes que se conectan en la red pueden llegar a ser «muy peligrosas». Pérez Juncà ha remarcado que se convierten en «puntos vulnerables por los cuales pueden entrar en tu red y cogerte las credenciales del banco». A pesar de que pueden parecer «juguetes inofensivos, consiguen sacarte todo el dinero».

Este riesgo se encuentra, por ejemplo, en todo tipo de juguetes connectables a internet, que llevan incorporada una cámara o micrófono o las que necesitan una aplicación descargada al móvil para funcionar. Por eso, el experto en ciberseguridad ha dado algunas recomendaciones para intentar reducir el peligro. En primer lugar, en casa se puede tener una wifi normal, pero «es importante» activar una para invitados y conectar en esta red todos estos dispositivos. «Nunca hagas pasar estos juguetes por donde pasan tus datos», insiste Bruno Pérez Juncà.

Además, pide que, si para hacer funcionar el juguete te tienes que descargar una aplicación móvil, «en ningún caso lo hagas al mismo teléfono donde tenso la app del banco. Seguro que tienes una tableta vieja o un móvil que no utilizas», añade.

Bruno Pérez Juncà lamenta que a veces no se tomen suficientes precauciones para proteger los datos personales y en culpa la sociedad de la inmediatez que lo quiere todo rápido y fácil. Hace un llamamiento a empezar a controlar algo más dónde y cómo estamos compartiendo la información privada. «Ponemos nuestras criaturas en riesgo y, quizás, no hace falta. Nos lo tenemos que replantear», señala.

Fuente: Rac1 (en catalán)

Publicado en Privacidad | Etiquetado , , | Comentarios desactivados en El peligro de los juguetes que se conectan a internet

Cuanto más joven, mejor usuario


Este octubre, varios estados de Estados Unidos han interpuesto una demanda contra TikTok, empresa a la que acusan de enganchar de forma deliberada a los menores utilizando técnicas adictivas. La demanda imita la iniciada el año pasado contra Meta, propietaria de Facebook e Instagram, por perjudicar a sabiendas la salud mental de niños y adolescentes. La radio pública estadounidense NPR tuvo acceso a detalles reveladores gracias a comunicaciones internas de la empresa incluidas en la investigación. Por ejemplo, en TikTok saben que una persona suele tardar unos 260 vídeos (35 minutos) en formar un hábito, después del cual es muy probable engancharse. O que se tardan unos 30 minutos en perfilar a un usuario, asignándole una burbuja de filtro que puede ser peligrosa: en una prueba, uno de sus trabajadores tardó 20 minutos en caer en una espiral de contenidos nocivos sobre la depresión que, escribió, le afectaron en su vida fuera de la red.Un documento interno afirmaba que cuanto más joven es el usuario “mejor rendimiento” les proporciona, y otro, que “los menores no tienen función ejecutiva para controlar su tiempo de pantalla”. El algoritmo, dicen, está diseñado para favorecer a la gente guapa. Conocen también que el uso compulsivo de su aplicación es perjudicial y que “se relaciona con la pérdida de habilidades analíticas, formación de memorias, pensamiento contextual, profundidad conversacional, empatía y aumento de la ansiedad”, además de interferir de forma negativa con el sueño, las responsabilidades en el trabajo o la escuela y la conexión con los seres queridos.

Los hechos apuntan a una especie de incompetencia deliberada que favorece al negocio: las cuentas de menores no se eliminan diligentemente, los filtros de moderación tampoco funcionan bien y permiten encontrar contenidos teóricamente prohibidos, algunas medidas de control que no son eficaces se mantienen porque blanquean su reputación ante la prensa. Según NPR, las tasas de “error” en la moderación de contenidos sobre pedofilia son enormes, llegando al 100%, por ejemplo, en la categoría “fetichización de menores”. Un jefe de proyecto dijo en un chat una frase reveladora sobre su fin último: “Nuestro objetivo no es reducir el tiempo de estancia”.

Una cosa es sospechar que las redes son un problema para los más jóvenes, y otra, escuchar cómo y por qué. También este mes hemos visto en el programa de televisión Salvados a Arturo Béjar, exjefe de ingenieros en Meta y uno de los principales testigos de la causa en su contra, que tomó conciencia de la gravedad del abuso en la plataforma a través de su hija. “Es el acoso sexual más grande de la historia de la humanidad”, dijo, y acusó a sus directivos de no importarle en absoluto. El programa, en dos partes, incluyó también entrevistas con moderadoras de Meta en Barcelona que explicaron cómo habían llegado a desarrollar trastorno de estrés postraumático debido a su trabajo. No ahorraron detalles sobre las decapitaciones, mutilaciones y ejecuciones que veían a diario, tampoco sobre pederastia, asesinatos, violaciones, parricidios, atentados y suicidios en directo. Junto a una veintena de compañeros, han querellado a la subcontrata que les empleó, que también trabaja con TikTok. El abogado que les representa insistió durante la emisión en que los pormenores, que no me atrevo a reproducir aquí, eran necesarios para dar una idea de la dimensión de los hechos.

La negrura no solo afecta a los moderadores humanos. Según otro estudio interno filtrado de TikTok, vídeos de autolesiones fueron reproducidos 75.000 veces antes de llegar a ellos. En cuanto se hizo con la propiedad de X, Elon Musk desinvirtió en el control de contenidos, con resultados evidentes para unos usuarios que creían participar en una red más civilizada. Podríamos resumir todo lo anterior así: las redes desbordan violencia y no termina de ser contenida porque va contra el negocio; los menores son las principales víctimas; la sociedad que los sobreprotegió está descubriendo espantada que corren peligro en su propia habitación, cuando la puerta está cerrada y tienen el móvil en la mano.

Sigue leyendo

Publicado en Privacidad | Etiquetado , , , , | Comentarios desactivados en Cuanto más joven, mejor usuario

LinkedIn es multada con 310 millones de euros por violar la privacidad de los usuarios


La red social LinkedIn, paradigma de las plataformas online enfocadas en el mundo laboral, recibió una dura sanción en Europa. Según informa TechCrunch, el dueño de ese servicio, Microsoft, deberá pagar una multa de 310 millones de euros por violaciones a la privacidad de los usuarios, derivadas de su negocio de anuncios.El castigo fue impuesto por la Comisión de Protección de Datos de Irlanda (DPC). Este organismo concluyó que las infracciones de la red social al Reglamento General de Protección de Datos que rige en la Unión Europea. De acuerdo a la fuente, el regulador encontró una serie de violaciones a esa normativa en las actividades de LinkedIn.
Según la DPC, la red social no informó adecuadamente acerca de cómo emplea la información para su negocio de anuncios en línea. En ese orden, el organismo irlandés notó la invalidez de las justificaciones de Microsoft para dicho seguimiento; anteriormente, la compañía estadounidense invocó artilugios legales basados en el supuesto consentimiento de los usuarios.

En concreto, el escrutinio sobre LinkedIn apunta a cómo rastrea datos y los usa para dirigir anuncios en su plataforma.

“La legalidad del procesamiento (de datos personales) es un aspecto fundamental de la ley y su empleo sin una base legal adecuada es una violación clara y grave del derecho fundamental”, señaló en un comunicado Graham Doyle, comisionado adjunto de la DPC.

El caso contra LinkedIn comenzó con una denuncia en Francia, en el año 2018, presentada por organización sin fines de lucro de derechos digitales, La Quadrature Du Net. La autoridad de protección de datos del país galo trasladó la denuncia a la DPC, que recién inició su investigación casi seis años después, a mediados de 2024.

Además de la multa, la DPC otorgó tres meses a LinkedIn para que sus operaciones en territorio europea se ajusten al RGPD.

La respuesta de LinkedIn luego de la sanción en Europa ha sido:
“Hoy, la Comisión Irlandesa de Protección de Datos ha llegado a una decisión final sobre las reclamaciones de 2018 sobre algunos de nuestros esfuerzos de publicidad digital en la Unión Europa. Si bien creemos que hemos cumplido con el Reglamento General de Protección de Datos, estamos trabajando para garantizar que nuestras prácticas publicitarias cumplan con esta decisión antes de la fecha límite de la DPC”, dijo un voceru de LinkedIn.

Fuente: Tecno

Publicado en Microsoft | Etiquetado , , | Comentarios desactivados en LinkedIn es multada con 310 millones de euros por violar la privacidad de los usuarios

X entregará tus datos a terceros para entrenar modelos de IA


La política de privacidad de X (antes Twitter) se ha actualizado con un nuevo apartado que le permite a la red social proporcionar los datos de los usuarios a “colaboradores externos” para entrenar modelos de inteligencia artificial (IA). Con esta modificación, la plataforma de Elon Musk está en condiciones de cerrar acuerdos similares al que Reddit firmó con OpenAI para licenciar el uso del contenido que se hospeda en el sitio web.El cambio fue comunicado a través de una entrada de blog. La publicación indica que los nuevos lineamientos entrarán en vigor el próximo 15 de noviembre. En concreto señala que “se ha agregado texto a la Política de privacidad para aclarar cómo podemos usar la información que usted comparte para entrenar modelos de inteligencia artificial, generativos o de otro tipo”.

La adición se ha titulado “Colaboradores externos”. El texto indica que “dependiendo de su configuración [de cuenta], o si decide compartir sus datos, podemos compartir o divulgar su información con terceros. Los destinatarios de la información pueden utilizarla para sus propios fines independientes además de los establecidos en la Política de privacidad de X, incluido, por ejemplo, para entrenar sus modelos de inteligencia artificial”.

La normativa no especifica cuáles son los mecanismos que la plataforma ofrece para que los usuarios puedan desactivar el uso compartido de datos. La sección de Privacidad y seguridad ofrece una opción para evitar que Grok, el asistente de la red social, y los socios comerciales de la empresa utilicen el contenido. No obstante, la política de uso de la plataforma describe a estos últimos como empresas con las que X trabaja para ejecutar y mejorar sus productos de IA. La definición no abarca a otros proveedores o desarrolladores de esta tecnología que podrían comprar licencias para acceder y aprovechar la información.

La compañía también ha ajustado el período de almacenamiento de los datos de sus suscriptores. Ha eliminado un párrafo que decía que “la información del perfil y el contenido del usuario se conservará durante la duración de su cuenta. Los registros de identificación personal que recopilamos cuando utiliza nuestros productos y servicios se preservará durante un máximo de 18 meses”.

La aclaratoria ha sido sustituida por una que dicta que X mantendrá “diferentes tipos de información durante distintos períodos de tiempo, según el tiempo que necesitemos para proporcionarle nuestros productos y servicios, para cumplir con nuestros requisitos legales y por razones de seguridad”.

El servicio social media recuerda que “el contenido público puede existir en otros lugares incluso después de que se elimine de X. Por ejemplo, los motores de búsqueda y otros terceros pueden conservar copias de tus publicaciones durante más tiempo, según sus propias políticas de privacidad”.

Por otra parte, X está añadiendo a sus Condiciones de Servicio una nueva sección de “Daños y perjuicios”. En ella, advierte que cualquier organización que solicite, visualice o acceda “a más de 1 millón de publicaciones (incluidas las respuestas comentarios, vídeo, imágenes y cualquier otro tipo de publicaciones) en un período de 24 horas” enfrentará una penalización económica de 15,00 dólares por cada millón de posts rastreados.

Las enmiendas en las condiciones de uso y políticas de privacidad de X han sido leídas por el sector como un primer paso para establecer una nueva fuente de ingresos. Los expertos no descartan la futura comercialización de los contenidos generados por los usuarios ante la escasez de data para entrenar a los modelos de IA. El movimiento es parte de una tendencia que se ha generalizado en la industria tech. Las autoridades de protección de datos de diferentes mercados han advertido sobre los riesgos que esto supone.

Fuente: The wired

Publicado en Twitter | Etiquetado , , , | Comentarios desactivados en X entregará tus datos a terceros para entrenar modelos de IA

Tu SmartTV te vigila: el impune ACR (Reconocimiento Automático de Contenido)


Anteriormente, los investigadores se han centrado en la privacidad dentro de las aplicaciones de estos televisores, pero no han explorado el «tracking de second-party» que realiza directamente la plataforma del Smart TV. Este seguimiento, llamado Reconocimiento Automático de Contenido (ACR), permite crear perfiles de los hábitos de visualización de los usuarios. A diferencia del seguimiento online y móvil, que usualmente se implementa por librerías de terceros, ACR está integrado directamente en el sistema operativo del Smart TV.ACR funciona capturando periódicamente la imagen de la pantalla y comparándola con una biblioteca de contenido para detectar qué se está viendo. Es similar a Shazam pero para audio y video. A partir de esta info, crea una huella digital del contenido y la comparte con un servidor para compararla con una base de datos. Si coincide, el servidor puede determinar qué contenido se está viendo. Esto permite a plataformas como Samsung y LG crear perfiles de audiencia para anuncios personalizados. Las huellas digitales son básicamente un hash del contenido, que se compara en el servidor para identificar el contenido.

Todos los fabricantes de Smart TV importantes, como Samsung y LG, utilizan ACR. Esta tecnología ha generado debate público y regulación. Por ejemplo, la FTC demandó a Vizio e Inscape en 2017 por usar ACR sin consentimiento del usuario.

A pesar de la existencia y extensión de ACR, no ha habido estudios detallados sobre su funcionamiento. Investigar directamente el código del Smart TV es complejo, por lo que un grupo de investigadores de varias universidades han publicado un interesante paper donde describen cómo analizaron el tráfico de red entre el televisor y los servidores de ACR para las plataformas Samsung y LG.

  • ¿Funciona independientemente de cómo se use el televisor? Se comparó el seguimiento al ver televisión lineal (ej. via antena), streaming, usar HDMI, etc. Se encontró que ACR funciona al ver televisión lineal y usar HDMI como pantalla externa, pero no al ver contenido de aplicaciones como Netflix o YouTube.
  • ¿Los controles de privacidad afectan el seguimiento? Se comparó el tráfico de red antes y después de activar las opciones de privacidad. Se encontró que desactivar el seguimiento de ACR lo detiene, pero el estado de inicio de sesión no afecta el tráfico.
  • ¿Hay diferencias entre países? Se analizó el comportamiento de televisores en Reino Unido y Estados Unidos. Ambos países tienen leyes de privacidad diferentes y transferir datos entre ellos está regulado. Se encontró que los televisores contactan con dominios ACR distintos y que en Estados Unidos, ACR funciona incluso al ver contenido de la app del propio Smart TV (a diferencia del Reino Unido).

¿Preocupado? Pues decirte que, desafortunadamente, no hay una forma sencilla y directa para que un usuario promedio verifique si el ACR (Reconocimiento Automático de Contenido) está activado en su televisor. Esto se debe a que el ACR suele funcionar en segundo plano y no tiene una interfaz de usuario visible que permita su activación o desactivación de manera explícita.

Sigue leyendo

Publicado en General | Etiquetado , , , | Comentarios desactivados en Tu SmartTV te vigila: el impune ACR (Reconocimiento Automático de Contenido)

Solo hacen falta 35 minutos para engancharse a TikTok


Los documentos internos de la red social son estremecedores.Que las redes sociales tienen algoritmos para que sigamos haciendo scroll y consumiendo su contenido no es un secreto, pero es difícil encontrar documentación tan específica sobre ello como los documentos internos de TikTok, a los que ha podido acceder la radio pública estadounidense de Kentucky. En ella puede leerse que solo hacen falta 260 vídeos, aproximadamente 35 minutos, en engancharse a la red social. Es solo una de las muchas conclusiones.

Esta documentación procede de la demanda colectiva que están llevando a cabo 14 fiscales generales de Estados Unidos que han llevado a juicio a TikTok por su influencia en el deterioro de la salud mental de los más jóvenes. En el país norteamericano se estima un uso de esta red social del 97% de personas por debajo de los 17 años. En este sentido, sus efectos no son desconocidos para la Gen Z: casi la mitad de los jóvenes encuestados en EE.UU desearía que nunca hubiera existido.

El fiscal general de California Rob Bonta ha declarado que ‘TikTok ha manipulado y lastimado intencional y deliberadamente a jóvenes a través de su plataforma’ y como puede leerse en esta documentación tan extensa como devastadora, queda constancia de su conocimiento de sus efectos entre la población joven ya que cuanto más joven sea alguien, mejor es el rendimiento porque: ‘Los menores no tienen función ejecutiva para controlar su tiempo de pantalla’.

Según esta documentación, tampoco tienen demasiado interés en eliminar cuentas de menores. A los moderadores se les pedía, según ha observado NPR en los documentos, actuar con precaución antes de eliminar cuentas sospechosas de ser de menores de 13 años. Hay detalles más escabrosos como que cuando se volvió viral un trend donde menores de edad hacía streapteases en directo, los adultos enviaron un millón de ‘regalos’.

Respecto al control del contenido, la documentación arroja que son conocedores de que sus filtros de moderación no funcionan bien, provocando que contenido prohibido siga presente y además pueda encontrarse aunque no aparezca en el feed. Asimismo, la moderación de contenidos tienen una tasa de error alta y aunque saben que pueden mejorar en esto, serían necesario aportar más recursos. Pero es que además el informe describe que TikTok ha limitado sus medidas preventivas porque temen una caída de usuarios. Después de todo, ‘Nuestro objetivo no es reducir el tiempo de estancia’, recoge el documento.

Con esos 260 vídeos la plataforma conseguiría adherencia, pero le bastan 30 minutos para trazar tu perfil y asignarte una burbuja de filtro. Como en otras plataformas como en Tinder basadas en la imagen, uno de sus secretos está en amplificar a la gente guapa.

Nuestros compañeros de Xataka se han puesto en contacto con TikTok para obtener su punto de vista sobre el asunto, y esta es su posición:

«Es sumamente irresponsable por parte de NPR publicar información que se encuentra bajo secreto de sumario. Lamentablemente, esta denuncia selecciona cuidadosamente citas engañosas y saca de contexto documentos obsoletos para tergiversar nuestro compromiso con la seguridad de la comunidad. Contamos con sólidas medidas de seguridad, que incluyen la eliminación proactiva de cuentas de usuarios, sospechosas de pertenecer a menores de edad, y hemos lanzado voluntariamente funciones de seguridad como límites de tiempo de pantalla que están activos por defecto, herramientas de sincronización familiar, y límites de privacidad activados por defecto, para menores de 16 años».

Fuente: genbeta.com

Publicado en General | Etiquetado , , | Comentarios desactivados en Solo hacen falta 35 minutos para engancharse a TikTok

Los inseguros robots aspiradores Deebot recopilan fotos y audio para entrenar a la IA


Los robots aspiradores Ecovacs, que presentan graves fallos de ciberseguridad, están recopilando fotos, vídeos y grabaciones de voz -tomadas dentro de las casas de los clientes- para entrenar los modelos de inteligencia artificial de la empresa.
La empresa china de robótica doméstica, que vende una gama de populares modelos Deebot en Australia, dijo que sus usuarios están «participando voluntariamente» en un programa de mejora del producto.Cuando los usuarios optan por participar en este programa a través de la aplicación para teléfonos inteligentes de Ecovacs, no se les explica qué datos se recopilarán, solo que «nos ayudarán a reforzar la mejora de las funciones del producto y la calidad adjunta».
Se indica a los usuarios que pulsen «arriba» para leer los detalles, pero no hay ningún enlace disponible en esa página.

La política de privacidad de Ecovacs -disponible en otra parte de la aplicación- permite la recopilación general de datos de los usuarios con fines de investigación, entre otros:

  • El mapa 2D o 3D de la casa del usuario generado por el dispositivo
  • Grabaciones de voz del micrófono del dispositivo
  • Fotos o vídeos grabados por la cámara del dispositivo

También se indica que las grabaciones de voz, los vídeos y las fotos que se borren a través de la aplicación podrán seguir siendo conservados y utilizados por Ecovacs.
Un portavoz de Ecovacs confirmó que la empresa utiliza los datos recopilados como parte de su programa de mejora de productos para entrenar sus modelos de IA.

El investigador en ciberseguridad Dennis Giese informó de los problemas a la empresa el año pasado, tras descubrir una serie de errores básicos que ponían en peligro la privacidad de los clientes de Ecovacs. «Si sus robots están así de rotos, ¿cómo es su [servidor] back-end?». «Incluso si la empresa no es maliciosa, podría ser víctima de espionaje corporativo o de agentes del Estado».

Ecovacs, valorada en 4.600 millones de dólares, afirmó que está «explorando de forma proactiva métodos de prueba más exhaustivos» y se comprometió a solucionar los problemas de seguridad de su robot aspirador estrella en noviembre.

Más info: abc.net.au (inglés)

Publicado en General | Etiquetado , , , , , | Comentarios desactivados en Los inseguros robots aspiradores Deebot recopilan fotos y audio para entrenar a la IA

Facebook manipuló 700.000 cuentas de sus usuarios para un experimento


Facebook manipuló en secreto las cuentas de cerca de 700.000 usuarios para estudiar el contagio emocional en el contexto de un estudio. Esta práctica ha enfurecido a los usuarios y ha planteado cuestiones éticas.Durante una semana (del 11 al 18 de enero de 2012), la popular red social y científicos de las universidades de Cornell y California en San Francisco, usaron los algoritmos del sitio para cambiar el contenido de la información recibida por un grupo de usuarios en inglés con el fin de estudiar el impacto en sus emociones. La investigación fue publicada en la revista Proceedings de la Academia Nacional de Ciencias de EEUU (PNAS) el pasado 17 de junio.
Los autores trataban de saber si el número de mensajes positivos o negativos leídos por los usuarios influyó en el contenido de lo que estaban publicando ellos mismos en el sitio. «Los estados emocionales son comunicativos y pueden propagarse por contagio, lo que lleva a otros a sentir las mismas emociones sin ser conscientes», escriben los autores de esta investigación. Según ellos, «estos resultados muestran la realidad del contagio emocional de masas a través de redes sociales».

Otras investigaciones han examinado este fenómeno, pero este estudio es único en el sentido de que sus autores han manipulado los datos, tal y como ellos mismos reconocen. Una investigación acorde con la política de Facebook También se encargaron de subrayar que la investigación fue «coherente con la política de uso de datos para todos los usuarios que tengan una cuenta de Facebook».
Su estudio, que inicialmente pasó desapercibido en los principales medios de EEUU, ha tenido una creciente respuesta después de varios artículos al respecto publicados este fin de semana en Slate y en los sitios web de las revistas The Atlantic y Forbes. «Es probablemente legal pero ¿es ético?» se preguntaba The Atlantic en su artículo.

Sigue leyendo

Publicado en General | Etiquetado , | Comentarios desactivados en Facebook manipuló 700.000 cuentas de sus usuarios para un experimento