Cuanto más joven, mejor usuario


Este octubre, varios estados de Estados Unidos han interpuesto una demanda contra TikTok, empresa a la que acusan de enganchar de forma deliberada a los menores utilizando técnicas adictivas. La demanda imita la iniciada el año pasado contra Meta, propietaria de Facebook e Instagram, por perjudicar a sabiendas la salud mental de niños y adolescentes. La radio pública estadounidense NPR tuvo acceso a detalles reveladores gracias a comunicaciones internas de la empresa incluidas en la investigación. Por ejemplo, en TikTok saben que una persona suele tardar unos 260 vídeos (35 minutos) en formar un hábito, después del cual es muy probable engancharse. O que se tardan unos 30 minutos en perfilar a un usuario, asignándole una burbuja de filtro que puede ser peligrosa: en una prueba, uno de sus trabajadores tardó 20 minutos en caer en una espiral de contenidos nocivos sobre la depresión que, escribió, le afectaron en su vida fuera de la red.Un documento interno afirmaba que cuanto más joven es el usuario “mejor rendimiento” les proporciona, y otro, que “los menores no tienen función ejecutiva para controlar su tiempo de pantalla”. El algoritmo, dicen, está diseñado para favorecer a la gente guapa. Conocen también que el uso compulsivo de su aplicación es perjudicial y que “se relaciona con la pérdida de habilidades analíticas, formación de memorias, pensamiento contextual, profundidad conversacional, empatía y aumento de la ansiedad”, además de interferir de forma negativa con el sueño, las responsabilidades en el trabajo o la escuela y la conexión con los seres queridos.

Los hechos apuntan a una especie de incompetencia deliberada que favorece al negocio: las cuentas de menores no se eliminan diligentemente, los filtros de moderación tampoco funcionan bien y permiten encontrar contenidos teóricamente prohibidos, algunas medidas de control que no son eficaces se mantienen porque blanquean su reputación ante la prensa. Según NPR, las tasas de “error” en la moderación de contenidos sobre pedofilia son enormes, llegando al 100%, por ejemplo, en la categoría “fetichización de menores”. Un jefe de proyecto dijo en un chat una frase reveladora sobre su fin último: “Nuestro objetivo no es reducir el tiempo de estancia”.

Una cosa es sospechar que las redes son un problema para los más jóvenes, y otra, escuchar cómo y por qué. También este mes hemos visto en el programa de televisión Salvados a Arturo Béjar, exjefe de ingenieros en Meta y uno de los principales testigos de la causa en su contra, que tomó conciencia de la gravedad del abuso en la plataforma a través de su hija. “Es el acoso sexual más grande de la historia de la humanidad”, dijo, y acusó a sus directivos de no importarle en absoluto. El programa, en dos partes, incluyó también entrevistas con moderadoras de Meta en Barcelona que explicaron cómo habían llegado a desarrollar trastorno de estrés postraumático debido a su trabajo. No ahorraron detalles sobre las decapitaciones, mutilaciones y ejecuciones que veían a diario, tampoco sobre pederastia, asesinatos, violaciones, parricidios, atentados y suicidios en directo. Junto a una veintena de compañeros, han querellado a la subcontrata que les empleó, que también trabaja con TikTok. El abogado que les representa insistió durante la emisión en que los pormenores, que no me atrevo a reproducir aquí, eran necesarios para dar una idea de la dimensión de los hechos.

La negrura no solo afecta a los moderadores humanos. Según otro estudio interno filtrado de TikTok, vídeos de autolesiones fueron reproducidos 75.000 veces antes de llegar a ellos. En cuanto se hizo con la propiedad de X, Elon Musk desinvirtió en el control de contenidos, con resultados evidentes para unos usuarios que creían participar en una red más civilizada. Podríamos resumir todo lo anterior así: las redes desbordan violencia y no termina de ser contenida porque va contra el negocio; los menores son las principales víctimas; la sociedad que los sobreprotegió está descubriendo espantada que corren peligro en su propia habitación, cuando la puerta está cerrada y tienen el móvil en la mano.

Sigue leyendo

Publicado en Privacidad | Etiquetado , , , , | Comentarios desactivados en Cuanto más joven, mejor usuario

LinkedIn es multada con 310 millones de euros por violar la privacidad de los usuarios


La red social LinkedIn, paradigma de las plataformas online enfocadas en el mundo laboral, recibió una dura sanción en Europa. Según informa TechCrunch, el dueño de ese servicio, Microsoft, deberá pagar una multa de 310 millones de euros por violaciones a la privacidad de los usuarios, derivadas de su negocio de anuncios.El castigo fue impuesto por la Comisión de Protección de Datos de Irlanda (DPC). Este organismo concluyó que las infracciones de la red social al Reglamento General de Protección de Datos que rige en la Unión Europea. De acuerdo a la fuente, el regulador encontró una serie de violaciones a esa normativa en las actividades de LinkedIn.
Según la DPC, la red social no informó adecuadamente acerca de cómo emplea la información para su negocio de anuncios en línea. En ese orden, el organismo irlandés notó la invalidez de las justificaciones de Microsoft para dicho seguimiento; anteriormente, la compañía estadounidense invocó artilugios legales basados en el supuesto consentimiento de los usuarios.

En concreto, el escrutinio sobre LinkedIn apunta a cómo rastrea datos y los usa para dirigir anuncios en su plataforma.

“La legalidad del procesamiento (de datos personales) es un aspecto fundamental de la ley y su empleo sin una base legal adecuada es una violación clara y grave del derecho fundamental”, señaló en un comunicado Graham Doyle, comisionado adjunto de la DPC.

El caso contra LinkedIn comenzó con una denuncia en Francia, en el año 2018, presentada por organización sin fines de lucro de derechos digitales, La Quadrature Du Net. La autoridad de protección de datos del país galo trasladó la denuncia a la DPC, que recién inició su investigación casi seis años después, a mediados de 2024.

Además de la multa, la DPC otorgó tres meses a LinkedIn para que sus operaciones en territorio europea se ajusten al RGPD.

La respuesta de LinkedIn luego de la sanción en Europa ha sido:
“Hoy, la Comisión Irlandesa de Protección de Datos ha llegado a una decisión final sobre las reclamaciones de 2018 sobre algunos de nuestros esfuerzos de publicidad digital en la Unión Europa. Si bien creemos que hemos cumplido con el Reglamento General de Protección de Datos, estamos trabajando para garantizar que nuestras prácticas publicitarias cumplan con esta decisión antes de la fecha límite de la DPC”, dijo un voceru de LinkedIn.

Fuente: Tecno

Publicado en Microsoft | Etiquetado , , | Comentarios desactivados en LinkedIn es multada con 310 millones de euros por violar la privacidad de los usuarios

X entregará tus datos a terceros para entrenar modelos de IA


La política de privacidad de X (antes Twitter) se ha actualizado con un nuevo apartado que le permite a la red social proporcionar los datos de los usuarios a “colaboradores externos” para entrenar modelos de inteligencia artificial (IA). Con esta modificación, la plataforma de Elon Musk está en condiciones de cerrar acuerdos similares al que Reddit firmó con OpenAI para licenciar el uso del contenido que se hospeda en el sitio web.El cambio fue comunicado a través de una entrada de blog. La publicación indica que los nuevos lineamientos entrarán en vigor el próximo 15 de noviembre. En concreto señala que “se ha agregado texto a la Política de privacidad para aclarar cómo podemos usar la información que usted comparte para entrenar modelos de inteligencia artificial, generativos o de otro tipo”.

La adición se ha titulado “Colaboradores externos”. El texto indica que “dependiendo de su configuración [de cuenta], o si decide compartir sus datos, podemos compartir o divulgar su información con terceros. Los destinatarios de la información pueden utilizarla para sus propios fines independientes además de los establecidos en la Política de privacidad de X, incluido, por ejemplo, para entrenar sus modelos de inteligencia artificial”.

La normativa no especifica cuáles son los mecanismos que la plataforma ofrece para que los usuarios puedan desactivar el uso compartido de datos. La sección de Privacidad y seguridad ofrece una opción para evitar que Grok, el asistente de la red social, y los socios comerciales de la empresa utilicen el contenido. No obstante, la política de uso de la plataforma describe a estos últimos como empresas con las que X trabaja para ejecutar y mejorar sus productos de IA. La definición no abarca a otros proveedores o desarrolladores de esta tecnología que podrían comprar licencias para acceder y aprovechar la información.

La compañía también ha ajustado el período de almacenamiento de los datos de sus suscriptores. Ha eliminado un párrafo que decía que “la información del perfil y el contenido del usuario se conservará durante la duración de su cuenta. Los registros de identificación personal que recopilamos cuando utiliza nuestros productos y servicios se preservará durante un máximo de 18 meses”.

La aclaratoria ha sido sustituida por una que dicta que X mantendrá “diferentes tipos de información durante distintos períodos de tiempo, según el tiempo que necesitemos para proporcionarle nuestros productos y servicios, para cumplir con nuestros requisitos legales y por razones de seguridad”.

El servicio social media recuerda que “el contenido público puede existir en otros lugares incluso después de que se elimine de X. Por ejemplo, los motores de búsqueda y otros terceros pueden conservar copias de tus publicaciones durante más tiempo, según sus propias políticas de privacidad”.

Por otra parte, X está añadiendo a sus Condiciones de Servicio una nueva sección de “Daños y perjuicios”. En ella, advierte que cualquier organización que solicite, visualice o acceda “a más de 1 millón de publicaciones (incluidas las respuestas comentarios, vídeo, imágenes y cualquier otro tipo de publicaciones) en un período de 24 horas” enfrentará una penalización económica de 15,00 dólares por cada millón de posts rastreados.

Las enmiendas en las condiciones de uso y políticas de privacidad de X han sido leídas por el sector como un primer paso para establecer una nueva fuente de ingresos. Los expertos no descartan la futura comercialización de los contenidos generados por los usuarios ante la escasez de data para entrenar a los modelos de IA. El movimiento es parte de una tendencia que se ha generalizado en la industria tech. Las autoridades de protección de datos de diferentes mercados han advertido sobre los riesgos que esto supone.

Fuente: The wired

Publicado en Twitter | Etiquetado , , , | Comentarios desactivados en X entregará tus datos a terceros para entrenar modelos de IA

Tu SmartTV te vigila: el impune ACR (Reconocimiento Automático de Contenido)


Anteriormente, los investigadores se han centrado en la privacidad dentro de las aplicaciones de estos televisores, pero no han explorado el «tracking de second-party» que realiza directamente la plataforma del Smart TV. Este seguimiento, llamado Reconocimiento Automático de Contenido (ACR), permite crear perfiles de los hábitos de visualización de los usuarios. A diferencia del seguimiento online y móvil, que usualmente se implementa por librerías de terceros, ACR está integrado directamente en el sistema operativo del Smart TV.ACR funciona capturando periódicamente la imagen de la pantalla y comparándola con una biblioteca de contenido para detectar qué se está viendo. Es similar a Shazam pero para audio y video. A partir de esta info, crea una huella digital del contenido y la comparte con un servidor para compararla con una base de datos. Si coincide, el servidor puede determinar qué contenido se está viendo. Esto permite a plataformas como Samsung y LG crear perfiles de audiencia para anuncios personalizados. Las huellas digitales son básicamente un hash del contenido, que se compara en el servidor para identificar el contenido.

Todos los fabricantes de Smart TV importantes, como Samsung y LG, utilizan ACR. Esta tecnología ha generado debate público y regulación. Por ejemplo, la FTC demandó a Vizio e Inscape en 2017 por usar ACR sin consentimiento del usuario.

A pesar de la existencia y extensión de ACR, no ha habido estudios detallados sobre su funcionamiento. Investigar directamente el código del Smart TV es complejo, por lo que un grupo de investigadores de varias universidades han publicado un interesante paper donde describen cómo analizaron el tráfico de red entre el televisor y los servidores de ACR para las plataformas Samsung y LG.

  • ¿Funciona independientemente de cómo se use el televisor? Se comparó el seguimiento al ver televisión lineal (ej. via antena), streaming, usar HDMI, etc. Se encontró que ACR funciona al ver televisión lineal y usar HDMI como pantalla externa, pero no al ver contenido de aplicaciones como Netflix o YouTube.
  • ¿Los controles de privacidad afectan el seguimiento? Se comparó el tráfico de red antes y después de activar las opciones de privacidad. Se encontró que desactivar el seguimiento de ACR lo detiene, pero el estado de inicio de sesión no afecta el tráfico.
  • ¿Hay diferencias entre países? Se analizó el comportamiento de televisores en Reino Unido y Estados Unidos. Ambos países tienen leyes de privacidad diferentes y transferir datos entre ellos está regulado. Se encontró que los televisores contactan con dominios ACR distintos y que en Estados Unidos, ACR funciona incluso al ver contenido de la app del propio Smart TV (a diferencia del Reino Unido).

¿Preocupado? Pues decirte que, desafortunadamente, no hay una forma sencilla y directa para que un usuario promedio verifique si el ACR (Reconocimiento Automático de Contenido) está activado en su televisor. Esto se debe a que el ACR suele funcionar en segundo plano y no tiene una interfaz de usuario visible que permita su activación o desactivación de manera explícita.

Sigue leyendo

Publicado en General | Etiquetado , , , | Comentarios desactivados en Tu SmartTV te vigila: el impune ACR (Reconocimiento Automático de Contenido)

Solo hacen falta 35 minutos para engancharse a TikTok


Los documentos internos de la red social son estremecedores.Que las redes sociales tienen algoritmos para que sigamos haciendo scroll y consumiendo su contenido no es un secreto, pero es difícil encontrar documentación tan específica sobre ello como los documentos internos de TikTok, a los que ha podido acceder la radio pública estadounidense de Kentucky. En ella puede leerse que solo hacen falta 260 vídeos, aproximadamente 35 minutos, en engancharse a la red social. Es solo una de las muchas conclusiones.

Esta documentación procede de la demanda colectiva que están llevando a cabo 14 fiscales generales de Estados Unidos que han llevado a juicio a TikTok por su influencia en el deterioro de la salud mental de los más jóvenes. En el país norteamericano se estima un uso de esta red social del 97% de personas por debajo de los 17 años. En este sentido, sus efectos no son desconocidos para la Gen Z: casi la mitad de los jóvenes encuestados en EE.UU desearía que nunca hubiera existido.

El fiscal general de California Rob Bonta ha declarado que ‘TikTok ha manipulado y lastimado intencional y deliberadamente a jóvenes a través de su plataforma’ y como puede leerse en esta documentación tan extensa como devastadora, queda constancia de su conocimiento de sus efectos entre la población joven ya que cuanto más joven sea alguien, mejor es el rendimiento porque: ‘Los menores no tienen función ejecutiva para controlar su tiempo de pantalla’.

Según esta documentación, tampoco tienen demasiado interés en eliminar cuentas de menores. A los moderadores se les pedía, según ha observado NPR en los documentos, actuar con precaución antes de eliminar cuentas sospechosas de ser de menores de 13 años. Hay detalles más escabrosos como que cuando se volvió viral un trend donde menores de edad hacía streapteases en directo, los adultos enviaron un millón de ‘regalos’.

Respecto al control del contenido, la documentación arroja que son conocedores de que sus filtros de moderación no funcionan bien, provocando que contenido prohibido siga presente y además pueda encontrarse aunque no aparezca en el feed. Asimismo, la moderación de contenidos tienen una tasa de error alta y aunque saben que pueden mejorar en esto, serían necesario aportar más recursos. Pero es que además el informe describe que TikTok ha limitado sus medidas preventivas porque temen una caída de usuarios. Después de todo, ‘Nuestro objetivo no es reducir el tiempo de estancia’, recoge el documento.

Con esos 260 vídeos la plataforma conseguiría adherencia, pero le bastan 30 minutos para trazar tu perfil y asignarte una burbuja de filtro. Como en otras plataformas como en Tinder basadas en la imagen, uno de sus secretos está en amplificar a la gente guapa.

Nuestros compañeros de Xataka se han puesto en contacto con TikTok para obtener su punto de vista sobre el asunto, y esta es su posición:

«Es sumamente irresponsable por parte de NPR publicar información que se encuentra bajo secreto de sumario. Lamentablemente, esta denuncia selecciona cuidadosamente citas engañosas y saca de contexto documentos obsoletos para tergiversar nuestro compromiso con la seguridad de la comunidad. Contamos con sólidas medidas de seguridad, que incluyen la eliminación proactiva de cuentas de usuarios, sospechosas de pertenecer a menores de edad, y hemos lanzado voluntariamente funciones de seguridad como límites de tiempo de pantalla que están activos por defecto, herramientas de sincronización familiar, y límites de privacidad activados por defecto, para menores de 16 años».

Fuente: genbeta.com

Publicado en General | Etiquetado , , | Comentarios desactivados en Solo hacen falta 35 minutos para engancharse a TikTok

Los inseguros robots aspiradores Deebot recopilan fotos y audio para entrenar a la IA


Los robots aspiradores Ecovacs, que presentan graves fallos de ciberseguridad, están recopilando fotos, vídeos y grabaciones de voz -tomadas dentro de las casas de los clientes- para entrenar los modelos de inteligencia artificial de la empresa.
La empresa china de robótica doméstica, que vende una gama de populares modelos Deebot en Australia, dijo que sus usuarios están «participando voluntariamente» en un programa de mejora del producto.Cuando los usuarios optan por participar en este programa a través de la aplicación para teléfonos inteligentes de Ecovacs, no se les explica qué datos se recopilarán, solo que «nos ayudarán a reforzar la mejora de las funciones del producto y la calidad adjunta».
Se indica a los usuarios que pulsen «arriba» para leer los detalles, pero no hay ningún enlace disponible en esa página.

La política de privacidad de Ecovacs -disponible en otra parte de la aplicación- permite la recopilación general de datos de los usuarios con fines de investigación, entre otros:

  • El mapa 2D o 3D de la casa del usuario generado por el dispositivo
  • Grabaciones de voz del micrófono del dispositivo
  • Fotos o vídeos grabados por la cámara del dispositivo

También se indica que las grabaciones de voz, los vídeos y las fotos que se borren a través de la aplicación podrán seguir siendo conservados y utilizados por Ecovacs.
Un portavoz de Ecovacs confirmó que la empresa utiliza los datos recopilados como parte de su programa de mejora de productos para entrenar sus modelos de IA.

El investigador en ciberseguridad Dennis Giese informó de los problemas a la empresa el año pasado, tras descubrir una serie de errores básicos que ponían en peligro la privacidad de los clientes de Ecovacs. «Si sus robots están así de rotos, ¿cómo es su [servidor] back-end?». «Incluso si la empresa no es maliciosa, podría ser víctima de espionaje corporativo o de agentes del Estado».

Ecovacs, valorada en 4.600 millones de dólares, afirmó que está «explorando de forma proactiva métodos de prueba más exhaustivos» y se comprometió a solucionar los problemas de seguridad de su robot aspirador estrella en noviembre.

Más info: abc.net.au (inglés)

Publicado en General | Etiquetado , , , , , | Comentarios desactivados en Los inseguros robots aspiradores Deebot recopilan fotos y audio para entrenar a la IA

Facebook manipuló 700.000 cuentas de sus usuarios para un experimento


Facebook manipuló en secreto las cuentas de cerca de 700.000 usuarios para estudiar el contagio emocional en el contexto de un estudio. Esta práctica ha enfurecido a los usuarios y ha planteado cuestiones éticas.Durante una semana (del 11 al 18 de enero de 2012), la popular red social y científicos de las universidades de Cornell y California en San Francisco, usaron los algoritmos del sitio para cambiar el contenido de la información recibida por un grupo de usuarios en inglés con el fin de estudiar el impacto en sus emociones. La investigación fue publicada en la revista Proceedings de la Academia Nacional de Ciencias de EEUU (PNAS) el pasado 17 de junio.
Los autores trataban de saber si el número de mensajes positivos o negativos leídos por los usuarios influyó en el contenido de lo que estaban publicando ellos mismos en el sitio. «Los estados emocionales son comunicativos y pueden propagarse por contagio, lo que lleva a otros a sentir las mismas emociones sin ser conscientes», escriben los autores de esta investigación. Según ellos, «estos resultados muestran la realidad del contagio emocional de masas a través de redes sociales».

Otras investigaciones han examinado este fenómeno, pero este estudio es único en el sentido de que sus autores han manipulado los datos, tal y como ellos mismos reconocen. Una investigación acorde con la política de Facebook También se encargaron de subrayar que la investigación fue «coherente con la política de uso de datos para todos los usuarios que tengan una cuenta de Facebook».
Su estudio, que inicialmente pasó desapercibido en los principales medios de EEUU, ha tenido una creciente respuesta después de varios artículos al respecto publicados este fin de semana en Slate y en los sitios web de las revistas The Atlantic y Forbes. «Es probablemente legal pero ¿es ético?» se preguntaba The Atlantic en su artículo.

Sigue leyendo

Publicado en General | Etiquetado , | Comentarios desactivados en Facebook manipuló 700.000 cuentas de sus usuarios para un experimento

Así te rastrea facebook cuando navegas


Nuestra información vale dinero. Esa es una realidad. Saber qué programas usamos, cuáles son nuestros gustos, dónde vivimos… Todo eso sirve para que nos envíen publicidad personalizada, por ejemplo. Y queramos o no, siempre dejamos rastro en Internet cuando entramos en una página web o usamos cualquier red social.Facebook usa esta información de los usuarios para personalizar el contenido y también mostrar anuncios publicitarios que puedan tener más relevancia. Por ejemplo, si sabe que haces deporte, que te gusta montar en bici, posiblemente te muestre publicidad relacionada con el ciclismo, tiendas para comprar cascos, etc.
Uno de los métodos que tiene para rastrearnos es por medio de píxeles. Un simple píxel puede recopilar información sobre qué sitios visitamos, por ejemplo. Y ojo, esto puede hacerlo incluso sin tener cuenta de Facebook. Esto puede pasar, por ejemplo, con los típicos botones de la red social que hay en muchas páginas para dar Like.El caso de Facebook no es único, ya que son muchos los servicios de Internet que pueden recopilar datos personales igualmente. Pueden usarlos para saber más sobre los usuarios, crear perfiles para campañas publicitarias o incluso venderlo a terceros y obtener así beneficio económico.Desde Mozilla han planteado un estudio para recopilar información sobre todo esto que mencionamos. Quieren saber más sobre cómo consigue los datos Facebook, qué puede hacer con ellos, etc. Para ello ha lanzado lo que ha denominado como Facebook Pixel Hunt. Busca voluntarios que quieran apuntarse.

El objetivo es aprender más sobre los datos enviados a través de los píxeles de Facebook mientras navegamos. También saber cuáles son las URL de esas páginas o el tiempo que los usuarios pasan en un sitio web.

Sigue leyendo

Publicado en General | Etiquetado , | Comentarios desactivados en Así te rastrea facebook cuando navegas

Meta alimentó su IA con casi todo lo que has publicado públicamente desde 2007


Meta ha reconocido que todos los textos y fotos que los usuarios adultos de Facebook e Instagram han publicado públicamente desde 2007 han sido incorporados a sus modelos de inteligencia artificial. La cadena australiana ABC News informa de que la directora de privacidad global de Meta, Melinda Claybaugh, rechazó inicialmente las afirmaciones sobre el uso de datos de usuarios de 2007 para el entrenamiento de IA durante una investigación del gobierno local sobre la adopción de IA, antes de ceder tras un interrogatorio adicional.“La verdad del asunto es que, a menos que hayas configurado conscientemente esas publicaciones como privadas desde 2007, Meta acaba de decidir que eliminarás todas las fotos y todos los textos de todas las publicaciones públicas en Instagram o Facebook desde 2007, a menos que haya habido una decisión consciente de configurarlas como privadas”, insistió el senador del Partido Verde David Shoebridge en la investigación. “Esa es la realidad, ¿no?”

“Correcto”, respondió Claybaugh.

El centro de privacidad y las publicaciones del blog de Meta reconocen haber recopilado publicaciones y comentarios públicos de Facebook e Instagram para entrenar a la IA generativa:

Utilizamos publicaciones y comentarios públicos en Facebook e Instagram para entrenar modelos de IA generativos para estas funciones y para la comunidad de código abierto.
No utilizamos publicaciones o comentarios con una audiencia distinta a la Pública para estos fines.

Pero la empresa no ha dado detalles sobre cómo se utilizan los datos, cuándo empezó a recopilarlos y hasta dónde se remonta su recopilación. Cuando The New York Times le preguntó en junio, Meta no respondió, excepto para confirmar que configurar las publicaciones como algo que no sea «público» evitará el rastreo futuro . Eso todavía no eliminará los datos que ya se han recopilado, y las personas que publicaron en 2007 (que pueden haber sido menores en ese momento) no habrían sabido que sus fotos y publicaciones se usarían de esta manera.

Claybaugh dijo que Meta no recopila datos de usuarios menores de 18 años. Cuando el senador del Partido Laborista Tony Sheldon preguntó si Meta recopilaría las fotos públicas de sus hijos en su propia cuenta, Claybaugh confirmó que lo haría y no pudo aclarar si la empresa también recopilaba datos de cuentas de adultos creadas cuando el usuario aún era un niño.

Los usuarios europeos pueden optar por no participar debido a las regulaciones de privacidad locales , y recientemente se le prohibió a Meta usar datos personales brasileños para el entrenamiento de IA, pero los miles de millones de usuarios de Facebook e Instagram en otras regiones no pueden optar por no participar si quieren mantener sus publicaciones públicas. Claybaugh no pudo decir si a los usuarios australianos (o a cualquier otra persona) se les daría la opción de optar por no participar en el futuro, argumentando que la opción se les dio a los usuarios europeos debido a la incertidumbre con respecto a su panorama regulatorio .

“Meta dejó en claro hoy que si Australia hubiera tenido estas mismas leyes, los datos de los australianos también habrían estado protegidos”, dijo Shoebridge a ABC News. “El fracaso del gobierno a la hora de actuar en materia de privacidad significa que empresas como Meta siguen monetizando y explotando imágenes y vídeos de niños en Facebook”.

Fuente: The Verge

Publicado en Meta | Etiquetado , , | Comentarios desactivados en Meta alimentó su IA con casi todo lo que has publicado públicamente desde 2007

Ford crea un sistema para escuchar las conversaciones de los vehículos y poner anuncios personalizados


Ford está desarrollando una tecnología que permitiría reproducir anuncios personalizados en los vehículos a través de la pantalla o su sistema de audio. Estos se basarían en los datos obtenidos de las conversaciones que se producen en su interior, así como de su destino, su historial de trayectos, su velocidad, el modo de conducción que está utilizando, su nivel de combustible o carga de batería. El sistema se describe con abundante detalle en una solicitud registrada por la compañía ante la Oficina de Patentes de EEUU.

El sistema «puede incluir la determinación de las preferencias del usuario para los anuncios a partir de una o más señales de audio dentro del vehículo y/o datos históricos del usuario», explica la documentación. «Por ejemplo, esto puede incluir escuchar las conversaciones entre los ocupantes del vehículo. Las conversaciones pueden ser analizadas en busca de palabras clave o frases que puedan indicar hacia dónde viajan los ocupantes», detalla.La predicción del destino del vehículo en cada trayecto es uno de los principales objetivos del sistema. «Un tipo de destino como el trabajo o un centro comercial, desempeña un papel en el recuento de anuncios”, expone Ford. Esta información puede usarse para “proporcionar anuncios más relevantes, por ejemplo, si un usuario va a comprar comestibles, mercancías, etc. Además, estos sistemas y métodos ayudan a contrarrestar la inclinación natural de un usuario de buscar anuncios mínimos o ninguno”, adelanta. Aunque la patente no lo especifica, la documentación presentada por la marca estadounidense apunta a que sería un modelo de inteligencia artificial el que analizaría en tiempo real cuál será el trayecto del usuario.

Este se contrastaría con su historial, que también podría utilizar información obtenida de aplicaciones de terceros, como aquellas instaladas en el teléfono móvil de los ocupantes, indica Ford, y con los datos recogidos del propio vehículo para hacer publicidad segmentada, teniendo en cuenta aspectos como si se trata de viaje largo o un viaje a un centro de atención médica.“Estos sistemas y métodos pueden programar de forma inteligente duraciones variables de anuncios, con un tiempo de reproducción que busque maximizar los ingresos de la empresa al tiempo que minimiza el impacto en la experiencia del usuario. Se trata principalmente de una implementación de software que utiliza la información existente del vehículo, sin necesidad de hardware adicional”, desarrolla la marca.Ford recalca que los anuncios que se muestren a través de la pantalla o el sistema de audio estos no deben interferir en la seguridad de la conducción. Por eso describe que esta tecnología debe ser capaz de reconocer también el tipo de vía por la que transita el vehículo y su velocidad para determinar qué tipo de publicidad sirve.No obstante Ford menciona que, en el caso de que el vehículo tenga opciones de conducción automáticas, “una persona sentada en el asiento del conductor es un pasajero durante el funcionamiento autónomo del vehículo”. Por tanto, se le considera también un “ocupante” o “usuario” a fin de mostrarle publicidad.

A partir de ahí, la publicidad puede presentarse a los usuarios en sus vehículos a través de varios medios. Por ejemplo, algunos pueden presentarse visual o auditivamente mediante un sistema de info-entretenimiento a bordo u otras interfaces. Los ingenieros de la marca adelantan que el software también analizaría qué anuncios terminan siendo más efectivos en cada caso para cada usuario para reproducir la misma estrategia en el futuro.“A modo de ejemplo, si el vehículo circula por una autopista, una carga primaria puede incluir la presentación de un anuncio visual a los pasajeros cada diez minutos a través de la pantalla. Las preferencias del usuario pueden indicar que el pasajero responde positivamente a los anuncios sonoros, por lo que una carga de trabajo secundaria puede ser más frecuente, como presentar anuncios sonoros cada cinco minutos”, propone.

Sigue leyendo

Publicado en Hardware | Etiquetado , , | Comentarios desactivados en Ford crea un sistema para escuchar las conversaciones de los vehículos y poner anuncios personalizados