Meta está compitiendo en dos carreras. Por un lado, la de la inteligencia artificial. Por otro, la de encontrar el "nuevo smartphone". En este sentido, su apuesta total está en las gafas con IA. Dispositivos como las Ray-Ban Meta 2 tienen el potencial para grabar todo lo que veamos. Y dentro de ese “todo” está el desnudarnos en un probador, mantener relaciones sexuales o meter la contraseña del banco en el móvil.
Y alguien en Kenia está viendo todo eso con un solo objetivo: entrenar a la inteligencia artificial.
En corto. Antes de profundizar, vamos con el contexto. El medio sueco Svenska Dagbladet ha publicado un reportaje en el que exponen cómo se está entrenando la inteligencia artificial de Meta. Al menos, a la IA que da vida a sus gafas inteligentes. Para ese entrenamiento, Meta recoge nuestros datos como conversaciones, fotos y vídeos, que se envían en paquetes masivos a empresas que los desglosan para luego 'chutar' la información al software de entrenamiento.
Una de esas empresas es Sama. Está ubicada en Kenia y algunos de sus empleados han revelado a los periodistas suecos qué tipo de información ven a diario, relatando algunos casos que no dejan de ser acciones cotidianas que todos hacemos. El problema es que las hacemos en la intimidad. Dicho esto, vamos poco a poco porque hay mucho.
Ray-Ban Meta. Las gafas no necesitan presentación y, de hecho, probamos la segunda generación hace unas semanas. En nuestro análisis de las Ray-Ban Meta 2 ya contamos que eran parte de esa visión postsmartphone gracias a una cámara y sonido muy decente, pero con una IA decepcionante. Precisamente ese es el punto en el que Meta debía trabajar más y lo hace gracias a las imágenes que recoge de cada usuario.
Lo que cedemos. En la investigación del medio sueco, y es algo que podemos ver en los términos de uso de servicios de Meta AI, se detalla una situación en la que parece que tenemos un control significativo sobre los datos como las imágenes o las grabaciones de voz. En el documento se apunta que ciertos datos se pueden guardar y usar para mejorar los productos de Meta si el usuario da su consentimiento, pero hay una cara B: para que el asistente de IA funcione, hay que ceder la voz, el texto, la imagen y el vídeo.
Según estas condiciones, “en algunos casos, Meta revisará las interacciones con la IA, incluido el contenido de las conversaciones o los mensajes a la IA. Esta revisión puede ser automatizada o manual”. Además, también se establece que el usuario no debe compartir información que no desee que la IA utilice o retenga, como por ejemplo “información sobre temas delicados”. El problema es que, si no aceptas, no puedes utilizar Meta AI.
Entrenando la IA manualmente. Cuando la revisión de los datos es manual, es cuando comienza el problema. En el artículo se expone que uno de los centros de análisis está ubicado en Kenia. Se llama Sama y es una empresa contratada por Meta para realizar una labor conocida como “etiquetado”. Los datos que salen del dispositivo pasan por un proceso de limpieza que difumina caras y datos privados, pero luego los trabajadores realizan algunas acciones manuales en las imágenes.
Un ejemplo del etiquetado
Por ejemplo, seleccionar contornos de personas, nombrar objetos como “lámpara”, “coche”, “libro”, “ordenador”, registrar señales de tráfico y, en definitiva, todo lo que vemos. Luego todo eso correctamente etiquetado se organiza en paquetes de datos que se ‘lanzan’ a los sistemas de entrenamiento de la inteligencia artificial. Porque si una IA “sabe” que una señal de ‘STOP’ es una señal de ‘STOP’ es porque se le ha enseñado antes con imágenes reales. El fin es mejorar, precisamente, lo que criticamos en nuestro análisis: la inteligencia artificial y su conexión con el mundo.
Cuando el sistema falla. Para el análisis, han contactado con antiguos empleados de Meta en centros de etiquetado de Estados Unidos. Aseguran que el sistema anonimiza automáticamente las caras y datos sensibles, pero “los algoritmos, a veces, se pierden. Sobre todo en condiciones de iluminación difíciles, ciertas caras y cuerpos son perfectamente visibles”.
Y ahí empieza el problema. Los trabajadores en el centro de etiquetado que se ha puesto bajo la lupa no están ahí viendo lo que detallaré a continuación por gusto o voyerismo, sino porque están etiquetando para entrenar a la IA. El problema es… lo que supuestamente se ve en las imágenes.
Nada es privado. Un empleado del centro de datos de Kenia expone que “en algunos vídeos se puede ver a alguien yendo al baño o quitándose la ropa. No creo que lo sepan, porque si no, no grabarían”. Pero ir al baño no es lo único que han visto en ese centro de etiquetado. Escenas cotidianas de un salón occidental seguidas de otras en las que se mantienen relaciones sexuales. Grabar a otra persona desnuda por error (cuando tu pareja sale de la ducha, por ejemplo), o dejar las gafas encima de una superficie en la habitación para grabar cómo se cambia tu mujer sin que ella lo sepa.
También se analizan transcripciones sobre protestas, crímenes “cosas muy oscuras” o temas como la descripción de una mujer por parte de un hombre que argumenta que le gustaría tener relaciones con ella. “Vemos de todo y Meta tiene ese tipo de contenido en su base de datos. La gente puede grabarse a sí misma de la manera equivocada y no saber que lo está haciendo”, apunta uno de los trabajadores que asegura que, si se filtran los clips, sería un “escándalo enorme”.
¿Y si no grabo? Svenska Dagbladet no ha realizado este reportaje en dos días. Apuntan que llevan meses trabajando la información, reuniéndose con las partes y preguntando tanto en ópticas donde se pueden comprar las gafas como a la propia Meta. Sobre los minoristas, afirman que no tienen ni idea de dónde van los datos. Otros apuntan que “todo se mantiene de forma local en la aplicación”, lo cual no es cierto porque la IA de Meta no trabaja en el dispositivo: necesita conexión a Internet.
Aquí entra en juego otra cuestión, que es el tipo de formación que reciben los minoristas que venden los dispositivos, pero hay algo de fondo que puedes estar pensando. Vale, los datos se filtran, pero… ¿y si sólo grabo de forma consciente cuando yo quiera? Aquí es la propia Meta la que detalla cómo funciona esta grabación de vídeo y sonido:
Que dice Meta. “Cuando se está utilizando Meta AI, procesados esos datos de acuerdo con los Términos de Servicio y la Política de Privacidad de Meta AI”, apunta Joyce Omope, portavoz de Meta. No es muy revelador, pero un ejecutivo de Meta entrevistado por el medio y que ha preferido no ser identificado afirma que no importa dónde se encuentre el servidor en el que se almacenen los datos siempre y cuando el país cumpla con los requisitos de la Unión Europea”.
El problema es que están hablando de la política de privacidad, no de lo que se hace con los datos para el entrenamiento de Meta AI. Desde Xataka, nos hemos puesto en contacto con Meta para conocer su visión sobre el asunto.
Suma y sigue. Llegados a este punto, puede que pienses “espera, esta historia me suena”. Y lo cierto es que no es la primera vez que sale a la luz una polémica relacionada con la revisión manual de información privada en aplicaciones de la compañía. Hace unos años, y al margen de Cambridge Analytica, la por aquel entonces conocida como Facebook ya se enfrentó a otra polémica al afirmar que escaneaba todos los mensajes, enlaces e imágenes que se mandaban por Messenger e Instagram para asegurarse de que “no se incumplen las reglas de contenido”.
También de las condiciones de los moderadores de Facebook, expuestos a contenido de todo tipo para decidir si algo se puede, o no, ver en la plataforma. Hablamos de sexo, pero también de vídeos de muertes violentas o abuso infantil. Esto es algo que se ha ido destapando a fuego lento y que ha salpicado, incluso, a trabajadores en España. En el centro de moderación de Barcelona, concretamente, donde empleados reclaman indemnizaciones millonarias tras años siendo testigos de la violencia más explícita.
Estos empleados experimentan estrés postraumático, ataques de pánico, fobias y hasta ideas suicidas debido al tipo de contenidos que deben visualizar. Ya no es que vieran gente desnuda porque tienen que etiquetarlo todo para alimentar a la insaciable IA: hablamos de decapitaciones, violaciones, suicidios en directo y pornografía infantil. Hasta 800 vídeos al día.
AI = ‘Another Indian’. Y sumado a todas las polémicas, tenemos algo más de fondo. Este etiquetado de datos tan esencial para que los modelos de aprendizaje puedan… aprender, está basado en gran parte en trabajos precarios por parte de personas que están en países en desarrollo. Kenia es un país en el que hay varios “centros de datos humanos” como el que trabaja para Meta etiquetando lo que ven las Ray-Ban Meta. De hecho, hace unos meses se publicó un reportaje en Coda en el que se contaba cómo Kenia, y Sama concretamente, estaba haciendo el "trabajo sucio digital" en la era de la IA. OpenAI estaba involucrada.
También se concentran en instalaciones en India, de ahí el malísimo chiste de ‘Another Indian’ y recientemente se conoció el “truco” sobre los taxis remotos de Waymo: personas en Filipinas “conduciendo” los coches a distancia. Al menos, ayudando.
Como decimos, hemos contactado con Meta y actualizaremos el artículo en cuanto tengamos una respuesta.
Imágenes | Xataka (Crossover), We-Vibe Toys, Unplash, BaristaVision+
-
La noticia
Las gafas de Meta graban todo lo que vemos. Unos señores en Kenia lo están viendo también para entrenar a la IA
fue publicada originalmente en
Xataka
por
Alejandro Alcolea
.
completa toda los campos para contáctarnos