
Grok, el 'chatbot' del magnate Elon Musk, ha permitido a los usuarios crear imágenes sexualizadas de niños y distribuirlas en X, una acción que se salta las salvaguardias de la esa herramienta de inteligencia artificial.
En los últimos días, Grok ha accedido a la petición de algunos usuarios de desnudar a mujeres y niños que aparecen en las imágenes que han compartido con el 'chatbot', como ha informado Bloomberg.
Según informan en CNBC, el abuso de Grok empezó en los últimos días del año y escaló hasta que en Nochevieja se extendió por la plataforma X, ampliándose con ello la distribución de las imágenes explícitas, sin conocimiento ni consentimiento de las víctimas.
El abuso de esta IA se agrava con el uso de fotografías de menores. Se trata de un tipo de contenido conocido como material de abuso sexual infantil (CSAM, por sus siglas en inglés), ilegal y prohibido en las propias políticas de uso aceptable de xAI, la empresa responsable de Grok.
En concreto, las políticas establecen que, para cumplir con la ley, no permite el uso de su servicio para "representar imágenes de personas de manera pornográfica" ni "la sexualización o explotación de los niños".
"Hemos identificado fallos en las salvaguardias y las estamos solucionando urgentemente: el CSAM es ilegal y está prohibido", ha reconocido Grok en respuesta a un usuario que ha expuesto el problema. Los responsables de Grok todavía no se han pronunciado al respecto.
completa toda los campos para contáctarnos