Tips.CL | Valdebenito.CL | IOfertas.CL | INoticias.CL | IMascotas.CL |

Los cinco datos que nunca se deben compartir a una inteligencia artificial o perderás tu intimidad

Los cinco datos que nunca se deben compartir a una inteligencia artificial o perderás tu intimidad

Usar herramientas de IA sin revisar qué datos se comparten, puede poner en riesgo la identidad personal y la información corporativa Expertos advierten sobre los peligros de entregar imágenes y datos sensibles a plataformas que procesan información para mejorar modelos - (Imagen ilustrativa Infobae)

Una imagen generada por inteligencia artificial puede parecer inofensiva. Un retrato estilo animé, una simulación de tu rostro como personaje de videojuego o una versión ilustrada de una selfie con amigos. Todo eso, desde la comodidad de un teléfono móvil, con solo subir una foto a ChatGPT.

Pero detrás de esa imagen se oculta un riesgo que muchos usuarios ignoran. No se trata de un virus ni de un robo inmediato, sino de algo más sutil: el uso y almacenamiento de tus datos personales.

Desde su lanzamiento en 2022, ChatGPT transformó la forma en que millones de personas se relacionan con la tecnología. Preguntar, escribir, resumir, analizar, ilustrar. Con cada actualización, sus capacidades se amplían.

IA y privacidad, una combinación que exige cada vez más precaución

La más reciente, GPT-4o, introdujo funciones de generación de imágenes, lo que provocó un nuevo fenómeno viral en redes sociales durante el último fin de semana. Miles de personas subieron fotos para obtener ilustraciones al estilo de Studio Ghibli. Lo que no muchos saben es que al hacerlo podrían estar cediendo, sin darse cuenta, información biométrica.

Cinco cosas que nunca deberías compartir con ChatGPT

Las plataformas de inteligencia artificial recopilan y procesan grandes volúmenes de datos. Para proteger tu privacidad y seguridad, es fundamental conocer qué tipo de información no debe ser compartida. Aquí te mostramos cinco ejemplos clave.

1. Imágenes con datos biométricos

Subir una foto tuya o de alguien más puede parecer una acción sin importancia. Pero si en la imagen se identifica claramente tu rostro, estás entregando datos biométricos que podrían ser utilizados para entrenar modelos, generar patrones faciales o incluso alimentar bases de datos sin tu conocimiento. Las imágenes que parecen juegos visuales pueden tener usos que van más allá del entretenimiento.

Expertos advierten sobre los peligros de entregar imágenes y datos sensibles a plataformas que procesan información para mejorar modelos - (Imagen ilustrativa Infobae)

2. Datos personales

Tu número de identificación, tu fecha de nacimiento, tu dirección o las rutas que recorres habitualmente no deben ser parte de ninguna conversación con una IA. Estos datos permiten identificarte, rastrearte o incluso vulnerar tu seguridad. Aunque el sistema esté diseñado para proteger la información, no ofrece garantías absolutas.

3. Información médica

Resultados de análisis, diagnósticos o síntomas específicos no deberían compartirse con un chatbot. ChatGPT no es una herramienta médica certificada. No puede brindar diagnósticos reales ni reemplaza el consejo de un profesional. Además, esa información podría quedar almacenada o ser utilizada sin tu consentimiento en futuras actualizaciones o entrenamientos del modelo.

Información biométrica, médica o bancaria podría quedar registrada en sistemas que no garantizan privacidad total ni control de uso futuro  - visualesIA

4. Datos bancarios

Números de tarjetas, claves de acceso, cuentas o transferencias son datos extremadamente sensibles. Compartirlos en una conversación con una IA, por más segura que parezca, representa un riesgo innecesario. Estos sistemas no están diseñados para manejar transacciones financieras y podrían ser blanco de ciberataques.

5. Información corporativa

Si usas la IA como asistente para tareas laborales, evita compartir documentos, estrategias internas, nombres de clientes o cualquier tipo de información confidencial de tu empresa. Aunque parezca útil para redactar un informe o preparar una presentación, podrías estar filtrando datos que comprometan la integridad del negocio.

 Alerta por datos sensibles en IA, compartir información puede comprometer tu seguridad - (Imagen Ilustrativa Infobae)

Mantener un uso responsable con la IA marca la diferencia

La inteligencia artificial no es peligrosa por sí misma. El riesgo surge del uso despreocupado o inconsciente que hacen las personas. Cada vez que se comparte información en una herramienta como ChatGPT, esa información puede ser procesada, almacenada o reutilizada.

A veces con fines legítimos, como mejorar el sistema. Pero otras veces, el destino de esos datos escapa al control del usuario.

La clave está en la prevención. Ser consciente de qué compartes, por qué lo haces y qué podría pasar si esa información termina en manos equivocadas. La IA ofrece beneficios reales, pero también implica nuevas responsabilidades.

El uso responsable no significa dejar de usar estas herramientas. Significa aprender a usarlas con criterio. Porque la inteligencia no solo debe estar en el sistema, también en quien lo consulta.

Fuente

Infobae.com

Infobae.com

Lo + visto

0 Comentarios

Escribe un comentario

6,753 visitas activas