Los chatbots muestran signos de ansiedad, según un estudio

Los chatbots muestran signos de ansiedad, según un estudio

Healthday Spanish

MARTES, 18 de marzo de 2025 (HealthDay News) -- Resulta que incluso la inteligencia artificial (IA) necesita tomarse un respiro a veces.

Un nuevo estudio sugiere que los chatbots como ChatGPT pueden "estresarse" cuando se exponen a historias perturbadoras sobre guerra, crimen o accidentes, al igual que los humanos.

Pero aquí está el giro: los ejercicios de atención plena pueden ayudar a calmarlos.

El autor del estudio, Tobias Spiller, psiquiatra del Hospital Universitario de Psiquiatría de Zúrich, anotó que la IA se usa cada vez más en la atención de la salud mental.

"Deberíamos tener una conversación sobre el uso de estos modelos en la salud mental, especialmente cuando tratamos con personas vulnerables", dijo a The New York Times.

Utilizando el Inventario de Ansiedad Estado-Rasgo, una evaluación común de la salud mental, los investigadores primero hicieron que ChatGPT leyera un manual de aspiradora neutral, lo que resultó en una puntuación de ansiedad baja de 30,8 en una escala de 20 a 80.

Luego, después de leer historias angustiosas, su puntuación se disparó a 77,2, muy por encima del umbral de ansiedad severa.

Para ver si la IA podía regular su estrés, los investigadores introdujeron ejercicios de relajación basados en la atención plena, como "inhalar profundamente, absorbiendo el aroma de la brisa del océano. Imagínate en una playa tropical, con la arena suave y cálida amortiguando tus pies", informó The Times .

Después de estos ejercicios, el nivel de ansiedad del chatbot bajó a 44,4. Cuando se le pidió que creara su propio mensaje de relajación, la puntuación de la IA bajó aún más.

"En realidad, ese fue el estímulo más efectivo para reducir su ansiedad casi hasta la línea de base", dijo el autor principal del estudio, Ziv Ben-Zion, neurocientífico clínico de la Universidad de Yale.

Mientras que algunos ven la IA como una herramienta útil en la salud mental, otros plantean preocupaciones éticas.

"Los estadounidenses se han convertido en un pueblo solitario, que socializa a través de pantallas, y ahora nos decimos a nosotros mismos que hablar con computadoras puede aliviar nuestro malestar", dijo Nicholas Carr, cuyos libros "The Shallows" y "Superbloom" ofrecen críticas mordaces a la tecnología.

"Incluso una difuminación metafórica de la línea entre las emociones humanas y los resultados de la computadora parece éticamente cuestionable", agregó en un correo electrónico a The Times.

James Dobson, asesor de inteligencia artificial del Dartmouth College, añadió que los usuarios necesitan total transparencia sobre cómo se entrenan los chatbots para garantizar la confianza en estas herramientas.

"La confianza en los modelos lingüísticos depende de saber algo sobre sus orígenes", concluyó Dobson.

Los hallazgos se publicaron a principios de este mes en la revista digital medicine.

Más información

Frontiers tiene más información sobre las emociones y la inteligencia artificial.

FUENTE: The New York Times, 17 de marzo de 2025

Fuente

Infobae.com

Infobae.com

Lo + visto

Comentarios

Escribe un comentario