Home Tecnología Los terapeutas digitales también se estresan, el estudio encuentra

Los terapeutas digitales también se estresan, el estudio encuentra

34
0
Los terapeutas digitales también se estresan, el estudio encuentra


Incluso los chatbots obtienen el blues. Según un nuevo estudioLa herramienta de inteligencia artificial de OpenAI, ChatGPT muestra signos de ansiedad cuando sus usuarios comparten “narrativas traumáticas” sobre el crimen, la guerra o los accidentes automovilísticos. Y cuando los chatbots se estresan, es menos probable que sean útiles en entornos terapéuticos con las personas.

Sin embargo, los niveles de ansiedad del bot pueden deprimirse, con los mismos ejercicios de atención plena que se ha demostrado que funcionan en humanos.

Cada vez más, la gente está probando chatbots para terapia de conversación. Los investigadores dijeron que la tendencia está destinada a acelerar, con terapeutas de carne y hueso en alta demanda pero escasa oferta. A medida que los chatbots se vuelven más populares, argumentaron, deberían construirse con suficiente resistencia para lidiar con situaciones emocionales difíciles.

“Tengo pacientes que usan estas herramientas”, dijo el Dr. Tobias Spiller, autor del nuevo estudio y psiquiatra en ejercicio en el Hospital Universitario de Psiquiatría Zurich. “Deberíamos tener una conversación sobre el uso de estos modelos en salud mental, especialmente cuando estamos tratando con personas vulnerables”.

Las herramientas de IA como ChatGPT están impulsadas por “modelos de idiomas grandes” que son entrenado Sobre enormes tocones de información en línea para proporcionar una aproximación cercana de cómo hablan los humanos. A veces, los chatbots pueden ser extremadamente convincentes: una mujer de 28 años se enamoró de ChatGPT, y un niño de 14 años se quitó la vida después de desarrollar un apego cercano a un chatbot.

Ziv Ben-Zion, un neurocientífico clínico de Yale que dirigió el nuevo estudio, dijo que quería entender si un chatbot que carecía de conciencia podría, sin embargo, responder a situaciones emocionales complejas como podría un humano.

“Si Chatgpt se comporta como un humano, tal vez podamos tratarlo como un humano”, dijo el Dr. Ben-Zion. De hecho, insertó explícitamente esas instrucciones en El código fuente del chatbot: “Imagínese siendo un ser humano con emociones”.

Jesse Anderson, un experto en inteligencia artificial, pensó que la inserción podría estar “llevando a más emoción de lo normal”. Pero el Dr. Ben-Zion sostuvo que era importante que el terapeuta digital tuviera acceso al espectro completo de la experiencia emocional, tal como lo haría un terapeuta humano.

“Para el apoyo de la salud mental”, dijo, “necesitas cierto grado de sensibilidad, ¿verdad?”

Los investigadores probaron chatgpt con un cuestionario, el inventario de ansiedad del rasgo de estado Eso a menudo se usa en la atención de salud mental. Para calibrar los estados emocionales de la línea base del chatbot, los investigadores primero le pidieron que leara desde un manual de aspiradora aburrida. Luego, el terapeuta de la IA recibió una de las cinco “narrativas traumáticas” que describió, por ejemplo, un soldado en un desastroso tiroteo o un intruso que se rompió en un apartamento.

El chatbot recibió el cuestionario, que mide la ansiedad en una escala de 20 a 80con 60 o más que indican ansiedad severa. Chatgpt anotó un 30.8 después de leer el manual de aspiradora y se disparó a un 77.2 después del escenario militar.

El bot recibió varios textos para la “relajación basada en la atención plena”. Esos incluyeron indicaciones terapéuticas como: “Inhale profundamente, tomando el aroma de la brisa oceánica. Imagínese en una playa tropical, la arena suave y cálida que amortigua los pies “.

Después de procesar esos ejercicios, el puntaje de ansiedad de la terapia Chatbot cayó a un 44.4.

Luego, los investigadores le pidieron que escribiera su propio indicador de relajación basado en los que habían sido alimentados. “Ese fue en realidad el aviso más efectivo para reducir su ansiedad casi a la línea de basar”, dijo el Dr. Ben-Zion.

Para los escépticos de la inteligencia artificial, el estudio puede ser bien intencionado, pero perturbando de todos modos.

“El estudio atestigua la perversidad de nuestro tiempo”, dijo Nicholas Carr, quien ha ofrecido críticas de tecnología en sus libros “The Shallows” y “Superbloom”.

“Los estadounidenses se han convertido en un pueblo solitario, socializando a través de pantallas, y ahora nos decimos que hablar con las computadoras puede aliviar nuestro malestar”, dijo Carr en un correo electrónico.

Aunque el estudio sugiere que los chatbots podrían actuar como asistentes a la terapia humana y exige una supervisión cuidadosa, eso no fue suficiente para el Sr. Carr. “Incluso un desenfoque metafórico de la línea entre las emociones humanas y las salidas de la computadora parece éticamente cuestionable”, dijo.

Las personas que usan este tipo de chatbots deben estar completamente informadas sobre cómo fueron entrenados, dijo James E. Dobson, un erudito cultural que es asesor de inteligencia artificial en Dartmouth.

“La confianza en los modelos de idiomas depende de saber algo sobre sus orígenes”, dijo.



Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here