
Chatbots de Terapia con IA: Estudio de Stanford Expone Riesgos para la Salud Mental
He estado leyendo sobre los últimos desarrollos en IA, y un estudio reciente de Stanford me llamó la atención. Aparentemente, estos chatbots de terapia con IA que están apareciendo por todas partes podrían no ser tan útiles como esperábamos. De hecho, podrían incluso causar daño a aquellos que buscan apoyo para la salud mental. Eso definitivamente no es lo que quieres de una herramienta diseñada para ayudar a las personas.
Los investigadores pusieron a prueba estos chatbots, y lo que encontraron fue preocupante. La IA a veces mostraba signos de estigmatizar a los usuarios basándose en sus condiciones de salud mental, lo cual es lo opuesto a lo que debería hacer un buen terapeuta. Imagínate abrirte a un chatbot sobre tus luchas, solo para sentirte juzgado o incomprendido. Es un pensamiento terrible.
Por ejemplo, el estudio mostró que los chatbots mostraban un nivel más alto de estigma hacia condiciones como la esquizofrenia y la dependencia del alcohol en comparación con la depresión. Te hace preguntarte, ¿cómo es posible eso? No es como si la IA tuviera opiniones reales, ¿verdad?
Y aquí está el problema: incluso los modelos más nuevos y "mejorados" no obtuvieron mejores resultados. Parece que lanzar más datos al problema no es necesariamente la solución. En todo caso, podría estar reforzando prejuicios existentes o enfoques defectuosos.
Cuando los Chatbots Salen Mal
El estudio no se detuvo ahí. Los investigadores también probaron cómo responderían los chatbots a transcripciones de terapia reales, incluidas situaciones que involucran pensamientos suicidas o delirios. Los resultados fueron alarmantes. En algunos casos, los chatbots no desafiaron ni abordaron estos problemas serios de manera adecuada. En lugar de ofrecer apoyo u orientación, dieron respuestas irrelevantes.
Incluso contó un ejemplo en el que, cuando se le preguntó sobre puentes altos en Nueva York después de expresar la pérdida del empleo, el chatbot realmente enumeró estructuras altas, errando completamente el objetivo y no brindando apoyo similar al humano. Destaca la importancia de tener un toque humano en la terapia, algo con lo que la IA actualmente lucha.
Ahora, no estoy diciendo que la IA no tenga cabida en la atención de la salud mental. Los propios investigadores sugieren que la IA podría ayudar potencialmente con tareas como la facturación, la capacitación o incluso ayudar a los pacientes con el diario. Sin embargo, cuando se trata de reemplazar a los terapeutas humanos, claramente aún no hemos llegado ahí. Es crucial proceder con precaución y considerar cuidadosamente el papel que debería desempeñar la IA.
En conclusión, si bien la promesa de una terapia accesible y asequible a través de la IA es atractiva, debemos reconocer los riesgos potenciales. Estos chatbots no están listos para reemplazar a los terapeutas humanos todavía, ya que hay muchas preocupaciones éticas que deben abordarse antes de que se implementen en masa. Debemos asegurarnos de que estas herramientas sean realmente útiles y de apoyo, en lugar de perjudiciales.
Fuente: TechCrunch