[
OpenAI, la empresa que creó ChatGPT, anunció recientemente que en las próximas semanas planea implementar el reconocimiento de voz en su chatbot, lo que hará que su tecnología de inteligencia artificial parezca más humana que antes. Ahora parece que la compañía está animando a los usuarios a considerar esto como una oportunidad para utilizar ChatGPT como herramienta de tratamiento.
Lillian Wing, jefa de sistemas de seguridad en OpenAI Publicado en XChatGPT, anteriormente conocido como Twitter, dijo el martes que tuvo una “conversación emotiva y muy personal” con ChatGPT en modo de voz sobre “el estrés y el equilibrio entre el trabajo y la vida personal”, durante la cual “se sintió escuchado y reconfortado”.
«Nunca antes había probado la terapia, pero ¿tal vez sea ésta? Pruébela, especialmente si normalmente la utiliza como herramienta de productividad», dijo.
El presidente y cofundador de OpenAI, Greg Brockman, pareció respaldar este sentimiento: volvió a publicar la declaración de Weng sobre X y agregó: «El modo de voz ChatGPT es una experiencia cualitativamente nueva».
OpenAI se beneficia de la hipérbole para engañar al público sobre lo que la tecnología puede y no puede hacer.
Se trata de una evolución preocupante. Que el director de seguridad y el presidente de una empresa alienten al público a considerar un chatbot como una forma de recibir tratamiento es extremadamente sorprendente e imprudente. OpenAI se beneficia de la hipérbole para engañar al público sobre lo que la tecnología puede y no puede hacer, y estos mensajes pueden llegar a expensas de la salud pública.
Wing ejemplifica ChatGPT al hablar de sentirse «escuchado» y «cálido», lo que significa que la IA tiene la capacidad de escuchar y comprender las emociones. De hecho, el lenguaje humano de ChatGPT surge de su replicación altamente sofisticada de patrones de lenguaje extraídos de bases de datos de información masivas. Esta capacidad es lo suficientemente poderosa como para ayudar a los usuarios de ChatGPTS a realizar ciertos tipos de investigaciones, intercambiar ideas y escribir artículos de manera humana. Pero esto no significa que sea capaz de realizar muchas tareas cognitivas humanas. Lo más importante es que no puede sentir empatía ni comprender la vida interior del usuario; En el mejor de los casos, sólo puede simular cómo se podría actuar en respuesta a indicaciones específicas.
Buscar terapia a través de un chatbot es claramente diferente a que te pidan que respondas una pregunta sobre un libro. Es probable que muchas personas que recurren a un chatbot para recibir terapia, en lugar de a un ser querido, un terapeuta u otro tipo de profesional capacitado en salud mental, se encuentren en un estado mentalmente vulnerable. Si no tienen una comprensión clara de la tecnología con la que están tratando, corren el riesgo de malinterpretar la naturaleza de la orientación que reciben, y pueden sufrir más a causa de ello.
Es irresponsable prescribir ChatGPT como una forma de recibir terapia cuando los modelos de aprendizaje de idiomas aún emergentes tienen el potencial de hacerlo. Convencer a la gente de hacer dañoComo han señalado muchos científicos y especialistas en ética de la IA. Por ejemplo, un hombre belga supuestamente se suicidó después de hablar con un chatbot, y su viuda dice que los registros de chat muestran que el chatbot afirma tener un vínculo emocional especial con el hombre y lo anima a suicidarse.
También hay dudas sobre el daño que algunos usuarios pueden experimentar incluso si no corren riesgo de tener ideas suicidas. Algunos profesionales de la salud mental han reconocido que ChatGPT puede tener un beneficio limitado para las personas que enfrentan ciertos tipos de problemas de salud mental, en parte porque la distribución de algunos enfoques de tratamiento, como la terapia cognitivo-conductual, está altamente regulada. También se sabe que ChatGPT rechaza solicitudes de diagnóstico y recomienda atención profesional. Pero también sabemos que los chatbots como ChatGPT regularmente “alucinan” y hacen afirmaciones falsas con confianza, y esto tiene claras implicaciones para el valor y los riesgos inherentes a cualquier consejo que brinden. ChatGPT puede desviarse aleatoria e inesperadamente de los estándares de tratamiento terapéutico en la retroalimentación que proporciona, y el usuario no tendrá idea. Un chatbot también puede afirmar falsamente que sabe cosas sobre la naturaleza del mundo que no sabe. Si los usuarios no son conscientes de las deficiencias de la tecnología al utilizarla, corren el riesgo de ser manipulados de forma nociva. Ya sabemos que incluso los programas de chat más primitivos, como el programa ELIZA creado por Joseph Weizenbaum en la década de 1960, engañaban fácilmente a las personas haciéndoles creer que había un ser humano comprensivo detrás de ellos. Con algo tan complejo como ChatGPT, la necesidad de aclarar qué no puede hacer es especialmente apremiante.
Todo esto sin mencionar el hecho de que recibir tratamiento a través de un chatbot será necesariamente superficial en comparación con las intervenciones terapéuticas realizadas por humanos. Los chatbots no saben qué son los humanos, no tienen cuerpos, no tienen inteligencia emocional, no pueden evaluar dilemas morales y no tienen sabiduría. Alentar a las personas a utilizar chatbots para recibir tratamiento representa un costo de oportunidad, porque potencialmente desvía a las personas de recibir tratamiento a través de humanos que pueden brindar retroalimentación sostenida y precisa basada en una conexión intelectual y emocional real.
Desafortunadamente, la verdad es que muchas personas pueden usar ChatGPT y otros chatbots de todos modos, aunque sólo sea por la dificultad de acceder a la atención de salud mental en este país. Ya hubo informes de usuarios que recurrieron a ChatGPT con fines terapéuticos mucho antes de que apareciera el reconocimiento de voz, y la opción de IA generalmente será más atractiva para las personas con menos tiempo y dinero. Por mucho que muchos de los que prueban los chatbots como terapia tendrán recursos limitados para una atención continua adecuada, lo mínimo que pueden hacer empresas como OpenAI es anunciar de manera destacada las enormes limitaciones y los riesgos potenciales de la tecnología para los usuarios.
Más bien, estamos lidiando con lo contrario. Wing admite que «nunca había probado» el tratamiento, pero decidió que su conversación con OpenAI sobre el trabajo «bien podría ser el caso». Es una expresión acertada de arrogancia intelectual por parte de una empresa cuyo presidente admitió que poseía un «nivel de confianza en sí mismo completamente ilusorio».
Varias personas que trabajan en el campo de la tecnología de IA continúan confundiendo la IA con un agente humano, en lugar de una nueva herramienta con distintas ventajas e inconvenientes. El costo de sobrevalorar la IA y utilizarla para hacer falsas promesas sobre el tratamiento es que muchas personas podrían perder el tiempo (o incluso resultar perjudicadas) en el proceso.