O mundo hoje está se tornando cada vez mais conectado, mas paradoxalmente mais solitário do que nunca. Juntamente com as preocupações com a saúde mental, isso emergiu como uma das questões mais prementes do nosso tempo.
Com o advento da IA conversacional, as pessoas agora podem se envolver em diálogo sem precisar de outro presente humano. Esse aumento da acessibilidade alimentou o uso global de chatbots da IA, geralmente levando a apego emocional e, em alguns casos, crescendo o desapego social.
Prathvi Nayak, psicólogo sênior da Nimhans, em conversa com MIRAR, Seja promessa ao usar a IA em saúde mental, pelo menos como uma ferramenta de apoio.
“A IA pode ser uma mão verdadeira em conversas com pessoas em tempo real”, diz ela. “Em um mundo em que as pessoas constantemente querem que alguém converse, a IA poderia ser essa ajuda imediata. Não seria possível que um terapeuta esteja sempre disponível.”
No entanto, um estudo do Openai e MIT Media Lab, intitulado ‘Investigando uso afetivo e bem-estar emocional no chatgpt‘ Liderado por Jason Phang, alerta que, embora um chatbot emocionalmente envolvente possa fornecer apoio e companheirismo, existe o risco de manipular as necessidades sociais e emocionais dos usuários de maneiras que prejudicam o bem-estar a longo prazo. À medida que essas ferramentas se tornam mais integradas à vida cotidiana, seu impacto emocional nos usuários está se tornando mais difícil de ignorar.
De acordo com um estudo de 2023 da Organização Mundial da Saúde, mais de 280 milhões, ou seja, uma em 28 pessoas em todo o mundo, sofre de depressão, enquanto a solidão foi descrita como uma epidemia crescente por instituições de saúde em países como os EUA e o Reino Unido
A Índia possui 0,75 psiquiatras para 100.000 pessoas. No entanto, as diretrizes da OMS sugerem que deve haver pelo menos três psiquiatras para cada população de lakh.
Nayak elabora que, embora estudantes de psicologia ou estagiários possam ajudar na terapia em sistemas tradicionais, ter um humano disponível 24/7 é complicado. “A IA pode não substituir os terapeutas humanos, mas preenche uma lacuna.
Apesar da crescente demanda por apoio à saúde mental, a disponibilidade de terapeutas treinados está longe de ser adequada. Em muitos países de baixa e média renda, há menos de um profissional de saúde mental por 100.000 pessoas. Essa disparidade abriu um espaço para emergir ferramentas de terapia de IA.
Os chatbots de terapia de IA como WOEBOT, WYSA, Replika e até modelos como o ChatGPT estão sendo cada vez mais explorados como companheiros digitais que podem oferecer suporte imediato. Essas plataformas fornecem disponibilidade 24/7, anonimato e interface de baixo custo ou gratuito, tornando-as acessíveis a muitos que, de outra forma, não poderiam não ter uma saída terapêutica.
Enquanto plataformas como o caractere.ai incluem isenções de responsabilidade fora do bate -papo, como “Este é um AI chatbot e não uma pessoa real”Os robôs também frequentemente interpretam como seres humanos reais durante a conversa. Eles geralmente não quebram o caráter ou admitem que são ai. Isso é intencional, pois a plataforma é construída em torno de interações imersivas e orientadas por personagens, não de apoio profissional ou profissional.
Esse design cria uma área cinzenta: os usuários são instruídos a não levar nada a sério, mas a experiência frequentemente sentimentos real. Isso faz parte do que torna essas ferramentas envolventes, mas também pode ser potencialmente enganador, especialmente para usuários vulneráveis que podem formar apegos emocionais.
Ele pode orientar os usuários através de exercícios respiratórios, compostos de diário ou mesmo apenas conversas casuais no meio da noite, quando a solidão se aproxima “, acrescenta ela.” Isso também ajuda as pessoas com tendências suicidas a se safar com alguém com quem conversar “.
Os benefícios da terapia de IA são inegáveis: eles oferecem acesso sempre ativo, reduzem o estigma da busca de apoio à saúde mental e podem ajudar as pessoas a dar o primeiro passo em direção à cura. No entanto, eles não são isentos de críticas.
O Dr. JKS Vetotoor, um fisiologista praticante, tem uma visão muito mais cautelosa.
“A psiquiatria ou a psicologia é a última coisa que a IA deve interferir, ou melhor, se destacaria”, afirma ele firmemente. “Ai é algo que não tem uma psique. Como deve tratar um humano com uma psique e consciência?”
As preocupações do Dr. Vetotoor lançam luz sobre os fundamentos da prática terapêutica, conexão humana, empatia e análise intuitiva. “Um médico treinado analisará as pessoas em termos de gesto, postura e até figurino. Essas são pistas não verbais que os modelos de IA simplesmente não podem detectar. E será um desafio para um modelo de IA identificar se alguém está mentindo”.
Ele ressalta o valor insubstituível da experiência na terapia: “É preciso muita exposição a diferentes personalidades e situações para entender e ajudar os indivíduos a navegar em seus problemas de saúde mental. A IA não tem essa curva de aprendizado humano”.
O professor Anil Seth, um dos principais pesquisadores da consciência, apóia essa visão: “Associamos a consciência à inteligência e à linguagem porque eles se juntam em humanos. Mas só porque eles se juntam em nós, isso não significa que eles se juntam em geral”.
Isso sugere que a capacidade da IA de processar a linguagem não implica uma capacidade de empatia, compreensão ou presença terapêutica real.
O Dr. Vetotoor admite que a IA tem um lugar em saúde mental, embora limitada. “Tendo dito isso, a IA poderia ajudar adequadamente as pessoas com problemas com a solidão. Isso poderia fornecer companhia ou simular conversas quando não houver mais ninguém por perto.”
Embora a IA possa ajudar na terapia e beneficiar os pacientes, ela tem limitações. Por um lado, fornece um espaço imediato e sem julgamento para as pessoas conversarem. Por outro lado, não pode replicar as complexas interações humanas que sustentam o tratamento psicológico eficaz.
“Embora a IA generativa possa ajudar com assistência genérica, em um ambiente clínico ou terapêutico, há um risco muito real de desvio de IA, por meio de diagnóstico, falta de sintonia emocional ou resposta baixa durante as crises”, Mahua Bisht, CEO de 1 a 1help, sublinha esses riscos. “A literatura sobre os bots da IA sugere que eles não são testados suficientemente para garantir resultados seguros sem a supervisão do clínico”.
À medida que a IA continua a evoluir, os modelos híbridos podem surgir onde os terapeutas humanos usam ferramentas de IA para monitorar o progresso do cliente, oferecer conteúdo suplementar ou manter o envolvimento entre as sessões. Mas o futuro da IA na terapia dependerá não apenas do que a tecnologia pode fazer, mas também sobre o quão cuidadosamente e eticamente ela é integrada aos cuidados centrados no ser humano.
Esse artigo é uma releitura de: analyticsindiamag.com