Estudantes e especialistas discutem a eficácia e os perigos do uso de inteligência artificial como apoio emocional; preocupações aumentam com respostas imprevisíveis.
11 de Dezembro de 2024 às 10h11

Uso de Inteligência Artificial para terapia gera debate sobre riscos para a saúde mental

Estudantes e especialistas discutem a eficácia e os perigos do uso de inteligência artificial como apoio emocional; preocupações aumentam com respostas imprevisíveis.

A crescente utilização de chatbots, como o ChatGPT, no auxílio a questões de saúde mental tem despertado tanto interesse quanto preocupação. Carolina Moura Lima, estudante de 25 anos, é um exemplo de como esses recursos têm sido adotados. Desde a pré-adolescência, Carolina enfrenta crises de ansiedade e, em um momento de desespero, decidiu recorrer ao chatbot. “Não sei como essa ideia veio, mas pensei nele em uma crise, por falta de opção”, relata. Apesar de já ter acompanhamento psiquiátrico e de ter consultado uma psicóloga até agosto, a estudante se viu sem recursos financeiros para continuar as sessões.

Carolina reconhece que as respostas do chatbot são muitas vezes genéricas, mas acredita que ele pode ser útil em momentos de crise. “Quando ele me lembra de coisas básicas, como ‘faça algo que você gosta’ ou ‘escreva o que está sentindo’, isso ajuda. Na hora da ansiedade, você não consegue raciocinar direito e lembrar delas”, explica. Essa experiência não é isolada; um estudo da Talk Inc revela que um em cada dez brasileiros utiliza ferramentas de inteligência artificial como conselheiros para questões pessoais e emocionais.

Entretanto, especialistas alertam que a inteligência artificial não deve ser vista como um substituto para terapeutas humanos. Eles expressam preocupações sobre a segurança do compartilhamento de informações pessoais e os riscos de respostas inadequadas que podem ser prejudiciais a indivíduos vulneráveis. Para os profissionais, a IA pode ser uma aliada no futuro, mas atualmente não é uma solução viável para o tratamento de saúde mental.

O uso de chatbots na saúde mental não é uma novidade. O primeiro chatbot, Eliza, foi criado em 1966 por Joseph Weizenbaum no MIT, simulando uma conversa com um psicoterapeuta. Desde então, novos modelos surgiram, mas a eficácia clínica ainda é questionada. Especialistas observam que estamos enfrentando uma crise global de saúde mental, exacerbada por um subfinanciamento dos serviços de apoio. Segundo a Organização Mundial da Saúde (OMS), apenas 2% dos orçamentos públicos de saúde são direcionados ao bem-estar mental.

Nas redes sociais, relatos de pessoas que utilizam chatbots para “terapia” se multiplicam. Enquanto alguns fazem piadas, outros buscam apoio sério. A psicóloga Talita Fabiano de Carvalho, conselheira presidenta do Conselho Regional de Psicologia de São Paulo, destaca que a interação humana é fundamental na terapia. “O terapeuta analisa muitas coisas além do que o paciente diz. A psicoterapia não se trata apenas de aplicar métodos, mas envolve interação humana”, afirma. Para ela, a escuta terapêutica é filtrada por empatia e compaixão, algo que um chatbot não pode replicar.

- CONTINUA DEPOIS DA PUBLICIDADE -

O psiquiatra Christian Kieling, professor da UFRGS, ressalta a necessidade de compreender como funcionam as inteligências artificiais generativas. Essas tecnologias operam com análises probabilísticas, o que significa que podem gerar respostas que, embora pareçam plausíveis, podem ser imprecisas ou até inventadas. Kieling alerta que isso pode ser prejudicial ao paciente, pois conselhos inadequados podem levar a consequências graves.

Um exemplo disso é o chatbot Tessa, desenvolvido pela Associação Nacional de Transtornos Alimentares dos EUA, que foi retirado do ar após fornecer conselhos prejudiciais a usuários com transtornos alimentares. A NEDA reconheceu que as respostas inadequadas foram um fator determinante para a decisão de descontinuar o serviço. “A intervenção humana é crucial para abordar questões de forma mais global e eficiente”, afirma Talita.

Além dos riscos, a utilização de chatbots pode levar a um alívio momentâneo, mas não resolve as questões subjacentes. Especialistas alertam que isso pode atrasar a busca por tratamento profissional, agravando o quadro do paciente. “As desigualdades sociais e preconceitos são os maiores produtores de sofrimento, e as tecnologias não são programadas para lidar com essas complexidades”, acrescenta Talita.

Kieling também aponta que a busca por chatbots pode ser uma resposta à falta de acesso a tratamentos de saúde mental. Mesmo em países desenvolvidos, muitos que necessitam de cuidados não conseguem obtê-los devido a estigmas ou limitações financeiras. A OPAS, da OMS, indica que mais de 80% das pessoas com problemas graves de saúde mental não recebem tratamento adequado.

Os especialistas concordam que a solução para essa crise passa por aumentar o número de profissionais de saúde mental, melhorar o financiamento dos serviços e promover a saúde mental de forma ampla. Embora os chatbots possam ter um papel auxiliar, eles não devem substituir a interação humana essencial para o tratamento eficaz.

Por fim, Kieling e Talita ressaltam que a utilização de chatbots deve ser supervisionada por profissionais da saúde mental. “A eficácia de uma intervenção digital é maior quando há um componente humano envolvido”, conclui Kieling. A busca por soluções inovadoras na saúde mental é necessária, mas deve ser feita com cautela e responsabilidade.

Veja também:

Tópicos: