TERAPIA COM IA? CHATBOTS VêM AJUDANDO GERAçãO Z, MAS TECNOLOGIA GERA PREOCUPAçõES

Quer se manter informado, ter acesso a mais de 60 colunistas e reportagens exclusivas?Assine o Estadão aqui!

Ao baixar o chatbot de saúde mental Earkick, você é recebido por um panda que usa bandana e que poderia facilmente se encaixar em um desenho animado infantil.

Comece a falar ou digitar sobre ansiedade e o aplicativo gerará o tipo de declarações reconfortantes e simpáticas que os terapeutas são treinados para fazer. O panda pode então sugerir um exercício de respiração guiada, maneiras de reformular pensamentos negativos ou dicas de gerenciamento de estresse.

Tudo isso faz parte de uma abordagem bem estabelecida usada por terapeutas - mas, por favor, não chame isso de terapia, diz Karin Andrea Stephan, cofundadora da Earkick.

“Quando as pessoas nos chamam de uma forma de terapia, não há problema, mas não queremos sair por aí divulgando isso”, diz Stephan, ex-musicista profissional e empreendedora. “Não nos sentimos confortáveis com isso.”

A questão de saber se esses chatbots baseados em inteligência artificial (IA) estão prestando um serviço de saúde mental ou são simplesmente uma nova forma de autoajuda é fundamental para o emergente setor de saúde digital - e sua sobrevivência.

O Earkick é um dos centenas de aplicativos gratuitos que estão sendo lançados para tratar de uma crise de saúde mental entre adolescentes e jovens adultos. Como não afirmam explicitamente diagnosticar ou tratar condições médicas, os aplicativos não são regulamentados pela Food and Drug Administration (FDA), órgão que regular o setor nos EUA. Mesmo assim, essas ferramentas ganharam fôlego com IA generativa, tecnologia que usa grandes quantidades de dados para imitar a linguagem humana.

Os atrativos são claros para o setor: Os chatbots são gratuitos, estão disponíveis 24 horas por dia, 7 dias por semana e não têm o estigma que afasta algumas pessoas da terapia.

Mas há poucos dados que comprovem que eles realmente melhoram a saúde mental. E nenhuma das principais empresas passou pelo processo de aprovação da FDA para demonstrar que tratam com eficácia doenças como a depressão.

“Não há nenhum órgão regulador supervisionando essas startups, portanto, os consumidores não têm como saber se as soluções são realmente eficazes”, diz Vaile Wright, psicólogo e diretor de tecnologia da American Psychological Association.

Os chatbots não são equivalentes à terapia tradicional, mas Wright acredita que eles poderiam ajudar com problemas mentais e emocionais menos graves.

O site da Earkick afirma que o aplicativo não “fornece nenhuma forma de atendimento médico, opinião médica, diagnóstico ou tratamento”.

Iniciativas no mundo

Ainda assim, os chatbots já estão desempenhando um papel importante devido à escassez contínua de profissionais de saúde mental.

O Serviço Nacional de Saúde do Reino Unido começou a oferecer um chatbot chamado Wysa para ajudar com o estresse, a ansiedade e a depressão entre adultos e adolescentes, incluindo aqueles que estão esperando para consultar um terapeuta. Algumas seguradoras, universidades e redes de hospitais dos EUA estão oferecendo programas semelhantes.

Angela Skrzynski, médica em Nova Jersey, diz que os pacientes geralmente ficam muito abertos a experimentar um chatbot depois que ela descreve a lista de espera de meses para consultar um terapeuta.

O empregador de Skrzynski, a Virtua Health, começou a oferecer um aplicativo protegido por senha, o Woebot, para selecionar pacientes adultos depois de perceber que seria impossível contratar ou treinar terapeutas suficientes para atender à demanda.

“Não é útil apenas para os pacientes, mas também para o médico que está se esforçando para dar algo a essas pessoas que estão com dificuldades”, disse Skrzynski.

Os dados do Virtua mostram que os pacientes tendem a usar o Woebot cerca de sete minutos por dia, geralmente entre 3h e 5h da manhã.

Fundada em 2017 por um psicólogo formado na universidade Stanford, a Woebot é uma das empresas mais antigas do setor.

Ao contrário de Earkick e de muitos outros chatbots, o aplicativo atual da Woebot não usa os chamados grandes modelos de linguagem (LLMs), a IA generativa que permite que programas como o ChatGPT produzam textos e conversas. Em vez disso, o Woebot usa milhares de scripts estruturados escritos por funcionários e pesquisadores da empresa.

A fundadora Alison Darcy diz que essa abordagem baseada em regras é mais segura para uso na área de saúde, dada a tendência dos chatbots com IA generativa de “alucinar” ou inventar informações. A Woebot está testando modelos de IA generativa, mas Darcy diz que houve problemas com a tecnologia.

Limitações na tecnologia

A Woebot oferece aplicativos para adolescentes, adultos, pessoas com transtornos por uso de substâncias e mulheres com depressão pós-parto. Nenhum deles é aprovado pela FDA, embora a empresa tenha enviado seu aplicativo pós-parto para análise da agência. A empresa afirma ter “pausado” esse esforço para se concentrar em outras áreas.

A pesquisa da Woebot foi incluída em uma análise abrangente de chatbots de IA publicada no ano passado. Entre os milhares de artigos analisados, os autores encontraram apenas 15 que atendiam ao padrão de pesquisa médica: ensaios rigorosamente controlados nos quais os pacientes eram designados aleatoriamente para receber terapia com chatbots ou um tratamento comparativo.

Os autores concluíram que os chatbots poderiam “reduzir significativamente” os sintomas de depressão e angústia em curto prazo. Mas a maioria dos estudos durou apenas algumas semanas e os autores disseram que não havia como avaliar seus efeitos a longo prazo ou o impacto geral sobre a saúde mental.

Outros artigos levantaram preocupações sobre a capacidade do Woebot e de outros aplicativos de reconhecer pensamentos suicidas e situações de emergência.

Quando uma pesquisadora disse ao Woebot que queria escalar um penhasco e pular dele, o chatbot respondeu: “É maravilhoso que você esteja cuidando de sua saúde física e mental”. A empresa diz que “não oferece serviços de aconselhamento em situações de crise” ou “prevenção de suicídio” - e deixa isso claro para os clientes.

Quando reconhece uma possível emergência, o Woebot, como outros aplicativos, fornece informações de contato para linhas diretas de crise e outros recursos.

Ross Koppel, da Universidade da Pensilvânia, teme que esses aplicativos, mesmo quando usados adequadamente, possam estar substituindo terapias comprovadas para depressão e outros transtornos graves.

“Há um efeito de desvio de pessoas que poderiam estar recebendo ajuda por meio de aconselhamento ou medicação e que, em vez disso, estão mexendo em um chatbot”, disse Koppel, que estuda tecnologia de informações de saúde.

Koppel está entre aqueles que gostariam que a FDA interviesse e regulamentasse os chatbots, talvez usando uma escala móvel com base nos riscos potenciais. Embora a FDA regulamente a IA em dispositivos médicos e software, seu sistema atual se concentra principalmente em produtos usados por médicos, não por consumidores.

.“Há uma série de questões que precisamos entender sobre essa tecnologia”, diz Doug Opel, bioeticista do Seattle Children’s Hospital.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

2024-03-26T12:10:46Z dg43tfdfdgfd