Drogaria Farmanato
  • Menu
    • Quem somos
    • Trabalhe conosco
    • SAC
    • Nossas lojas
  • Home
  • Saúde
  • Vida saudável
    • Nutrição
    • Fitness
  • Beleza
  • Encarte
  • Acontece
No Result
View All Result
Drogaria Farmanato
  • Menu
    • Quem somos
    • Trabalhe conosco
    • SAC
    • Nossas lojas
  • Home
  • Saúde
  • Vida saudável
    • Nutrição
    • Fitness
  • Beleza
  • Encarte
  • Acontece
No Result
View All Result
Drogaria Farmanato
No Result
View All Result
Home Saúde

Saúde mental: os riscos de fazer terapia com IA

Críticos alertam que o potencial de viés da IA, a falta de empatia genuína e a supervisão humana limitada podem, na verdade, colocar em risco a saúde mental dos usuários

André Silva Por André Silva
12 de setembro, 2025
em Saúde
0
Saúde mental: os riscos de fazer terapia com IA

Foto: Shutterstock

Sempre que Luke W. Russell precisa resolver algo, recorre ao ChatGPT.  “Eu chorei enquanto navegava pelas coisas”, disse o cineasta de Indianápolis (EUA), que usa o chatbot para separar pensamentos intrusivos ou navegar por memórias traumáticas. “Inúmeras vezes o que o ChatGPT me diz é tão real, tão poderoso, e me sinto tão profundamente visto”.

A experiência de Russell reflete uma realidade mais ampla e crescente: muitas pessoas estão recorrendo a chatbots para apoio à saúde mental — para tudo, desde o gerenciamento da ansiedade e o processamento do luto até a superação de conflitos no trabalho e apaziguamento de desentendimentos conjugais.

Mais da metade dos adultos entre 18 e 54 anos — e um quarto dos adultos com 55 anos ou mais — afirmam que se sentiriam confortáveis ​​conversando com um chatbot de IA sobre sua saúde mental, de acordo com uma pesquisa de 2025 realizada pela Harris Poll e pela Associação Americana de Psicologia (APA).

O problema: o ChatGPT da OpenAI e outros chatbots — como o Claude da Anthropic e o Gemini do Google — não foram projetados para isso.

Mesmo os produtos de IA promovidos como ferramentas de saúde emocional — como Replika, Wysa, Youper e MindDoc — não foram desenvolvidos com base em métodos psicológicos validados, afirmou o psicólogo C. Vaile Wright, PhD, diretor sênior do Escritório de Inovação em Saúde da APA.

“Eu diria que não existe nenhuma terapia assistida por IA aprovada comercialmente no momento”, disse Wright. “Há muitos chatbots sem pesquisa, sem ciência psicológica e sem especialistas no assunto.”

Riscos para saúde mental

Críticos alertam que o potencial de viés da IA, a falta de empatia genuína e a supervisão humana limitada podem, na verdade, colocar em risco a saúde mental dos usuários, especialmente entre grupos vulneráveis, como crianças, adolescentes, pessoas com problemas de saúde mental e aqueles com pensamentos suicidas.

A crescente preocupação levou ao surgimento dos termos “psicose ChatGPT” ou “psicose da IA” — referindo-se aos potenciais efeitos nocivos à saúde mental da interação com a IA.

Isso está até chamando a atenção de legisladores. Nos Estados Unidos, o estado de Illinois decretou restrições à IA na área da saúde mental, proibindo seu uso para terapia e proibindo profissionais de saúde mental de usar a IA para se comunicar com clientes ou tomar decisões terapêuticas. (Restrições semelhantes já foram aprovadas em Nevada e Utah.)

Mas nada disso impede as pessoas de recorrerem a chatbots em busca de suporte, especialmente em meio à escassez de médicos, ao aumento dos custos da terapia e à cobertura inadequada de planos de saúde mental.

“As pessoas têm relatado que experiências com chatbots podem ser úteis”, disse Wright.

O atrativo dos chatbots para a saúde mental

Dados mostram que enfrentamos uma enorme escassez de profissionais de saúde mental, especialmente em áreas remotas e rurais, afirmou a psicóloga Elizabeth Stade, PhD, pesquisadora do Laboratório de Psicologia Computacional e Bem-Estar da Universidade Stanford, em Stanford, Califórnia.

“Dos adultos nos Estados Unidos com necessidades significativas de saúde mental, apenas cerca de metade consegue acessar qualquer forma de tratamento. Entre os jovens, esse número se aproxima de 75%”, disse Jessica Schleider, PhD, psicóloga infantil e adolescente da Universidade Northwestern, em Chicago.

“A escassez de profissionais está claramente contribuindo para que tantas pessoas estejam recorrendo aos seus dispositivos e, agora cada vez mais, à IA generativa para preencher essa lacuna.”

Ao contrário de um terapeuta, um chatbot está disponível 24 horas por dia, 7 dias por semana. “Quando [as pessoas]mais precisam de ajuda, geralmente é depois do expediente”, disse Wright, que sugeriu que a ferramenta de IA certa poderia potencialmente complementar a terapia humana. “Quando são 2 da manhã e você está em crise, isso poderia ajudar a fornecer algum apoio?” Provavelmente, disse ela.

Os resultados do primeiro ensaio clínico de um chatbot de terapia generativa com IA mostraram “reduções significativas e clinicamente significativas nos sintomas de depressão, ansiedade e transtornos alimentares” em quatro a oito semanas, afirmou o principal autor do estudo, Dr. Michael V. Heinz, professor da Escola de Medicina Geisel do Dartmouth College e membro do corpo docente do Centro de Tecnologia e Saúde Comportamental em Lebanon, New Hampshire.

O chatbot — Therabot, desenvolvido em Dartmouth — combina treinamento extensivo em intervenções psicoterapêuticas baseadas em evidências com IA generativa avançada.

“Observamos altos níveis de engajamento dos usuários — mais de seis horas em média durante todo o estudo”, disse Heinz.

Os participantes disseram que usar o Therabot era como conversar com um terapeuta humano. Mas os resultados ainda são iniciais e mais estudos são necessários, disse Heinz.

O acesso e a acessibilidade financeira atraíram Russell para o ChatGPT, disseram eles. “Eu não pretendia usar o ChatGPT como terapeuta. Abandonei a terapia em janeiro devido à queda na renda. Eu já usava o ChatGPT regularmente para o trabalho e depois comecei a usá-lo para explorar ideias pessoais. … Nunca tive um terapeuta tão ágil quanto o ChatGPT e que ignorasse questões diversas”, disse ele.

Posts Relacionados

Insônia: nova classe de medicamentos DORA chega como opção ao zolpidem

Insônia: nova classe de medicamentos DORA chega como opção ao zolpidem

23 de abril, 2026
Beleza cresce no digital e muda o jogo nas farmácias

Beleza cresce no digital e muda o jogo nas farmácias

23 de abril, 2026

Ministério da Saúde alerta para risco de casos de sarampo após Copa

23 de abril, 2026

Não erre o horário dos medicamentos: veja guia completo com todos os intervalos

22 de abril, 2026

Talvez um dos aspectos mais atraentes seja o fato de os chatbots não julgarem. “As pessoas relutam em ser julgadas e, por isso, muitas vezes relutam em revelar sintomas”, disse Jonathan Gratch, PhD, professor de ciência da computação e psicologia na Universidade do Sul da Califórnia, que pesquisou o tema.

Um de seus estudos descobriu que veteranos militares eram mais propensos a compartilhar sintomas de TEPT com um chatbot virtual do que em uma pesquisa.

Quando os chatbots são nocivos

A maioria das pessoas não sabe como a IA funciona — elas podem acreditar que ela é sempre objetiva e factual, disse Henry A. Willis, PhD, psicólogo e professor da Universidade de Maryland em College Park.

Mas, muitas vezes, os dados com os quais são treinados não são representativos de grupos minoritários, levando a preconceitos e racismo mediado pela tecnologia, disse Willis.

“Sabemos que as comunidades negras e pardas não são adequadamente refletidas na maioria dos estudos de pesquisa em saúde mental em larga escala”, disse Willis.

Portanto, as informações sobre sintomas clínicos ou recomendações de tratamento de um chatbot podem não ser relevantes ou úteis para pessoas de origens minoritárias.

Há também um aspecto impessoal. Os chatbots praticam o que se chama de falácia ecológica, disse H. Andrew Schwartz, PhD, professor associado de ciência da computação na Universidade Stony Brook, em Stony Brook, Nova York.

Eles tratam comentários dispersos como pontos de dados aleatórios, fazendo suposições baseadas em dados de grupo que podem não refletir a realidade dos indivíduos.

E quem é o responsável se algo der errado? Os chatbots foram associados a casos envolvendo sugestões de violência e automutilação, incluindo a morte de um adolescente por suicídio.

Alguns chatbots comercializados para companheirismo e apoio emocional foram projetados com outro incentivo: ganhar dinheiro.

Wright está preocupado que eles possam validar os pacientes incondicionalmente, dizendo-lhes o que eles querem ouvir para que permaneçam na plataforma — “mesmo que o que eles estejam dizendo seja realmente prejudicial ou que estejam validando respostas prejudiciais do usuário”.

Nenhuma dessas conversas está sujeita aos regulamentos da HIPAA, destacou Wright. “Portanto, mesmo que eles possam estar solicitando informações pessoais ou compartilhando suas informações pessoais, eles não têm obrigação legal de protegê-las.”

Implicações da formação de vínculos emocionais com a IA

Em um artigo de opinião publicado em abril na revista Trends in Cognitive Sciences, psicólogos expressaram preocupação com as implicações a longo prazo da formação de vínculos emocionais com a IA.

Os chatbots podem substituir os relacionamentos reais dos usuários, afastando parceiros românticos, colegas de trabalho e amigos.

Isso pode significar que os indivíduos começam a “confiar” na opinião e no feedback dos chatbots em detrimento de pessoas reais, disse Willis.

“O reforço positivo contínuo que pode ocorrer instantaneamente ao interagir com um chatbot pode começar a ofuscar qualquer reforço da interação com pessoas reais”, que podem não conseguir se comunicar tão rapidamente, disse ele.

“Esses vínculos emocionais também podem prejudicar a capacidade das pessoas de ter um nível saudável de ceticismo e habilidades de avaliação crítica em relação às respostas dos chatbots de IA.”

Gratch comparou isso à fome e à comida. “Somos biologicamente programados para procurar comida quando sentimos fome. O mesmo acontece com os relacionamentos sociais. Se não temos um relacionamento há algum tempo, podemos nos sentir solitários, e isso nos motiva a sair e entrar em contato com as pessoas.”

Mas estudos sugerem que a interação social com um programa de computador, como um chatbot, pode saciar as necessidades sociais de uma pessoa e desmotivá-la a sair com os amigos, disse ele. “Isso pode ter consequências a longo prazo para o aumento da solidão. Por exemplo, pesquisas mostraram que pessoas que usam o Facebook compulsivamente tendem a ser muito mais solitárias.”

O aconselhamento com um terapeuta envolve “uma curiosidade natural sobre o indivíduo e suas experiências que a IA não consegue replicar”, disse Willis.

“Os chatbots de IA respondem a estímulos, enquanto os terapeutas podem observar e fazer perguntas clínicas com base na linguagem corporal, uma síntese de seu histórico e outras coisas que podem não ser conscientes para o cliente — ou coisas que o cliente pode nem mesmo saber que são importantes para seu bem-estar mental.”

O futuro da terapia com IA

“Acredito que haverá um futuro em que teremos [chatbots]realmente bem desenvolvidos para abordar a saúde mental, com base científica, e onde eles garantirão a existência de proteções quando alguém estiver em crise. Ainda não chegamos lá”, disse Wright, da APA.

“Podemos chegar a um ponto em que eles sejam até reembolsados ​​pelo seguro”, disse ela. “Acredito que cada vez mais veremos os provedores começarem a adotar essas ferramentas tecnológicas como forma de atender às necessidades de seus pacientes.”

Mas, por enquanto, sua mensagem é clara: os chatbots ainda não chegaram lá.

“Idealmente, o design dos chatbots deve incentivar a interação sustentada e significativa com o objetivo principal de fornecer terapia baseada em evidências”, disse Heinz, de Dartmouth.

Até lá, não confie muito neles, alertaram os especialistas — e lembre-se: eles não substituem a ajuda profissional.

Fonte: Guia da Farmácia
André Silva

André Silva

Posts Relacionados

Insônia: nova classe de medicamentos DORA chega como opção ao zolpidem
Saúde

Insônia: nova classe de medicamentos DORA chega como opção ao zolpidem

Por André Silva
23 de abril, 2026
Beleza cresce no digital e muda o jogo nas farmácias
Beleza

Beleza cresce no digital e muda o jogo nas farmácias

Por André Silva
23 de abril, 2026
Ministério da Saúde alerta para risco de casos de sarampo após Copa
Doenças

Ministério da Saúde alerta para risco de casos de sarampo após Copa

Por André Silva
23 de abril, 2026
Proximo post
Você sabia? Versão brasileira do “Parabéns a Você” foi escrita por uma farmacêutica

Você sabia? Versão brasileira do "Parabéns a Você" foi escrita por uma farmacêutica

Deixe um comentário Cancelar resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios marcados com *

Recomendados

Insônia: nova classe de medicamentos DORA chega como opção ao zolpidem

Insônia: nova classe de medicamentos DORA chega como opção ao zolpidem

23 de abril, 2026
Beleza cresce no digital e muda o jogo nas farmácias

Beleza cresce no digital e muda o jogo nas farmácias

23 de abril, 2026
Ministério da Saúde alerta para risco de casos de sarampo após Copa

Ministério da Saúde alerta para risco de casos de sarampo após Copa

23 de abril, 2026
Não erre o horário dos medicamentos: veja guia completo com todos os intervalos

Não erre o horário dos medicamentos: veja guia completo com todos os intervalos

22 de abril, 2026
Anvisa aprova Mounjaro para criança e adolescente com diabetes tipo 2

Anvisa aprova Mounjaro para criança e adolescente com diabetes tipo 2

22 de abril, 2026
Fabricante de preservativos pode subir preços em 30% devido à guerra no Irã

Fabricante de preservativos pode subir preços em 30% devido à guerra no Irã

22 de abril, 2026

© Farmanato Comercio de Medicamentos Ltda. Todos os direitos reservados. 10.700.167/0001-19

Nossas Redes

No Result
View All Result
  • Menu
    • Quem somos
    • Trabalhe conosco
    • SAC
    • Nossas lojas
  • Home
  • Saúde
  • Vida saudável
    • Fitness
    • Nutrição
  • Beleza
  • Encarte
  • Acontece

© Fcnn Comercio de Medicamentos Ltda. Todos os direitos reservados. 26.843.356/0001-80