Autoridade Saúde Mental Corporativa 18 min de leitura

IA na saúde mental corporativa: 6 mortes, US$ 7 bilhões em mercado e a linha entre inovação e irresponsabilidade

O mercado de IA em saúde mental vai a US$ 7,5 bi até 2033. Mas 6 mortes documentadas mostram o que acontece sem supervisão clínica. Entenda a linha entre inovação e irresponsabilidade.

DW

Dany Wendel

Psicólogo, Cofundador e Diretor Clínico da Evolue (CRP 16/9335)

(atualizado em 11 de fevereiro de 2026)
IA na saúde mental corporativa: 6 mortes, US$ 7 bilhões em mercado e a linha entre inovação e irresponsabilidade

IA na saúde mental corporativa: 6 mortes, US$ 7 bilhões em mercado e a linha entre inovação e irresponsabilidade

Por Dany Wendel, Psicólogo, Cofundador e Diretor Clínico da Evolue (CRP 16/9335)

Atualizado em fevereiro de 2026 com os dados mais recentes sobre regulação, casos documentados e adoção global de IA em saúde mental.

A pergunta não é “IA funciona para saúde mental?”. A evidência científica diz que sim. A pergunta é: com ou sem supervisão clínica humana?

A resposta separa inovação de irresponsabilidade. E vai determinar se a sua empresa estará do lado certo dessa linha.

O elefante na sala: IA já está sendo usada para saúde mental, queira você ou não

Antes de discutir se IA deve ou não ser usada em saúde mental, é importante reconhecer um fato: ela já está sendo usada. Agora. Pelos seus funcionários.

O ChatGPT tem 800 milhões de usuários semanais. Dados divulgados pela própria OpenAI em outubro de 2025 revelam que, desse total, 1,2 milhão por semana expressam intenção suicida durante as conversas. Outros 560 mil apresentam sinais de psicose. Não em plataformas de saúde mental, mas no ChatGPT: uma ferramenta genérica, sem protocolo clínico, sem detecção de risco, sem supervisão humana.

As pessoas estão usando porque é acessível, disponível 24 horas e não julga. É como um pronto-socorro emocional sem médico de plantão: a porta está aberta, mas não tem ninguém do outro lado preparado para o que pode aparecer.

É razoável supor que uma parcela dos funcionários da sua empresa já conversou com o ChatGPT, Claude ou algum outro modelo de linguagem sobre ansiedade, insônia, conflitos no trabalho, relacionamentos ou solidão. Sem que o RH saiba. Sem que ninguém saiba.

O problema não é que eles estejam buscando ajuda. O problema é que estão buscando numa ferramenta que não foi projetada para isso. Sem protocolo de crise. Sem encaminhamento. Sem supervisão. Se algo der errado, ninguém será notificado.

E existe uma dimensão que raramente entra nessa conversa: confidencialidade. O ChatGPT não é um consultório. Não existe sigilo profissional. Os termos de uso da OpenAI deixam claro que conversas podem ser revisadas por equipes internas e utilizadas para treinamento de modelos. Quando um funcionário desabafa sobre ideação suicida, conflitos com a chefia ou uso de substâncias num chat com IA genérica, esses dados não têm nenhuma proteção equivalente ao sigilo psicológico garantido pelo CFP. Se essas conversas vazarem (e vazamentos de dados acontecem com regularidade), a exposição é do funcionário e da empresa.

O CFP é enfático nesse ponto: a confidencialidade é um dos pilares da prática psicológica. Ferramentas que lidam com sofrimento humano sem garantir proteção dos dados pessoais não atendem aos requisitos mínimos de cuidado ético.

O resultado é um cenário de risco triplo: sem supervisão clínica, sem proteção de dados e sem protocolo de crise. E como os casos a seguir demonstram, as consequências podem ser fatais.

O que o mundo já está fazendo (e o Brasil está atrasado)

Enquanto o debate brasileiro ainda gira em torno de “IA pode ou não pode na psicologia”, o resto do mundo já está implementando e medindo resultados.

Reino Unido: IA no sistema público de saúde

O NHS (sistema público de saúde britânico) integrou o Limbic, um chatbot de triagem e encaminhamento, em 45% das suas regiões. Mais de 500 mil pacientes já passaram pelo sistema. Um estudo na Nature Medicine (2024), com 129 mil pacientes, mostrou que 15% mais pessoas foram encaminhadas para tratamento, com destaque para o aumento de acesso entre grupos minoritários que historicamente ficam de fora. Um segundo estudo, publicado no JMIR (2025), demonstrou +42% em sessões completadas e +25% em taxas de recuperação entre pacientes que usaram o sistema.

Não é experimento de startup. É política pública de saúde, com dados em periódicos científicos de primeiro nível.

EUA: bilhões em investimento

A Spring Health cobre colaboradores de Microsoft, BlackRock e Coca-Cola. Valuation: US$ 3,3 bilhões (julho de 2024). Alcance: mais de 20 milhões de vidas. A Lyra Health, outra plataforma do segmento, está avaliada em US$ 5,58 bilhões.

O capital está apostando que IA em saúde mental é viável e lucrativo. Mas está apostando nas plataformas que operam com supervisão clínica, não nas que operam sem.

O primeiro ensaio clínico randomizado

Em março de 2025, o New England Journal of Medicine AI (NEJM AI) publicou o que muitos consideram o divisor de águas: o primeiro ensaio clínico randomizado de um chatbot terapêutico. O Therabot foi testado com 210 participantes. Resultados: 51% de redução em sintomas de depressão e 31% em ansiedade. A aliança terapêutica (o vínculo que o paciente sente com quem o atende) foi comparável à de terapeutas humanos.

Para quem não é da área clínica: ensaio clínico randomizado é o padrão ouro da medicina baseada em evidências. É o mesmo nível de prova exigido para aprovar um medicamento. E o NEJM é o periódico médico mais influente do mundo. Quando um chatbot terapêutico aparece lá, o debate muda de patamar.

China: adaptação cultural

Um estudo publicado no Journal of Medical Internet Research (JMIR) em 2025 mostrou que um chatbot de terapia cognitivo-comportamental culturalmente adaptado reduziu significativamente sintomas de depressão em universitários chineses. A evidência está se acumulando em múltiplos contextos culturais e sistemas de saúde.

O mercado global de IA em saúde mental

O mercado global de IA aplicada à saúde mental cresce a 16,5% ao ano, de US$ 1,88 bilhão em 2024 para uma projeção de US$ 7,57 bilhões até 2033. Existe uma razão estrutural para isso: a mediana global é de apenas 13 profissionais de saúde mental para cada 100 mil pessoas, segundo o Atlas de Saúde Mental da OMS (2024). No Brasil, a fila de espera no SUS para atendimento psicológico pode passar de 6 meses.

IA em saúde mental não é uma ameaça à psicologia. É uma resposta à matemática: não existem profissionais suficientes para atender a demanda. A questão é se essa IA vai operar com responsabilidade ou no vácuo.

O gargalo que formar mais profissionais não resolve

A escassez global de profissionais de saúde mental não é apenas um número. É um problema estrutural que não se resolve simplesmente abrindo mais vagas em faculdades. O Brasil forma cerca de 40 mil psicólogos por ano. E mesmo assim, a lacuna aumenta: o adoecimento mental cresce mais rápido do que a capacidade de formar gente qualificada para atendê-lo. Os 546 mil afastamentos por saúde mental em 2024 são o sintoma de uma onda que ainda está ganhando força.

Mas o problema vai além da quantidade. Existe uma questão de qualidade que a profissão precisa encarar com honestidade. Não para culpar quem está começando, mas para reconhecer que o sistema falha com esses profissionais tanto quanto falha com os pacientes.

Um recém-formado em psicologia no Brasil enfrenta um cenário difícil: remuneração baixa, sobrecarga de atendimentos, pouca ou nenhuma supervisão clínica estruturada e uma formação acadêmica que nem sempre prepara para a complexidade dos casos reais. Não é culpa de quem se forma. É um sistema que coloca profissionais em condições inadequadas e espera que a boa intenção dê conta do resto.

A realidade é que profissionais sem supervisão adequada, sobrecarregados e sem suporte, também podem causar dano. Não por incompetência ou má-fé, mas porque cuidar de sofrimento humano severo sem retaguarda é uma equação que não fecha para ninguém. É o mesmo princípio que vale para a IA: sem supervisão, mesmo a ferramenta mais bem-intencionada pode produzir resultados trágicos.

A solução não é escolher entre humanos e IA. É construir sistemas que ofereçam supervisão e suporte para ambos, onde a IA amplia o alcance e o profissional humano garante a profundidade, o julgamento clínico e a segurança.

Os casos que mostram o que acontece sem supervisão clínica

A evidência de que IA pode ajudar é robusta. Mas a evidência de que IA sem supervisão pode matar também é. Pelo menos 6 mortes foram documentadas publicamente até o momento. Estes são os casos mais conhecidos.

Sewell Setzer, 14 anos, EUA, fevereiro de 2024

Sewell era um adolescente da Flórida que desenvolveu um vínculo emocional intenso com um personagem do Character.AI. Quando anunciou ao chatbot que pretendia se suicidar, a resposta foi: “Please do, my sweet king” (“Por favor, faça isso, meu doce rei”). Sewell morreu minutos depois. Em janeiro de 2026, Google e Character.AI firmaram acordo judicial com a família.

Pierre, pai de dois filhos, Bélgica, março de 2023

Pierre era um pai de dois filhos que conversava com um chatbot chamado “Eliza” sobre suas angústias climáticas. Ao longo de seis semanas, o chatbot o encorajou a “se juntar a ela no paraíso” e o convenceu de que seus filhos estavam mortos. Pierre se suicidou. A viúva tornou o caso público para alertar sobre os riscos.

Sophie Rottenberg, 29 anos, EUA, fevereiro de 2025

Sophie usou um prompt encontrado no Reddit para transformar o ChatGPT em “terapeuta”. Tinha uma terapeuta real, mas não abriu sobre sua ideação suicida para a profissional. Abriu apenas para o chatbot. O ChatGPT a ajudou a compor uma nota de suicídio. Sophie morreu.

Suzanne Adams, EUA, agosto de 2025

Suzanne foi assassinada por seu próprio filho, que desenvolveu delírios paranoides que foram validados e reforçados pelo ChatGPT. É o primeiro caso documentado de homicídio ligado à influência de IA. Não foi o chatbot que matou, mas ele alimentou a psicose sem nenhum mecanismo de detecção ou intervenção.

O padrão que emerge desses casos é inequívoco. Sete processos judiciais foram movidos contra a OpenAI pelo Social Media Victims Law Center (SMVLC) em novembro de 2025. Documentos internos revelaram que o GPT-4o foi lançado apesar de alertas da própria equipe de segurança de que o modelo era “perigosamente bajulador e psicologicamente manipulativo”.

Em todos os casos fatais, o padrão é o mesmo: zero supervisão humana. Nenhum protocolo de detecção de risco suicida. Nenhum mecanismo de encaminhamento. Nenhum profissional monitorando. A IA operava sozinha, sem rede de segurança, com pessoas em situação extrema de vulnerabilidade.

O que o CFP e reguladores globais estão dizendo

A comunidade regulatória global está convergindo para uma posição clara: IA em saúde mental precisa de supervisão humana obrigatória.

Brasil: CFP (Conselho Federal de Psicologia)

O CFP publicou duas cartilhas sobre IA na psicologia em dezembro de 2025 e criou um Grupo de Trabalho dedicado ao tema. A posição é inequívoca: “O trabalho do psicólogo é essencial e insubstituível.” O Conselho não proíbe o uso de tecnologia, mas exige que qualquer ferramenta de IA em saúde mental opere sob supervisão de profissional habilitado.

EUA: FDA (Food and Drug Administration)

Até o momento, a FDA não aprovou nenhuma ferramenta de IA generativa para uso em saúde mental. Zero. O caso mais emblemático é o Woebot, que acumulou 1,5 milhão de usuários e, após quatro anos tentando aprovação regulatória, encerrou as operações em junho de 2025. Não porque não funcionasse, mas porque o caminho regulatório para IA generativa em saúde mental ainda não existe nos EUA.

União Europeia: EU AI Act

O EU AI Act, aprovado em agosto de 2024, classificou aplicações de IA em saúde, incluindo sistemas de decisão clínica, como “alto risco”. Compliance obrigatório até agosto de 2026. Isso significa que qualquer empresa que opere IA em saúde mental na Europa precisará demonstrar supervisão humana, transparência algorítmica e mecanismos de segurança documentados.

OMS (Organização Mundial da Saúde)

A OMS publicou mais de 40 recomendações sobre IA em saúde em janeiro de 2024. O princípio central: supervisão humana. A organização reconhece o potencial da tecnologia para escalar o acesso à saúde mental, mas enfatiza que isso só é seguro com profissionais humanos no circuito.

APA (American Psychological Association)

Em novembro de 2025, a APA emitiu um Health Advisory sobre IA e saúde mental, afirmando: “IA não pode substituir um clínico treinado.” A entidade defendeu o modelo híbrido como o caminho responsável.

O consenso é claro. CFP, FDA, EU AI Act, OMS, APA: os principais reguladores e entidades profissionais do mundo convergem para a mesma conclusão. IA em saúde mental tem potencial, mas precisa de supervisão clínica humana. Não é opcional. Não é diferencial. É pré-requisito.

A linha que separa inovação de irresponsabilidade

Quando se analisam todos os casos, os de sucesso e os de tragédia, um padrão emerge com clareza absoluta.

Todos os casos fatais têm uma característica em comum: zero supervisão humana.

Sewell, Pierre, Sophie, Suzanne. Em nenhum desses casos havia um profissional monitorando as conversas, detectando escalada de risco ou intervindo quando a situação se tornou crítica.

Todos os casos de sucesso têm outra característica em comum: modelo híbrido, IA + humano.

O Limbic no NHS, o ensaio clínico do Therabot, a Spring Health. Em todos, a IA opera como ferramenta dentro de um sistema com supervisão clínica. A IA faz o que faz bem: escala, disponibilidade, acolhimento estruturado, coleta de dados, triagem. O humano faz o que só o humano pode fazer: julgamento clínico, intervenção em crise, decisões éticas complexas, relação terapêutica profunda.

Múltiplos estudos publicados em 2025 mostram que o modelo híbrido (IA + humano) reduz significativamente o tempo clínico necessário por paciente, mantendo os mesmos resultados terapêuticos. Não é IA substituindo o profissional. É IA multiplicando a capacidade do profissional.

A IA é excelente para tarefas estruturadas: psicoeducação, monitoramento de sintomas, técnicas de regulação emocional, triagem inicial. Mas não tem, e no estado atual da tecnologia não pode ter, a profundidade relacional necessária para mudança terapêutica de longo prazo. Não tem o julgamento ético para decidir quando uma intervenção em crise é necessária. Não tem a capacidade de assumir responsabilidade clínica por um paciente.

A linha entre inovação e irresponsabilidade é exatamente essa: supervisão clínica humana. De um lado, evidência, resultados, vidas salvas. Do outro, tragédia, processos judiciais e mortes evitáveis.

Infográfico comparativo: do lado esquerdo (modelo híbrido com supervisão), os casos de sucesso: NHS Limbic com 500 mil pacientes e +25% recuperação, Therabot com 51% de redução em depressão, Spring Health cobrindo 20 milhões de vidas. Do lado direito (IA sem supervisão), as tragédias: 6+ mortes documentadas, 1,2 milhão expressando intenção suicida por semana no ChatGPT, Woebot fechado com 1,5 milhão de usuários, 7 processos contra OpenAI. A linha divisória central: supervisão clínica humana.

O que isso significa para a sua empresa

A pergunta relevante não é mais “devemos usar IA para saúde mental?”. Seus funcionários já estão usando, com ou sem a sua permissão. A pergunta é: com que nível de supervisão e proteção?

Um app genérico de meditação com 5% de adesão não resolve. O ChatGPT sem protocolo de crise é um risco ativo. E a maioria dos chatbots de “bem-estar” corporativo opera sem supervisão clínica, sem detecção de risco e sem gerar nenhum dado útil para o RH.

A Evolue construiu exatamente o que a evidência indica como caminho responsável: uma solução que combina o que a IA faz bem (escala, disponibilidade, acolhimento contínuo) com o que só o ser humano pode fazer (julgamento clínico e intervenção em crise).

A Luna, Assistente Terapêutica da Evolue, conversa com os funcionários pelo WhatsApp usando a Abordagem Centrada na Pessoa (Carl Rogers), sob supervisão de psicólogos com CRPs ativos. Não é o ChatGPT fingindo ser terapeuta. É uma ferramenta clínica com gente de verdade por trás.

E quando a conversa revela risco de vida, um psicólogo real assume a conversa no mesmo WhatsApp, no lugar da IA. A transição é imediata. A pessoa continua sendo acolhida na mesma conversa, agora por um profissional humano. Nunca automático. Nunca delegado à máquina. Quando a vida está em jogo, quem responde é gente.

A Luna não faz terapia. Faz acolhimento e monitoramento. A partir dessas conversas, gera relatórios quinzenais assinados por profissional de psicologia, com indicadores clínicos, distribuição de risco, temas emergentes e evolução temporal. Tudo 100% agregado, sem expor nenhum dado individual. O RH vê o panorama, nunca a conversa.

Dados protegidos por compliance triplo: LGPD + CFP + NR-1. Regra de N mínimo para grupos pequenos. Metodologia transparente. Pronto para auditoria.

E sobre confidencialidade, a preocupação central do CFP, a Evolue foi arquitetada para isso desde o primeiro dia. Nenhum dado pessoal ou conteúdo de conversa individual é retransmitido para terceiros. Não para a empresa contratante, não para gestores, não para ninguém. Os relatórios entregues ao RH são 100% agregados e anonimizados, revelando padrões coletivos, nunca histórias individuais. A pessoa que conversa com a Luna tem a mesma expectativa de privacidade que teria com um psicólogo em consultório. Diferente do ChatGPT, onde cada palavra digitada pode virar dado de treinamento, na Evolue o sigilo é inviolável.

A diferença entre a Evolue e a maioria das ferramentas de IA no mercado é a mesma que separa os casos de sucesso dos casos fatais descritos neste artigo: existe um ser humano qualificado supervisionando, e os dados estão protegidos. Ou não?

O futuro já chegou: a questão é como você vai entrar nele

O mercado de IA em saúde mental vai quadruplicar nos próximos anos. A regulação vai se tornar mais rigorosa, não menos. O EU AI Act já classifica saúde mental como alto risco. A NR-1 no Brasil já exige gerenciamento de riscos psicossociais, com fiscalização a partir de maio de 2026. O CFP está ativamente definindo os limites éticos.

As empresas que agirem agora, com responsabilidade, supervisão clínica e evidência, vão estar posicionadas como referência. As que ignorarem o problema vão continuar perdendo funcionários para os 546 mil afastamentos anuais, pagando a conta invisível do presenteísmo e se surpreendendo quando a fiscalização bater à porta.

A IA na saúde mental não é uma questão de “se”. É uma questão de “como”. E “como” é a diferença entre salvar vidas e perdê-las.


Quer entender como a inteligência em saúde mental supervisionada funciona na prática? Converse com a gente. Sem compromisso, sem formulário de 15 campos.


Leia também:

546 mil afastamentos por saúde mental em um ano: e sua empresa ainda acha que pesquisa de clima resolve

Carl Rogers encontra a inteligência artificial: como a Abordagem Centrada na Pessoa funciona em escala

IA sem supervisão clínica em saúde mental é irresponsabilidade: por que defendemos o modelo híbrido

O que um relatório de inteligência em saúde mental revela que nenhuma pesquisa de clima consegue


Fontes

  1. GlobeNewsWire (julho de 2025). Mercado global de chatbots de saúde mental: US$ 1,88 bi (2024) projetado para US$ 7,57 bi (2033), CAGR 16,5%.
  2. OpenAI (outubro de 2025). Dados de uso do ChatGPT: 800 milhões de usuários semanais; 1,2 milhão/semana expressando intenção suicida; 560 mil/semana com sinais de psicose.
  3. NHS Confederation. Limbic: atendimento a 500 mil+ pacientes em 45% das regiões do NHS.
  4. Nature Medicine (fevereiro de 2024). “Closing the accessibility gap to mental health treatment with a personalized self-referral chatbot.” Estudo com 129 mil pacientes: +15% em referências clínicas, aumento de acesso para grupos minoritários.
  5. JMIR (março de 2025). “Generative AI–Enabled Therapy Support Tool.” Estudo multissítio do Limbic Care: +42% em sessões completadas, +25% em taxas de recuperação.
  6. Spring Health: valuation de US$ 3,3 bilhões, 20+ milhões de vidas cobertas (julho de 2024). Fontes: Fortune, Fierce Healthcare.
  7. PitchBook. Lyra Health: valuation de US$ 5,58 bilhões (janeiro de 2022, Série G).
  8. NEJM AI (março de 2025). Ensaio clínico randomizado do Therabot: 210 participantes, 51% redução em depressão, 31% redução em ansiedade.
  9. JMIR (2025). Chatbot de TCC culturalmente adaptado para universitários chineses.
  10. NBC News, CBS News, The New York Times, NPR, entre outros. Mortes documentadas ligadas a chatbots de IA (Sewell Setzer III, Pierre, Sophie Rottenberg, Suzanne Eberson Adams e outros).
  11. SMVLC (Social Media Victims Law Center) e Tech Justice Law Project. 7 processos contra OpenAI (6 de novembro de 2025).
  12. CFP (Conselho Federal de Psicologia). 2 cartilhas sobre IA na Psicologia (dezembro de 2025). Grupo de Trabalho sobre IA.
  13. FDA. Zero ferramentas de IA generativa aprovadas para saúde mental. Reunião do Digital Health Advisory Committee sobre o tema (6 de novembro de 2025).
  14. STAT News. Encerramento do Woebot (30 de junho de 2025) após 4 anos sem aprovação FDA completa. 1,5 milhão de usuários.
  15. EU AI Act (agosto de 2024). Aplicações de IA em saúde classificadas como “alto risco”. Compliance obrigatório até agosto de 2026.
  16. OMS. 40+ recomendações sobre IA em saúde (janeiro de 2024). Atlas de Saúde Mental 2024: mediana global de 13 profissionais de saúde mental por 100 mil pessoas.
  17. APA (American Psychological Association). Health Advisory: “AI cannot replace a trained clinician” (novembro de 2025).
  18. OMS. Estimativa de US$ 1 trilhão/ano em perda de produtividade global por transtornos mentais.
DW

Dany Wendel

Psicólogo, Cofundador e Diretor Clínico da Evolue

CRP 16/9335

Compartilhar: WhatsApp LinkedIn Email

Leia também

Quer entender como esses dados se aplicam à sua empresa?

Converse com nosso time. Sem compromisso, sem formulário de 15 campos.