Com ChatGPT Health, Open IA reacende o debate sobre os limites da IA na saúde mental
Integração responsável entre inovação, ética e cuidado humano deve ser ponto de atenção
Em meio ao Janeiro Branco, mês dedicado globalmente à conscientização sobre a importância da saúde mental, a OpenAI anunciou o lançamento do ChatGPT Health, nova frente da plataforma voltada à aplicação da inteligência artificial em contextos de saúde, com foco especial no bem-estar emocional. A iniciativa, que inclui alertas para pausas em interações prolongadas e mecanismos capazes de identificar sinais de sofrimento psicológico, amplia o debate sobre até onde a tecnologia pode e deve atuar no cuidado emocional das pessoas.
O anúncio acontece em um contexto de crescente uso da IA como ferramenta de apoio emocional. Segundo uma pesquisa da Harvard Business Review, aplicações relacionadas a aconselhamento terapêutico e bem-estar emocional já figuram como a principal motivação para o uso de ferramentas de IA generativa no mundo. No Brasil, o movimento segue a mesma tendência, sendo que um em cada dez usuários recorre à tecnologia para apoio psicológico, de acordo com levantamento da Talk Inc.
Apesar dos avanços e da promessa de maior acessibilidade, especialistas reforçam que a evolução tecnológica precisa caminhar lado a lado com responsabilidade clínica, ética e limites bem definidos. Para Rui Brandão, vice-presidente de saúde mental da Conexa, plataforma digital de saúde física e mental, os dados reforçam a necessidade de cautela.
“Já existem evidências de que modelos como o ChatGPT podem falhar na interpretação do sofrimento humano, deixando escapar nuances emocionais ou até oferecendo respostas inadequadas em contextos sensíveis. Um estudo recente publicado no portal científico arXiv mostra que, enquanto terapeutas humanos responderam de forma adequada em 93% dos testes, sistemas de IA acertaram, em média, apenas 50% das respostas dentro dos padrões terapêuticos básicos”, explica o executivo.
Ele completa dizendo que a indústria tem avançado e o ChatGPT Health é um reflexo desse esforço, mas é fundamental deixar claro que a IA pode apoiar no acolhimento inicial e no monitoramento de sintomas, jamais substituir a relação terapêutica humana.
Leandro Oliveira, diretor da Humand no Brasil, plataforma de RH e cultura organizacional, também chama atenção para o assunto. “Existe um perigo real quando tentamos resolver questões profundamente humanas com ferramentas que não vivenciam emoções, contexto ou vínculo. Bem-estar emocional exige empatia, confiança e conexão genuína”, pontua.
Tecnologia como apoio
Rui e Leandro reconhecem que o ChatGPT Health representa um avanço importante ao ampliar o acesso ao suporte emocional, especialmente em um cenário marcado por filas de espera, escassez de profissionais e limitações de horário. A capacidade da IA de operar 24 horas por dia pode funcionar como um ponto de contato inicial relevante para pessoas em sofrimento.
O executivo da Conexa vê a disponibilidade contínua como um diferencial, principalmente para quem enfrenta crises fora do horário de funcionamento das clínicas tradicionais. Apesar disso, há limitações estruturais difíceis de contornar, uma vez q eu a prática terapêutica envolve muito mais do que o diálogo textual: gestos, silêncios, pausas e expressões são elementos essenciais do processo de cuidado, e permanecem fora do alcance dos modelos de linguagem.
Muitas vezes, reforça o diretor da Humand, o que torna a terapia humana eficaz são justamente suas, por assim dizer, “imperfeições”: o processo de cura é não linear, exige tempo e construção de vínculo. Dessa forma, torná-lo excessivamente eficiente por meio da IA pode eliminar os próprios elementos que sustentam o cuidado.
No ambiente corporativo, onde ferramentas generativas também ganham espaço, o alerta se repete. “A inteligência artificial pode otimizar processos, mas não substitui os pequenos gestos que constroem cultura organizacional, como escuta ativa, trocas espontâneas e criatividade coletiva”, diz Leandro.
Privacidade e segurança de dados
Outro ponto crítico diz respeito à proteção de dados sensíveis. Conversas sobre saúde mental envolvem informações altamente confidenciais, o que amplia os riscos de vazamentos, uso indevido ou compartilhamento não autorizado, especialmente em contextos que ainda não contam com total aderência às normas de proteção de dados de saúde.
Para Rui, o futuro do uso da IA na saúde passa, necessariamente, por modelos híbridos e seguros. “A tecnologia pode apoiar terapeutas no acompanhamento entre sessões e em processos de psicoeducação, desde que exista governança robusta, transparência e proteção de dados. O objetivo não deve ser tornar profissionais mais parecidos com máquinas, mas usar as máquinas para que eles possam ser ainda mais humanos”, conclui.
Foto: Shutterstock








