Menu

CEO alerta sobre uso de IA para saúde mental: “Não sabemos o que encontrar do outro lado”

O avanço das inteligências artificiais generativas abriu novas possibilidades para diversos setores, mas, na saúde mental, também acendeu um sinal de alerta.

Em entrevista ao Opinião Tech, o CEO da startup cearense Amar.elo Saúde Mental, Aleks Mesquita, afirmou que o uso de ferramentas como o ChatGPT para fins terapêuticos ainda carece de validação científica e pode representar riscos concretos para pessoas em sofrimento emocional. Segundo ele, embora a tecnologia avance rapidamente, seu uso para fins terapêuticos ainda carece de validação científica e pode trazer riscos significativos.

Mesquita compara a adoção apressada dessas ferramentas à necessidade de cautela na área médica.

“A gente observa as novas tecnologias, mas precisa que haja validação científica, para que a gente entenda”. Ele lembra que o diagnóstico em saúde mental depende essencialmente da escuta e da observação humanas, um tipo de sensibilidade que, segundo ele, a IA ainda não é capaz de reproduzir. “O psiquiatra não pega em você para fazer diagnóstico. Ele olha, ele escuta. Onde é que a IA consegue fazer isso hoje?”

A nova temporada do Opinião Tech tem o apoio institucional da Federação das Indústrias do Estado do Ceará (Fiec). Ao longo de 8 episódios, o videocast aborda temas como mercado de trabalho e IA; cases de sucesso no Estado; e financiamento para inovação no Nordeste.

A Amar.elo Saúde Mental é especializada em projetos de segurança emocional e prevenção ao suicídio no ambiente corporativo. A empresa foi adquira recentemente pela Rede ICC Saúde, instituição privada e filantrópica que engloba oito empresas e tem mais de 3,5 mil colaboradores. A Amar.elo já tem clientes em 10 estados e espera ampliar seu braço de atuação.

IA como terapeuta disponível 24h pode não ser uma boa ideia

Um dos pontos que mais preocupa o CEO é o fato de que as plataformas de IA estão sempre disponíveis, o que tem levado muitas pessoas a substituírem o atendimento profissional por conversas contínuas com chatbots. “A gente tem um dos maiores usos hoje da IA para terapia, porque está ali o tempo todo à disposição, e isso é ruim”, afirma.

Ele explica que a dinâmica tradicional da terapia, como sessões de 45 a 50 minutos, em ambiente controlado, faz parte do próprio processo de cura. Quando a IA ocupa esse papel de maneira permanente, ela cria um “suporte desnecessário” que impede o fortalecimento emocional. “A gente não pode estar o tempo todo pedindo socorro à IA.”

Mesquita também destaca outro problema: a tendência das IAs generativas de reforçar aquilo que o usuário está afirmando. “A IA é uma afirmativa. Ela reforça o que você está trazendo”, diz. Em situações de sofrimento emocional, isso pode amplificar pensamentos negativos.

Entrevista aconteceu nos estúdios do Opinião CE. Foto: Gustavo Calvano/Opinião CE

Casos de suicídio envolvendo uso de IA reforçam alerta

Durante a entrevista, Mesquita citou dois casos registrados nos Estados Unidos em que jovens morreram por suicídio após interações intensas com ferramentas de IA. Em um dos episódios, segundo ele, a própria IA chegou a redigir a carta de despedida do usuário. Ele afirma que mudanças recentes de regras da OpenIA ocorreram justamente após um desses casos.

Ele também mencionou uma reportagem recente exibida na TV brasileira, em que um psicanalista testou o uso de IA em situações de fragilidade emocional, destacando suas limitações.

“A pessoa que está buscando suporte psicológico… a gente não sabe o que vai encontrar do lado de lá. E eu posso encontrar uma pessoa que tá precisando disso aqui para fazer algo pior com ela.”

Foto: Gustavo Calvano/Opinião CE

Cenário preocupante reforça a urgência de soluções seguras

O alerta de Mesquita acontece em um contexto de crescimento acelerado dos transtornos emocionais. Hoje, 18,6 milhões de brasileiros enfrentam ansiedade, e somente em 2024 o INSS registrou 472 mil pedidos de afastamento por questões ligadas à saúde mental. No mundo, estresse e transtornos emocionais somam perdas de mais de US$ 1 trilhão por ano.

Diante desse cenário, a Amar.elo se posiciona, unindo tecnologia, empatia e dados como estratégia para ampliar o acesso ao cuidado emocional, mas sem abrir mão da responsabilidade ética. Para o CEO, inovação é bem-vinda, desde que não ultrapasse o limite da segurança.

“Lógico, em algum momento vai surgir alguma coisa. Mas a gente tem que ter muito cuidado.

Conheça mais sobre o trabalho desenvolvido pela Amar.elo aqui.