
Mais do que uma tendência, a inteligência artificial já é uma realidade no campo da saúde. Seu impacto se estende do suporte à decisão clínica ao acolhimento emocional em momentos de crise.
Um exemplo recente é o da OpenAI, que anunciou uma atualização no ChatGPT voltada a aprimorar as respostas em conversas sensíveis e relacionadas à saúde mental.
Com o avanço dessas tecnologias e o surgimento de acordos internacionais de regulamentação, o desafio agora é garantir que a inovação caminhe com segurança e ética.
ChatGPT e o cuidado com a saúde mental
A OpenAI anunciou uma atualização no ChatGPT, voltada a aprimorar as respostas em conversas sensíveis, especialmente em situações que envolvem sofrimento psicológico ou risco de suicídio.
A melhoria foi feita principalmente para tornar o ChatGPT mais seguro em conversas relacionadas à saúde mental e crises emocionais.
Segundo dados divulgados pela própria OpenAI, cerca de 0,15% dos usuários semanais do ChatGPT demonstram sinais de intenção suicida ou sofrimento psicológico intenso. Isso representa mais de um milhão de pessoas por semana.
O uso inadequado da ferramenta como escuta emocional chama atenção do público médico e acadêmico.
Principalmente, pelos riscos: como a falha de encaminhamento e a dependência emocional que pode ser gerada aos usuários.
O que mudou no ChatGPT
A OpenAI implementou melhorias voltadas à detecção de sinais de angústia emocional e ao redirecionamento de respostas em tempo real.
A empresa contou com a colaboração de mais de 170 especialistas em saúde mental na reformulação do modelo, garantindo que o sistema reconheça contextos sensíveis e responda de forma mais segura.
Agora, em situações de risco, o ChatGPT é capaz de encaminhar o usuário para serviços de apoio, como linhas de prevenção ao suicídio e contatos de emergência.
Regulamentação e segurança no Brasil
O Brasil também deu um passo importante nesse debate ao firmar um acordo internacional para regulamentar o uso de inteligência artificial na saúde, em parceria com países como Estados Unidos e membros da União Europeia.
O objetivo é garantir a segurança dos pacientes, proteger dados sensíveis e promover o uso ético da tecnologia em ambientes clínicos e de pesquisa.
OpenEvidence: inovação em IA médica
Enquanto discutimos os riscos e desafios do uso de IA em saúde mental, é importante também olhar para outros exemplos. A startup OpenEvidence, que desenvolve inteligência artificial para ajudar médicos a navegar na literatura científica, recentemente atingiu uma valorização de US$ 6 bilhões.
Esses números ilustram o crescimento econômico da startup e a forma como ferramentas de inteligência artificial estão sendo aplicadas no setor médico, destacando a expansão do investimento em tecnologias que auxiliam profissionais de saúde na tomada de decisão e atualização de evidências científicas.
Conquiste a aprovação e acompanhe mais notícias!
Gostou da novidade? Continue acompanhando nosso blog para ficar por dentro das principais notícias sobre residência médica, editais e oportunidades que podem transformar sua carreira!

