Especulações de que uma atualização do ChatGPT teriam restringido conselhos do robô sobre áreas sensíveis, como orientações jurídicas, médicas e financeiras, movimentaram as redes sociais nos últimos dias. Entretanto, o chefe de Inteligência Artificial (IA) em saúde da OpenAI, Karan Singhal, afirmou que a informação é falsa.
Em publicação no X, Singhal escreveu que “o comportamento do modelo permanece inalterado”. Alguns usuários relataram na web que o modelo apenas fornecia informações gerais e, logo após, redirecionava-os para profissionais qualificados.
“Não é verdade. Apesar das especulações, esta não é uma mudança recente em nossos termos […] O ChatGPT nunca substituiu o aconselhamento profissional, mas continuará sendo um excelente recurso para ajudar as pessoas a compreenderem informações jurídicas e de saúde”, diz outro trecho da publicação.
Confira a publicação:
Not true. Despite speculation, this is not a new change to our terms. Model behavior remains unchanged. ChatGPT has never been a substitute for professional advice, but it will continue to be a great resource to help people understand legal and health information. https://t.co/fCCCwXGrJv
— Karan Singhal (@thekaransinghal) November 3, 2025
Interpretação equivocada
A notícia falsa se propagou após uma interpretação incorreta de uma atualização do sistema, publicada em 29 de outubro deste ano pela corporação. O conteúdo do documento lista uma série de usos proibidos do ChatGPT.
Uma das restrições informa que é proibido o “fornecimento de aconselhamento personalizado que requer uma licença, como aconselhamento jurídico ou médico, sem o envolvimento adequado de um profissional licenciado”.
Contudo, a regra não é nova, pois já constava nas Políticas de Uso da OpenAI publicadas em janeiro de 2025.
No trecho, a empresa afirma que os usuários não devem utilizar o ChatGPT para fornecer aconselhamento jurídico, médico/de saúde ou financeiro sem revisão de um profissional qualificado.
Especialistas alertam sobre os riscos de consultas médicas por IA
O uso da IA cresce em ritmo acelerado no Brasil e, segundo dados recentes divulgados pela OpenAI, o país está entre os três que mais utilizam o ChatGPT semanalmente, atrás apenas de Estados Unidos e Índia.
Em meio a esse cenário, a preocupação de especialistas com o uso indevido da tecnologia para fins médicos, especialmente por pessoas que recorrem à IA para “consultas” ou diagnósticos, aumenta significativamente.
De acordo com Ana Cristina Albricker, coordenadora e professora do curso de Medicina do Centro Universitário UniBH — integrante do maior e mais inovador ecossistema de qualidade do Brasil, o Ecossistema Ânima — é fundamental compreender que a IA não substitui a consulta médica.
“A inteligência artificial veio para facilitar muitos processos e chegou para ficar, mas o risco surge quando ela passa a substituir o atendimento profissional. Uma escola de medicina existe justamente para formar médicos preparados para lidar com o ser humano em sua integralidade”, afirma.
Mais de 1 milhão de usuários do ChatGPT citaram suicídio, diz OpenAI
O relatório divulgado pela OpenAI em outubro também aponta que mais de 1 milhão de usuários do ChatGPT já tiveram conversas relacionadas a suicídio.
A estimativa, publicada no blog oficial da empresa, indica que cerca de 0,15% das pessoas que utilizam a ferramenta semanalmente manifestaram algum tipo de intenção ou planejamento ligado ao tema. Considerando o total de 800 milhões de usuários semanais, isso representa aproximadamente 1,2 milhão de pessoas.