- 16 de abril de 2026
Chatbots de IA dão conselhos médicos enganosos em 50% das vezes, aponta estudo
Chatbots baseados em inteligência artificial (IA) estão fornecendo conselhos médicos problemáticos aos usuários em cerca de metade das vezes, de acordo com um novo estudo, destacando os riscos à saúde dessa tecnologia que está se tornando cada vez mais essencial no dia a dia.
Pesquisadores dos EUA, Canadá e Reino Unido avaliaram cinco plataformas populares — ChatGPT, Gemini, Meta AI, Grok e DeepSeek — fazendo a cada uma delas 10 perguntas em cinco categorias de saúde. Das respostas totais, cerca de 50% foram consideradas problemáticas, incluindo quase 20% que foram altamente problemáticas, de acordo com as descobertas publicadas esta semana no periódico médico BMJ Open.
Os chatbots tiveram um desempenho relativamente melhor em perguntas fechadas e relacionadas a vacinas e câncer, e pior em perguntas abertas e em áreas como células-tronco e nutrição, de acordo com o estudo.
As respostas foram frequentemente dadas com confiança e certeza, embora nenhum chatbot tenha produzido uma lista de referência totalmente completa e precisa em resposta a qualquer pergunta, disseram os pesquisadores. Houve apenas duas recusas em responder a uma pergunta, ambas da Meta AI.
Os resultados destacam a crescente preocupação sobre como as pessoas estão usando plataformas de IA generativa, que não são licenciadas para fornecer aconselhamento médico e não possuem o discernimento clínico necessário para fazer diagnósticos.
O crescimento explosivo dos chatbots de IA os tornou uma ferramenta popular para pessoas que buscam orientação sobre seus problemas de saúde, e a OpenAI afirmou que mais de 200 milhões de pessoas fazem perguntas sobre saúde e bem-estar ao ChatGPT todas as semanas. A plataforma anunciou em janeiro ferramentas de saúde tanto para usuários comuns quanto para profissionais de saúde, e a Anthropic anunciou no mesmo mês o lançamento de seu produto Claude, uma nova oferta para a área da saúde.
Um dos principais riscos da implementação de chatbots sem educação e supervisão pública é a possibilidade de amplificar a desinformação, afirmaram os autores do estudo publicado no BMJ Open
As descobertas “destacam importantes limitações comportamentais e a necessidade de reavaliar como os chatbots de IA são implementados na comunicação pública sobre saúde e medicina”, escreveram eles. Esses sistemas podem gerar “respostas com aparência de autoridade, mas potencialmente falhas”, concluíram.
Redação Cidade 091 com informações de O Globo.