Nova regra do CFM define limites para uso da IA na medicina e reforça decisão final do médico

Resolução inédita estabelece direitos de pacientes, obrigações para hospitais e critérios de risco no uso da tecnologia na saúde

O Conselho Federal de Medicina publicou a Resolução nº 2.454/2026, primeiro marco regulatório federal voltado exclusivamente ao uso da Inteligência Artificial na prática médica no Brasil. A norma define que, mesmo com o avanço das tecnologias, o diagnóstico e as decisões clínicas continuam sendo responsabilidade exclusiva do médico, além de garantir ao paciente o direito de ser informado e de recusar o uso dessas ferramentas durante o atendimento.

A regulamentação surge em um cenário de crescimento acelerado da IA na saúde. De acordo com a pesquisa TIC Saúde 2024, cerca de 17% dos médicos brasileiros já utilizam soluções de IA generativa em suas rotinas, número que tende a aumentar com a popularização dessas tecnologias.

Para especialistas, a medida era necessária diante da rápida evolução dos sistemas inteligentes. “Estamos em um ponto de virada. A inteligência artificial deixou de ser uma promessa para o futuro da saúde e se tornou uma realidade do presente, e o CFM reconheceu isso. E ao criar um marco regulatório, o conselho não está freando a inovação, está garantindo que ela chegue ao paciente de forma segura, ética e responsável”, afirma Kenneth Corrêa, especialista em tecnologia e IA.

Avanço da tecnologia pressiona regulamentação

A necessidade de regras claras se torna ainda mais evidente diante dos avanços recentes da IA aplicada à medicina. Sistemas inteligentes vêm demonstrando desempenho significativo em diagnósticos complexos, superando, em alguns casos, a capacidade humana.

Um exemplo citado é o MAI-DxO, desenvolvido pela Microsoft, que alcançou 85,5% de precisão ao analisar centenas de casos clínicos complexos publicados no New England Journal of Medicine. Em comparação, um grupo de médicos experientes teve desempenho significativamente inferior nos mesmos testes.

Além da precisão, a tecnologia também apresentou ganhos de eficiência, reduzindo custos com exames e otimizando processos clínicos. Ainda assim, especialistas alertam que o uso sem regulamentação pode gerar riscos importantes.

“Quando um sistema de IA acerta a maior parte dos diagnósticos complexos e um grupo de médicos experientes acerta apenas 20%, é um sinal claro de que a tecnologia tem muito a contribuir com a prática do médico. Mas é também um alerta, se não houver regulamentação, governança e formação adequada, corremos o risco de usar uma ferramenta poderosa sem saber exatamente o que estamos fazendo com ela. E na saúde, os erros têm consequências reais”, pontua Corrêa.

O que muda na prática com a nova resolução

A resolução do CFM estabelece que a IA deve ser utilizada como ferramenta de apoio, e não como substituta do profissional de saúde. O texto proíbe, por exemplo, que sistemas automatizados comuniquem diretamente diagnósticos ou tratamentos aos pacientes sem a mediação de um médico.

Outro ponto central é a classificação dos sistemas de IA em quatro níveis de risco: baixo, médio, alto e inaceitável. Essa categorização leva em consideração fatores como impacto nos direitos fundamentais, nível de autonomia da tecnologia e sensibilidade dos dados utilizados.

Hospitais e instituições de saúde que desenvolverem ou utilizarem sistemas próprios de IA também terão novas responsabilidades. Entre elas, está a obrigatoriedade de criação de comissões internas específicas para monitorar o uso dessas tecnologias, garantindo governança e segurança.

Para Kenneth Corrêa, esse modelo aproxima o Brasil das melhores práticas internacionais. “Não dá para tratar todas as aplicações de IA na saúde como se fossem iguais. Um sistema que sugere um horário de consulta disponível é radicalmente diferente de um que analisa imagens para identificar um tumor. A resolução do CFM captura essa complexidade ao estabelecer níveis de risco, e isso aproxima o Brasil das melhores práticas regulatórias internacionais”, explica.

Autonomia médica é preservada

Um dos pilares da nova regulamentação é a preservação da autonomia do médico. A norma determina que nenhum profissional pode ser obrigado a seguir recomendações feitas por sistemas de IA.

Isso significa que o médico tem total liberdade para aceitar, ignorar ou questionar sugestões geradas por algoritmos, sem sofrer penalidades — desde que sua conduta esteja alinhada às práticas éticas e técnicas da medicina.

Essa diretriz reforça a visão de que a IA atua como um “copiloto” no atendimento, auxiliando na análise de dados e na identificação de padrões, mas sem substituir o julgamento humano.

Direitos do paciente ganham destaque

Do lado dos pacientes, a resolução estabelece garantias importantes. Entre elas, o direito de ser informado sempre que a IA for utilizada em seu atendimento e a possibilidade de recusar o uso da tecnologia.

A norma também reforça a necessidade de proteção dos dados pessoais de saúde, em conformidade com a Lei Geral de Proteção de Dados, legislação que regula o tratamento de informações sensíveis no país.

Essas medidas buscam fortalecer a confiança na relação entre médico e paciente, especialmente em um contexto em que decisões clínicas passam a contar com o apoio de sistemas automatizados.

Mercado em expansão e desafios no Brasil

O crescimento da IA na saúde acompanha uma tendência global. Estimativas indicam que o mercado deve ultrapassar US$ 200 bilhões até 2030, impulsionado por soluções que vão desde diagnósticos automatizados até gestão hospitalar.

No Brasil, instituições como o Hospital Israelita Albert Einstein e o Hospital Sírio-Libanês já utilizam modelos preditivos para otimizar processos, reduzir custos e melhorar a qualidade do atendimento.

Apesar disso, a adoção ainda é desigual. Apenas uma pequena parcela dos estabelecimentos de saúde no país utiliza IA de forma estruturada, o que indica um amplo espaço para crescimento.

Brasil se alinha ao cenário internacional

Com a nova resolução, o Brasil passa a integrar o grupo de países que buscam equilibrar inovação tecnológica com segurança e ética no uso da IA. A medida é vista como um passo importante para o desenvolvimento sustentável da saúde digital no país.

“Regulamentar não é o oposto de inovar, é o que permite que a inovação escale com credibilidade. O mercado de saúde digital brasileiro vai crescer muito nos próximos anos, e para isso necessita de um marco regulatório”, conclui Kenneth Corrêa.

Compartilhe :
Facebook
Twitter
LinkedIn
Pinterest

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *