Clipclap

Aguarde ...

 Site Futuro da Saúde

Publicado em 04/03/2026 - 10:34 / Clipado em 05/03/2026 - 10:34

CFM regulamenta uso de IA na medicina, mas implementação desafia hospitais e clínicas


Especialistas apontam pontos positivos e negativos da nova norma, além de desafios para que seja cumprida e fiscalizada

 

Por Angélica Weise

 

O Conselho Federal de Medicina (CFM) publicou em 27 de fevereiro a Resolução CFM 2.454/26, que estabelece regras para o uso de inteligência artificial na medicina. A norma, que entra em vigor em 180 dias, marca um passo importante na transição da IA de um uso ainda experimental para um ambiente regulado e institucionalizado, com exigências de governança, transparência e responsabilidade clínica. Ao mesmo tempo, especialistas alertam que a adaptação pode ser desafiadora: muitas instituições de saúde — especialmente clínicas e serviços de menor porte — ainda não têm estrutura, processos ou capacitação suficientes para atender às novas exigências.

Segundo a resolução, hospitais, clínicas e outras instituições de saúde deverão seguir exigências de governança, como classificação de risco das ferramentas, auditorias contínuas e comissões médicas dedicadas à supervisão da tecnologia. Também reforça que o médico continua sendo a autoridade final das decisões e orienta que o uso de IA seja registrado nos prontuários, além de garantir que pacientes sejam informados sempre que algoritmos sejam usados no cuidado. Aos Conselhos Regionais de Medicina caberá a fiscalização da aplicação da ferramenta.

De forma geral, há consenso entre gestores e especialistas no tema de que a norma representa um avanço ao estabelecer um marco regulatório inédito para o uso da IA na prática médica no país. A transparência, proteção ao paciente e a responsabilidade do médico foram pontos elogiados, além da introdução de mecanismos de governança e avaliação de riscos, sem frear a inovação. “Essa resolução é importante e necessária, pois inaugura uma cultura de governança em IA na medicina brasileira”, afirma Eduardo Cordioli, diretor médico de obstetrícia do Grupo Santa Joana, co-fundador da Starya.AI e Saúde a Sério e ex-presidente Saúde Digital Brasil.

Por outro lado, há incerteza sobre a integração da norma com outras instâncias regulatórias, como a Agência Nacional de Vigilância Sanitária (Anvisa), o que pode tornar a sua implementação mais lenta e complexa. “Corre-se o risco de ter criado uma série de obrigações que, embora partam da melhor das intenções do Conselho, podem gerar insegurança jurídica e até avançar sobre esferas que não seriam de competência direta do CFM”, destaca Renata Rothbarth, sócia de Life Sciences, Digital Health & Healthcare do Machado Meyer Advogados.

Segundo a advogada, a resolução foi publicada sem análise formal de impacto regulatório e sem consulta pública ampla ao setor, como foi feito com o PL de IA. Essa ausência de diálogo estruturado com a sociedade pode ampliar o risco de insegurança jurídica para médicos, hospitais e desenvolvedores de tecnologia. “O principal receio é que a implementação da inteligência artificial nas instituições e na prática médica se torne tão incerta e complexa que, na prática, ou não seja cumprida integralmente ou acabe desestimulando o próprio uso da tecnologia”, diz.

Na visão de Cordioli, a norma publicada formaliza práticas que hospitais mais estruturados vinham construindo nos últimos anos. Por outro lado, segundo Andreia Nunes, coordenadora do comitê de IA na Saúde da Internacional Association of Artificial Intelligence, a maioria das clínicas e hospitais brasileiros ainda não tem pessoal, tecnologia ou cultura institucional para garantir a aplicação efetiva da norma. “O risco é a criação de uma governança de fachada, cumprindo regras sem auditoria ou supervisão de fato”, afirma.

 

Processo para regulamentar IA

O CFM não é o primeiro órgão a regulamentar IA no Brasil. Em 2024, o Conselho Federal de Farmácia (CFF) publicou diretrizes para farmacêuticos, focadas em ética e responsabilidade. Em 2025, o Conselho Nacional de Justiça (CNJ) estabeleceu regras para o uso de IA no Judiciário, mostrando que diferentes setores começam a criar seus próprios marcos regulatórios.

A resolução do CFM sobre o uso da inteligência artificial na medicina vai além de regras técnicas: redefine responsabilidades, estabelece padrões de transparência e impõe novas exigências de governança para médicos e instituições de saúde. A norma surge em um momento em que a IA ganha espaço em consultórios e hospitais, mas ainda enfrenta desafios para implementação.

Segundo Jeancarlo Cavalcante, coordenador da Comissão de Inteligência Artificial, relator da norma e 3º vice-presidente do CFM, a resolução foi construída a partir de um grupo de especialistas que debateu propostas por um ano e meio. O foco central foi garantir a segurança do paciente, evitando que a IA opere de forma isolada, sem supervisão médica. “Tivemos o cuidado de criar uma regulação que assegure segurança sem criar obstáculos à inovação”, explica. 

A norma reforça que, mesmo com a IA como ferramenta de apoio, o médico segue como responsável final por decisões clínicas, diagnósticas e terapêuticas. O profissional deve analisar criticamente as recomendações da tecnologia, supervisionar seu uso e tem o direito de recusar sistemas que não possuam validação científica ou certificação regulatória. Cavalcante revelou que o CFM prepara uma cartilha de letramento digital em IA para orientar médicos na aplicação prática da tecnologia, prevista para este ano.

Na avaliação de Giovanni Cerri, presidente dos Conselhos dos Institutos de Radiologia (InRad) e de Inovação (InovaHC) do Hospital das Clínicas da USP, que participou do grupo de trabalho, a resolução equilibra direitos e deveres médicos, incorpora a categorização de riscos já aplicada pela Anvisa e alinha a norma a princípios consolidados, como ética médica, direitos do paciente e a Lei Geral de Proteção de Dados Pessoais. “O diálogo começou a partir da preocupação com o uso da IA na saúde e evoluiu para o que considero uma resolução ponderada”, afirma.

 

Direitos dos pacientes

Com relação aos direitos dos pacientes, a norma estabelece que o paciente deve ser informado sobre o uso, funcionamento e limitações da ferramenta. “Esse tipo de informação aumenta a confiança do paciente e protege tanto o médico quanto a instituição”, comenta Cordioli. Ainda, o uso da IA também deve ser registrado no prontuário, garantindo rastreabilidade e auditabilidade das decisões. 

A norma também prevê a criação de comissões de IA nas instituições de saúde, um ponto que gerou dúvidas e divergências. “Criar uma comissão para quê? Qual será sua responsabilidade e funções?” questiona a advogada Renata, ressaltando que, sem critérios claros, a exigência pode gerar burocracia e incerteza sobre execução. 

O CFM reconhece que essa foi uma das críticas recebidas após a publicação da resolução, mas defende sua necessidade. “Quando se explica para a sociedade, para os médicos, que os sistemas precisam ser auditados, fica claro que a comissão é necessária para garantir segurança e supervisão”, afirma Cavalcante.

A resolução também apresenta classificação de risco das ferramentas de IA, que define exigências diferentes conforme o impacto sobre direitos fundamentais, criticidade do uso, sensibilidade dos dados e autonomia do sistema. A norma divide os riscos em baixo, médio, alto e inaceitável: sistemas que influenciam decisões clínicas críticas ou operam com dados sensíveis recebem supervisão mais rigorosa, enquanto soluções de baixo risco têm monitoramento simplificado.

“O objetivo é permitir que a avaliação de risco seja proporcional à gravidade do impacto que cada sistema pode ter na prática clínica e na segurança do paciente”, explica Giovanni Cerri. Ele reforça que a abordagem brasileira se inspira em práticas internacionais, o framework da Anvisa para softwares médicos e as normas da União Europeia, que já classificam sistemas de IA em saúde como de baixo, médio ou alto risco.

Cerri lembra que o uso da IA na saúde ainda está em fase inicial e que normas e resoluções devem passar por ajustes nos próximos anos, seguindo trajetória semelhante à da União Europeia. Nesse sentido, também pode sofrer efeitos do PL de IA no Brasil, ainda em discussão, segundo ressalta Cavalcante: “Nosso maior receio é que o PL inclua algum substitutivo que coloque qualquer solução de inteligência artificial em medicina na categoria de alto risco, porque isso travaria boa parte da inovação”.

 

Pontos de atenção

A resolução cria um arcabouço robusto e agora os olhares se voltam para sua aplicação prática. Alguns entraves, segundo Eduardo Cordioli, são a ausência de orientações sobre o uso de IA generativa no dia a dia clínico e a inexistência de um sistema nacional para notificação de incidentes, essenciais para aprimorar a regulação com base em dados concretos.

Para Andreia Nunes, outro desafio é a falta de capacitação técnica dos médicos para exercer o “julgamento crítico” exigido pela resolução. “Validar sugestões de IA requer não só competência clínica, mas também habilidades em letramento de modelos, avaliação de acurácia e identificação de vieses — competências ainda raras na prática médica brasileira”, diz. Ela alerta que, em ambientes de alta pressão como UTIs e emergências, a exigência de reflexão crítica pode virar um cumprimento formal, expondo o gap entre a norma e a realidade operacional do setor.

Nesse sentido, um dos pontos críticos para a implementação da resolução é o letramento médico. Cordioli destaca que, com a norma entrando em vigor antes que a formação médica esteja preparada, escolas e programas de residência enfrentam um desafio urgente. “O letramento em IA precisa ser incorporado aos currículos como competência central, e não como disciplina optativa”, afirma. Ele acrescenta: “O CFM poderia ter feito diferente: primeiro, lançar a cartilha, o letramento, e só depois a regulação”.

Internacionalmente, a American Medical Association (AMA), nos Estados Unidos, aprovou em novembro de 2025 uma política para ampliar o letramento em inteligência artificial na educação médica e publicou orientações para que hospitais e clínicas adotem a tecnologia de forma responsável, definindo riscos, processos de governança, transparência e treinamento de equipe.

O passo seguinte será a preparação das instituições para as novas regras, o que deve ter um impacto a médio prazo positivo, na avaliação de Cordioli. “O desconforto inicial é natural, mas a norma eleva o piso mínimo de qualidade, beneficiando empresas que adotam validação clínica rigorosa e governança adequada”. 

 

https://futurodasaude.com.br/cfm-resolucao-de-ia-na-medicina/

Veículo: Online -> Site -> Site Futuro da Saúde