A normatização do uso da Inteligência Artificial na Medicina deixou de ser um debate teórico e passou a integrar a rotina prática dos médicos brasileiros. Com a publicação da Resolução CFM nº 2.454/2026, o Conselho Federal de Medicina estabeleceu critérios claros para pesquisa, desenvolvimento, governança, auditoria e uso responsável de sistemas de IA na assistência à saúde.
Para o médico, a questão central não é mais se a Inteligência Artificial funciona, mas como utilizá-la com segurança jurídica, ética e técnica. A norma entra em vigor 180 dias após sua publicação, o que impõe um prazo concreto para adaptação — especialmente para clínicas, hospitais e profissionais que já utilizam ferramentas de apoio diagnóstico, sistemas preditivos ou soluções automatizadas.
Este artigo apresenta uma análise prática e estratégica da resolução, com foco em responsabilidade profissional, proteção de dados e gestão de riscos, sob a perspectiva do médico.
A Inteligência Artificial como ferramenta de apoio — não substituição
Um dos pilares da Resolução CFM nº 2.454/2026 é inequívoco: a decisão final permanece humana.
A Inteligência Artificial passa a ser reconhecida formalmente como ferramenta de apoio clínico. No entanto:
- O diagnóstico continua sendo ato médico.
- A conduta terapêutica continua sendo responsabilidade do médico.
- O prognóstico e a decisão clínica final não podem ser delegados ao sistema.
Isso significa que, mesmo utilizando IA como suporte, o médico permanece como responsável direto pelas decisões clínicas, diagnósticas e terapêuticas.
Do ponto de vista jurídico, essa previsão reforça que a IA não funciona como “escudo” contra eventual responsabilização. Pelo contrário, pode ampliar o grau de diligência exigido.
Dever de julgamento crítico e registro em prontuário
A resolução não se limita a afirmar a responsabilidade médica. Ela impõe um padrão de conduta ativo.
O médico deve:
- Exercer julgamento crítico sobre os resultados apresentados pela IA.
- Manter-se atualizado quanto às capacidades e limitações do sistema utilizado.
- Avaliar possíveis vieses e inconsistências.
- Registrar em prontuário quando houver uso relevante de IA como apoio.
O registro não é mero detalhe burocrático. Ele integra o dever de transparência e pode ser decisivo em eventual questionamento ético ou judicial.
Em outras palavras, não basta utilizar a ferramenta. É necessário demonstrar uso consciente, supervisionado e fundamentado.
Direitos do médico frente às ferramentas de IA
A resolução também protege o médico.
Entre os direitos reconhecidos estão:
- Acesso a informações claras sobre funcionamento, validação e limitações do sistema.
- Recusa de utilização de sistemas sem validação adequada.
- Preservação da autonomia profissional.
- Direito de rejeitar recomendações automatizadas que não se sustentem no caso concreto.
Esse ponto é estratégico. A autonomia médica permanece como princípio estruturante. Nenhum protocolo automatizado pode se sobrepor ao juízo clínico fundamentado.
Para instituições de saúde, isso significa que a imposição de sistemas de IA sem transparência técnica pode gerar conflitos éticos e jurídicos.
Direito do paciente: informação e mediação humana obrigatória
A norma aproxima a discussão da relação médico-paciente.
O paciente tem direito de:
- Ser informado, de forma clara e acessível, sobre o uso relevante de IA.
- Compreender como a ferramenta impactou a decisão.
- Recusar, de maneira informada, a utilização da IA no seu caso.
Além disso, a resolução estabelece uma vedação expressa:
é proibido delegar à Inteligência Artificial a comunicação de diagnóstico, prognóstico ou decisão terapêutica sem mediação humana.
Isso significa que sistemas automatizados não podem substituir o ato comunicativo médico. A interação humana permanece obrigatória.
Essa exigência reduz riscos de desumanização do atendimento e reforça o papel do médico como responsável pela condução do caso.
Proteção de dados sensíveis e conformidade com a LGPD
A Inteligência Artificial na saúde depende intensamente de dados sensíveis:
- Exames
- Imagens
- Sintomas
- Histórico clínico
- Medicamentos
- Hábitos de vida
A resolução dialoga diretamente com a Lei Geral de Proteção de Dados (LGPD), exigindo:
- Confidencialidade
- Segurança técnica adequada
- Controle de acesso
- Mitigação de risco de vazamento
- Atenção ao risco de reidentificação
O uso de dados para treinamento ou aprimoramento de sistemas deve respeitar:
- Finalidade específica
- Necessidade
- Proporcionalidade
Em bases clínicas pequenas, o risco de reidentificação aumenta significativamente. Detalhes aparentemente neutros podem permitir a identificação do paciente.
Para médicos que atuam em clínicas próprias ou participam da gestão institucional, isso exige revisão de contratos com fornecedores de tecnologia e análise de cláusulas sobre tratamento de dados.
Classificação por risco: mudança estrutural na governança
Um dos aspectos mais relevantes da resolução é a lógica de classificação por risco.
Os sistemas de IA devem ser classificados como:
- Baixo risco
- Médio risco
- Alto risco
- Risco inaceitável
A classificação considera:
- Impacto potencial na saúde
- Grau de autonomia do sistema
- Contexto de uso (ex.: urgência)
- Sensibilidade dos dados
- Nível de intervenção humana
Exemplos práticos:
- Agendamento automatizado → geralmente baixo risco.
- Sistema de apoio diagnóstico em emergência → pode ser alto risco.
Quanto maior o risco, maior a exigência de:
- Validação técnica
- Auditoria periódica
- Monitoramento contínuo
- Documentação robusta
Essa lógica aproxima o Brasil de tendências internacionais de regulação de IA.
Explicabilidade, auditabilidade e contestabilidade
A resolução introduz conceitos que parecem simples no papel, mas são complexos na prática:
- Explicabilidade: é possível explicar como o sistema chegou à conclusão?
- Auditabilidade: é possível revisar o processo decisório?
- Contestabilidade: é possível questionar tecnicamente o resultado?
Modelos baseados em redes neurais profundas podem apresentar desafios de transparência. O médico que utiliza essas ferramentas deve estar atento à confiabilidade do fornecedor e à documentação técnica disponível.
A ausência de mecanismos mínimos de auditoria pode representar risco jurídico relevante.
Governança institucional e Comissão de IA
Instituições que desenvolvam ou adotem sistemas próprios de IA devem estruturar governança interna.
A resolução prevê a criação de Comissão de Inteligência Artificial e Telemedicina, sob coordenação médica e subordinada à diretoria técnica.
Entre as atribuições esperadas estão:
- Definição de finalidade do sistema
- Monitoramento de desempenho
- Mitigação de vieses
- Revisão periódica
- Gestão do ciclo de vida da tecnologia
- Cooperação com órgãos de controle
Para clínicas e hospitais, isso implica adequação organizacional e eventual revisão de estrutura administrativa.
O cenário legislativo brasileiro
Paralelamente à resolução do CFM, tramitam no Congresso Nacional projetos de lei para estabelecer um marco geral da Inteligência Artificial no Brasil.
A tendência legislativa aponta para:
- Governança baseada em risco
- Proteção reforçada de dados
- Dever de transparência
- Responsabilização proporcional
Enquanto o marco geral não é consolidado, a norma do CFM já possui aplicação prática imediata na conduta médica.
O que o médico deve fazer agora?
Diante da Resolução CFM nº 2.454/2026, recomenda-se:
- Mapear quais sistemas de IA são utilizados na prática clínica.
- Verificar contratos e garantias de segurança de dados.
- Implementar registro claro no prontuário sobre uso relevante.
- Avaliar necessidade de atualização de termos de consentimento.
- Promover capacitação interna.
- Estruturar governança institucional, quando aplicável.
A adoção consciente e estratégica reduz riscos éticos, administrativos e judiciais.
Conclusão: inovação com responsabilidade
A Resolução CFM nº 2.454/2026 não proíbe nem restringe o avanço tecnológico. Ela estabelece um padrão mais rigoroso de responsabilidade.
A Inteligência Artificial passa a integrar oficialmente o ecossistema médico brasileiro, mas sob três pilares fundamentais:
- Supervisão humana
- Transparência
- Segurança do paciente
Para o médico, isso representa não apenas um desafio regulatório, mas uma oportunidade de estruturar a prática profissional com maior segurança jurídica.
FAQ – Inteligência Artificial na Medicina
1. A Inteligência Artificial pode substituir a decisão médica?
Não. A Resolução CFM nº 2.454/2026 estabelece que a decisão clínica final permanece sendo do médico. A IA funciona como ferramenta de apoio. O diagnóstico, a conduta terapêutica e o prognóstico continuam sendo atos médicos sob responsabilidade profissional direta.
2. É obrigatório informar o paciente sobre o uso de IA?
Sim, quando o uso for relevante para a tomada de decisão clínica. A informação deve ser clara e acessível. Além disso, o paciente pode recusar o uso da IA, desde que devidamente informado.
3. Preciso registrar no prontuário que utilizei IA?
Sim. O registro é recomendado quando a ferramenta influenciar de forma relevante a decisão clínica. Isso reforça transparência e pode ser importante em eventual questionamento ético ou judicial.
4. Posso recusar usar um sistema imposto pela instituição?
A resolução assegura autonomia profissional. O médico pode recusar utilizar sistemas que não possuam validação adequada ou cujas recomendações não se sustentem no caso concreto.
5. O uso de IA aumenta meu risco jurídico?
Não necessariamente. O risco surge do uso inadequado, sem supervisão, sem registro ou sem análise crítica. A utilização consciente, documentada e ética tende a reduzir vulnerabilidades.