Em 11 de fevereiro de 2026, o Conselho Federal de Medicina (“CFM”) aprovou a Resolução nº 2.454/2026 (“Resolução”), estabelecendo parâmetros éticos e técnicos para o desenvolvimento e a utilização de sistemas de Inteligência Artificial (“IA”) na prática médica.
A norma surge em um contexto de crescente incorporação de ferramentas baseadas em IA em atividades como diagnóstico por imagem, análise preditiva, apoio à prescrição, triagem automatizada e organização de fluxos assistenciais. Diante da expansão dessas tecnologias, o CFM entendeu necessária a fixação de balizas normativas específicas para assegurar segurança clínica, proteção ao paciente e responsabilidade profissional.
Centralidade da decisão médica
O eixo estruturante da Resolução é a reafirmação de que a decisão clínica deve ser sempre humana.
A IA é, portanto, reconhecida como ferramenta de apoio, sem que possa substituir o julgamento técnico do profissional. O médico permanece como responsável pelo diagnóstico, prognóstico e definição de conduta terapêutica, ainda que utilize sistemas automatizados como suporte. Nesse sentido, a norma afasta qualquer possibilidade de delegação integral da decisão clínica a sistemas autônomos.
Responsabilidade profissional e limites éticos
A Resolução reafirma, ainda, o caráter indelegável da responsabilidade pelos atos médicos. No campo da responsabilidade ético-profissional, o médico permanece integralmente responsável pelos atos médicos praticados com o auxílio de IA, não sendo eximido do cumprimento do Código de Ética Médica e das demais normas emanadas do CFM.
Cabe ao profissional, portanto, exercer análise crítica sobre as recomendações geradas por sistemas automatizados, avaliando sua coerência com o quadro clínico concreto e registrando adequadamente as informações pertinentes no prontuário.
Vale destacar que o uso acrítico ou automático dessas ferramentas poderá caracterizar infração ética, sobretudo em situações de dano decorrente de falhas previsíveis ou de ausência de supervisão adequada.
Transparência e dever de informação ao paciente
A norma reforça que o paciente deve ser informado quando ferramentas de IA forem utilizadas como suporte relevante à sua avaliação clínica, especialmente quando influenciarem diagnósticos ou decisões terapêuticas. A diretriz está alinhada aos princípios da autonomia do paciente, do consentimento informado e da boa-fé na relação médico-paciente.
A Resolução assegura, ainda, o direito do paciente de recusar, de forma informada, o uso de modelos, sistemas e aplicações de IA em seu cuidado, diagnóstico ou tratamento.
Segurança, classificação de risco e proteção de dados
A Resolução exige, ainda, que os sistemas de IA utilizados na prática médica apresentem validação técnica adequada, respaldo científico e níveis compatíveis de segurança.
Nesse sentido, a norma estabelece uma classificação de risco em quatro níveis — baixo, médio, alto e inaceitável, sendo os riscos definidos por meio de avaliação preliminar conduzida pela instituição desenvolvedora ou contratante do sistema de IA, considerando fatores como o potencial impacto aos direitos fundamentais e à saúde dos pacientes, a criticidade do contexto de uso e o grau de autonomia do sistema de IA.
Cabe observar que, embora a Resolução preveja o nível “inaceitável” como categoria de risco, o Anexo II não detalha os critérios específicos para esse enquadramento, limitando-se a definir os parâmetros aplicáveis aos níveis baixo, médio e alto.
Impõe-se, igualmente, a observância das regras relativas à proteção de dados pessoais sensíveis, ao sigilo profissional e às demais normas sanitárias e regulatórias aplicáveis. A Resolução prevê e define, nesse contexto, princípios como privacy by design e privacy by default, exigindo conformidade à Lei Geral de Proteção de Dados -LGPD, bem como transparência, auditabilidade e governança proporcionais ao risco.
Impactos para médicos, instituições e empresas de tecnologia
A regulamentação produz reflexos práticos para os diferentes agentes do setor de saúde:
- Médicos deverão adotar postura técnica independente, registrar adequadamente o uso de ferramentas automatizadas e poderão recusar a utilização ou desligar sistemas de IA que considerem inadequados em determinada situação clínica, sem que possam ser penalizados por essa decisão, desde que atuem em conformidade com os preceitos técnicos e éticos aplicáveis;
- Hospitais e clínicas precisarão revisar protocolos internos, políticas de governança tecnológica e critérios de contratação de soluções baseadas em IA, sendo obrigatória, para instituições que adotem sistemas próprios de IA, a criação de uma Comissão de IA e Telemedicina, sob coordenação médica e subordinada à diretoria técnica, responsável por assegurar o uso ético e seguro dessas ferramentas; e
- Empresas desenvolvedoras de sistemas de IA e healthtechs deverão observar exigências mais rigorosas quanto à explicabilidade algorítmica, à qualidade dos dados utilizados, à mitigação de vieses e à segurança operacional.
A norma dialoga, ainda, com discussões mais amplas sobre responsabilidade civil, proteção de dados pessoais e regulação da IA no Brasil.
Considerações finais
A Resolução representa um marco relevante na governança da IA aplicada à saúde no Brasil. Ao reconhecer o potencial da tecnologia e, ao mesmo tempo, reafirmar a centralidade da decisão humana, o CFM sinaliza um modelo regulatório orientado pela inovação responsável.
Profissionais de saúde, instituições e empresas do setor devem avaliar desde já a necessidade de atualização de protocolos internos, contratos e práticas de compliance, de modo a assegurar aderência às novas diretrizes.
Cabe destacar que a Resolução entrará em vigor após 180 dias da data de sua publicação, ou seja, em agosto de 2026, período no qual os agentes do setor deverão promover as adequações necessárias.
As equipes de Tecnologia e Inovação, Life Sciences & Healthcare e Direito Público permanecem à disposição para esclarecer dúvidas e apoiar na adequação às melhores práticas regulatórias e de mercado.