ENAMED e Portaria INEP nº 25/2026: é possível corrigir os erros da exposição pública dos cursos de medicina?
- Edgar Jacobs

- 25 de jan.
- 6 min de leitura
As manchetes apontam para um mesmo diagnóstico: “Os resultados alcançados pelos cursos [de medicina] mostram que habilidades exigidas na prova estão sendo mal desenvolvidas pelos alunos”; “Os 21 cursos de medicina que correm o risco de ser fechados […] aguardam para o final de junho uma posição do MEC sobre a continuidade ou não de seus credenciamentos”; “Ministro afirma que MEC será mais rigoroso com cursos de medicina”; e “Neste ano, 56% dos formandos que prestaram o exame foram reprovados. O número já é expressivo, mas é razoável supor que a proporção de estudantes despreparados seja maior".
A leitura sugere uma crise atual, imediata, quase inédita. Mas há um detalhe revelador: essas manchetes não são de agora. A primeira é de 1999, a segunda de 2000, a terceira de 2008 e a última de 2009. Parte dessas notícias, inclusive, refere-se ao exame do CREMESP, que já utilizava uma prova externa como base para avaliações e narrativas públicas sobre a formação médica. O discurso de “colapso” da formação, portanto, é recorrente.
Se houvesse, de fato, uma deterioração estrutural e contínua na qualidade dos médicos, ela já estaria plenamente visível hoje – afinal, essas reportagens dizem respeito a profissionais em plena atividade. E, salvo exceções pontuais, não se observa uma crise generalizada de desempenho médico no país. Pelo contrário: o sistema de saúde segue funcionando, com seus problemas conhecidos, mas sem o apocalipse formativo que essas narrativas parecem repetir de tempos em tempos
Se há uma crise real, ela parece ser de outra natureza: a persistente falta de médicos em muitas regiões do Brasil, sobretudo fora dos grandes centros. É isso, aliás, que a população percebe no dia a dia e que os estudos reiteradamente demonstram. Trata-se menos de um problema generalizado de qualidade da formação e mais de um problema estrutural de distribuição, fixação e acesso a profissionais.
Entretanto, o ENAMED traz de volta uma lógica antiga. Ela já estava presente no antigo provão, modelo superado com a criação do SINAES, em 2004, justamente para evitar o uso simplista e punitivo de uma única prova como parâmetro isolado de qualidade.
O ENAMED, tal como estruturado, representa uma reaproximação com essa lógica. A nova prova retoma a centralidade do exame, em tensão com as premissas do sistema avaliativo criado em 2004.
Com provas externas – especialmente quando podem ser moduladas em diferentes graus de dificuldade – sempre haverá base estatística para afirmar que existem cursos com desempenho insatisfatório. Isso, por si só, significa que o resultado de um único exame represente fielmente a realidade do sistema, nem que sirva como fundamento isolado para diagnósticos estruturais.
É justamente por isso que não é razoável que gerações distintas reproduzam, de forma acrítica, o mesmo discurso de crise aplicado no passado. A avaliação da qualidade dos cursos é legítima e necessária. O desvio ocorre quando esse debate é convertido em uma narrativa de “crise geracional”, como se houvesse um colapso homogêneo da formação médica, o que não se sustenta empiricamente.
O ENAMED 2025–2026 evidencia esse viés, não apenas no plano discursivo, mas também sob a perspectiva técnica e procedimental.
Problemas com os parâmetros de julgamento do ENAMED
Sem adentrar no mérito da qualidade da prova – e sem qualquer demérito ao esforço institucional envolvido em sua aplicação – é possível identificar falhas procedimentais relevantes na edição 2025–2026 do exame.
A prova foi aplicada em 2025 sem que estivessem previamente definidos, de forma clara e estável, os critérios de ponderação dos resultados. Somente após a realização do exame, o INEP editou a Nota Técnica nº 19/2025, que apresentou os procedimentos adotados para estimar o desempenho dos participantes.
Embora já existisse a Nota Técnica nº 40/2025, publicada em setembro – cerca de um mês antes da prova –, o documento ainda não trazia, de forma clara e completa, as regras para definir quem seria considerado proficiente. Esses critérios só foram fechados no fim de dezembro, depois que a prova já havia sido aplicada.
O próprio Inep reconheceu que os dados preliminares disponibilizados às instituições utilizaram critérios diferentes daqueles posteriormente fixados, o que exigiu correção dos insumos. Houve, assim, uma alteração relevante definida a posteriori, com impacto direto sobre a classificação dos estudantes e sobre os resultados institucionais.
Esse tipo de situação já foi considerado juridicamente problemático em outros contextos de avaliação educacional. Em caso recente envolvendo a avaliação de cursos de pós-graduação stricto sensu pela CAPES, o Poder Judiciário enfrentou questão semelhante e afirmou: “Diante da ilegalidade na aplicação retroativa dos critérios avaliativos e do descumprimento de obrigação constante em título judicial, impõe-se a reforma da sentença para assegurar a manutenção da nota atribuída ao programa no quadriênio 2013-2016, até que nova avaliação seja realizada com critérios válidos e previamente divulgados” (decisão do TRF-6, dezembro de 2025).
O problema, porém, não se limita ao cronograma. Ele também está na forma como o critério de proficiência foi construído. Como a nota de corte só foi definida depois da aplicação da prova, com base em avaliações de especialistas cujos nomes e critérios não foram amplamente divulgados, abriu-se espaço para que decisões administrativas posteriores influenciassem quantos estudantes seriam considerados “proficientes”. Em termos simples, isso significa que o resultado final não depende apenas do desempenho dos alunos, mas também de ajustes feitos depois da prova, o que fragiliza a confiança no processo.
Esses efeitos se tornam ainda mais evidentes na escala de classificação dos cursos adotada pelo ENAMED, que define: até 40% = Conceito 1; de 40% a 60% = Conceito 2; de 60% a 75% = Conceito 3; de 75% a 90% = Conceito 4; acima de 90% = Conceito 5. Em vez de refletir diferenças graduais de desempenho, essa estrutura cria degraus artificiais, concentrando poucos cursos no topo e muitos na base, sem justificativa clara para a escolha desses limites.
Na prática, isso torna a escala desbalanceada. Uma parcela ampla dos cursos tende a ficar concentrada nos Conceitos 1 e 2, enquanto o Conceito 5 fica restrito a um grupo muito pequeno, que precisa atingir um patamar extremamente elevado. O efeito é ampliar diferenças pequenas e transformá-las em saltos grandes de classificação. Para o leitor comum, a percepção é simples: a régua não apenas mede o desempenho, ela também “fecha” o topo e “puxa para baixo” uma parte relevante dos cursos, criando uma hierarquia artificial que não decorre necessariamente da qualidade real da formação.
Essas falhas são tão evidentes que o próprio INEP acabou por reconhecê-las. Por meio da Portaria INEP nº 25/2026, o Instituto abriu prazo para tratar dos “procedimentos para manifestações das Instituições de Educação Superior referentes ao Conceito Enade para os cursos de Medicina referente ao ano de 2025, divulgado em 19 de janeiro de 2026”.
Dá para corrigir o cronograma?
Depois de admitir inconsistências na base dos insumos (dados) utilizados, o INEP utilizou a norma citada para abrir prazo de manifestação às Instituições de Ensino, entre 26 de janeiro e 4 de fevereiro de 2026.
O problema é a ordem dos fatos. A Portaria foi publicada em 23 de janeiro de 2026, quatro dias após o próprio INEP já ter divulgado, com ampla repercussão pública, a lista de cursos que seriam negativamente impactados pelos resultados. Em termos simples: primeiro houve a exposição pública dos cursos; só depois veio a abertura formal de prazo para manifestação.
A norma também apresenta uma imprecisão adicional. O art. 2º, parágrafo único, estabelece que “as manifestações apresentadas fora do escopo serão sumariamente indeferidas em decorrência de perda de objeto”. No entanto, a Portaria não define claramente o que constitui esse “escopo” nem explica como um indeferimento sumário poderia ser efetivado sem a análise do conteúdo apresentado pelas instituições.
O resultado é um procedimento que tenta corrigir problemas reconhecidos, mas o faz de forma tardia, imprecisa e com limitações que colocam em dúvida a efetividade real do contraditório.
Considerações finais
O debate sobre qualidade na formação médica é legítimo, necessário e permanente. O que este artigo procura demonstrar, porém, é que a retórica recorrente de “crise” não é nova, tampouco se sustenta como diagnóstico estrutural da formação médica no Brasil. Ela se repete há décadas, muda de nome, muda de prova, mas preserva o mesmo padrão: transformar resultados pontuais de exames em narrativas amplas de descrédito.
O SINAES foi criado justamente para superar essa lógica simplificadora, substituindo o modelo do provão por um sistema mais complexo, gradual e institucionalmente equilibrado. O ENAMED, tal como estruturado em 2025–2026, representa uma inflexão preocupante nesse desenho: resgata a centralidade da prova, permite alterações relevantes definidas após sua aplicação e produz efeitos regulatórios e simbólicos desproporcionais.
O problema, portanto, não é avaliar. O problema é como se avalia e, principalmente, para que se usa essa avaliação. Quando critérios são ajustados a posteriori, quando escalas criam degraus artificiais e quando o contraditório só é aberto depois da exposição pública, o risco não é apenas técnico – é institucional.
No fim, o maior prejuízo não recai apenas sobre cursos ou instituições, mas sobre os próprios estudantes, que passam a carregar o peso de uma narrativa de crise que não criaram, não controlam e que, agora, se pretende legitimar por meio de um contraditório tardio, que dificilmente é capaz de reparar os efeitos já produzidos pela exposição pública.

Gostou deste texto? Faça parte de nossa lista de e-mail para receber regularmente materiais como este. Fazendo seu cadastro, você também pode receber mais informações sobre nossos cursos, que oferecem informações atualizadas e metodologias adaptadas aos participantes.
Temos cursos regulares, já consagrados, dos quais já participaram mais de 800 profissionais das IES. Também modelamos cursos in company sobre temas gerais relacionados ao Direito da Educação Superior, ou mais específicos. Conheça nossas opções e participe de nossos eventos.




Comentários