A inteligência artificial vive um ponto de inflexão importante. O entusiasmo inicial — marcado por usos criativos e experimentação — dá lugar a uma segunda fase, mais madura, em que a tecnologia é chamada a resolver problemas reais em setores que não podem operar com margem para erro. Na saúde, esse divisor de águas é ainda mais evidente: aqui, a IA não pode ser apenas eficiente, ela precisa ser confiável.
Modelos generativos como ChatGPT, Gemini e outros assistentes provaram seu valor para tarefas administrativas e de apoio, como redigir documentos ou resumir informações. Porém, um sistema que serve para responder e-mails não necessariamente serve para apoiar uma decisão clínica. E é justamente nesse ponto que mora o risco da IA genérica aplicada à saúde: respostas bem formuladas não significam, automaticamente, respostas seguras.
O risco não está no algoritmo, está na ausência de curadoria
Na prática clínica, a chamada “alucinação da IA”, respostas incorretas apresentadas com convicção, não é apenas um problema técnico: é um problema assistencial, ético e institucional. Um estudo publicado em 2025 na npj Digital Medicine (periódico científico da Nature) avaliou 12.999 sentenças geradas por modelos de linguagem para resumos clínicos e identificou 1,47% de informações inventadas e 3,45% de omissões relevantes. Esses números, que podem parecer pequenos em um contexto genérico, ganham outra proporção quando aplicados a uma UTI, a uma prescrição ou a uma decisão de risco.
A IA genérica pode ser brilhante em produtividade, e perigosa em assistência. É por isso que, na saúde, a pergunta não é “o modelo é inteligente?”, mas sim “este modelo é seguro, rastreável e consistente com a prática clínica?”
Confiança assistencial se constrói, não se herda da tecnologia
Segundo o Conselho Nacional de Justiça (CNJ), o Brasil registrou 657 mil novas ações judiciais na saúde apenas em 2024, com crescimento expressivo nas decisões questionadas em ambientes críticos como pronto-socorro e terapia intensiva. Nesse contexto, ferramentas que não apenas sugerem condutas, mas também registram raciocínios e justificativas clínicas, tornam-se instrumentos de proteção para instituições e profissionais.
A percepção da sociedade também acompanha esse movimento. Um levantamento do JAMA Network Open (2025) revelou que 65,8% dos adultos têm baixa confiança na capacidade do sistema de saúde de usar IA de forma responsável, e mais de 57% temem que essas tecnologias possam causar danos. A mensagem é evidente: a adoção de IA na saúde não será bem-sucedida sem lastro científico e transparência operacional.
Curadoria clínica: o que diferencia uma IA assistiva de uma IA arriscada
Enquanto modelos generalistas são treinados com dados amplos e não validados, a IA com curadoria clínica parte de outra lógica: ela é construída sobre fontes científicas confiáveis, com revisão técnica contínua, validação por especialistas e adaptação para o contexto real de cada instituição.
Nesse modelo, a tecnologia não se limita a automatizar, ela interpreta, contextualiza e respeita o raciocínio clínico humano, servindo como extensão qualificada da tomada de decisão. Curadoria, nesse caso, não é um selo, mas um processo vivo, que envolve revisão constante de protocolos, aderência às evidências e tradução clara para o ponto de cuidado.
A IA não substitui o julgamento clínico, ela reduz o caminho entre ciência e prática. Uma IA confiável não concorre com o profissional de saúde. Ela reduz o ruído entre literatura e rotina, entre protocolo e execução. Em vez de entregar uma resposta genérica, entrega um raciocínio alinhado ao contexto: aos protocolos institucionais, à disponibilidade de medicamentos, à realidade operacional e à segurança assistencial. O valor da IA na saúde não está em responder rápido, está em responder certo. Com transparência, rastreabilidade e responsabilidade.
O que estamos construindo: tecnologia que entende cuidado, não apenas dados.
No ecossistema Salux, esse é o princípio que orienta o desenvolvimento das soluções de IA. Não basta acessar diretrizes, é preciso traduzi-las para o cotidiano assistencial brasileiro, com curadoria técnica, aderência ao contexto e explicabilidade clínica.
Mais do que automatizar, o objetivo é tornar a IA um instrumento de confiança para quem decide, registra e cuida. Porque, na saúde, tecnologia sem coerência assistencial não é inovação, é risco.