Não basta saber o que a IA decidiu. O problema é responder por isso.
A primeira semana do ano começou com o start de um contrato de engenharia de software focado em inteligência artificial aplicada à saúde. Até aí, tudo sob controle. Dados internos, ambiente fechado, decisões previsíveis.
O tipo de cenário que tranquiliza qualquer comitê e deixa todo mundo confortável.
O desconforto surgiu na pergunta óbvia — e geralmente esquecida: E quando essa IA começar a ser alimentada, de forma contínua, por informações externas?
Não se trata apenas de volume ou velocidade. Trata-se de algo mais simples — e mais perigoso: quem garante a qualidade do que entra e quem responde pelo que sai?
Quando a IA deixa de apenas analisar dados e passa a gerar respostas, recomendações ou inferências em saúde, a discussão deixa de ser tecnológica. Ela passa a ser jurídica, ética e, principalmente, com consequências.