A medicina atravessa uma metamorfose digital onde algoritmos dividem espaço com estetoscópios — mas quando a IA erra, quem responde?
A integração da Inteligência Artificial (IA) no diagnóstico médico marca uma mudança de paradigma na saúde digital (recorrentemente mencionada como digital health), oferecendo precisão superior em áreas como a radiologia e cardiologia. Contudo, essa evolução traz desafios jurídicos profundos, especialmente no que tange à regulação de algoritmos e à definição de quem responde por eventuais erros diagnósticos. A medicina atravessa hoje uma metamorfose digital onde o estetoscópio agora divide espaço com esses algoritmos de IA.
Se, por um lado, ferramentas de processamento de dados prometem diagnósticos com precisão sobre-humana, por outro, abrem um vácuo jurídico sobre quem responde quando o sistema falha. Atualmente, o Brasil vive um momento de transição regulatória. Embora não exista ainda uma lei geral de IA totalmente sancionada, o Conselho Federal de Medicina (CFM) assumiu o protagonismo com propostas que estabelecem as primeiras diretrizes.
A Resolução CFM nº 2.454/2026 surge como um marco essencial para o uso de IA na prática médica, mas também como um lembrete de que a tecnologia deve ser coadjuvante, nunca a protagonista da decisão clínica. Essa normativa estabelece que a IA é uma ferramenta de apoio à decisão clínica, e não um substituto para o juízo profissional. Isso significa que o diagnóstico comunicado ao paciente continua sendo um ato médico exclusivo.
Para o profissional, isso implica um novo “dever de cuidado”: não basta usar a tecnologia; é preciso compreender seus limites e manter a supervisão humana constante. A regulação brasileira categoriza os sistemas de IA por níveis de risco (baixo a alto), exigindo transparência sobre como esses modelos foram treinados. O modelo nacional tende a seguir o padrão da União Europeia, priorizando a segurança dos dados e a transparência algorítmica sobre a mera exploração comercial.
A grande tensão reside na responsabilidade civil. Quando um algoritmo sugere um tratamento equivocado, a culpa é do médico que o seguiu ou do desenvolvedor que criou o código? Como o médico detém a palavra final, ele geralmente responde de forma subjetiva, dependendo da comprovação de negligência, imprudência ou imperícia ao seguir (ou ignorar) a IA. Um risco jurídico emergente é a confiança excessiva do profissional no algoritmo, o que pode levar ao erro por omissão de análise crítica.
Especialistas apontam para a necessidade de uma responsabilidade compartilhada. Em casos de falha intrínseca do software, a empresa fornecedora pode ser acionada, muitas vezes sob a ótica do Código de Defesa do Consumidor ou da Lei Geral de Proteção de Dados (LGPD). No Judiciário, cresce o debate sobre aplicar a “Teoria da Perda de uma Chance” em erros diagnósticos assistidos por IA, onde o paciente perde a oportunidade de um tratamento melhor devido a uma falha tecnológica.
O uso da IA na saúde exige mais do que linhas de código; exige bioética. A Organização Mundial da Saúde (OMS) reforça que os direitos humanos devem estar no centro do design dessas ferramentas para evitar vieses algorítmicos que possam discriminar populações. O Brasil caminha com o Projeto de Lei n.º 2.338/2023, o marco legal da IA, que busca equilibrar o incentivo à inovação com a proteção do cidadão.
O uso de exames médicos para o treinamento de sistemas IA é um dos cenários mais complexos da LGPD, pois envolve o tratamento de dados sensíveis (Art. 5º, II), que exigem camadas extras de proteção. Essa lei estabelece que dados anonimizados não são considerados dados pessoais e, portanto, estão fora do escopo da lei.
No entanto, para o treinamento de IA, essa anonimização deve ser irreversível por meios técnicos razoáveis. Se houver qualquer possibilidade de reidentificação do paciente (através de metadados de um arquivo DICOM de imagem, por exemplo), o dado volta a ser sensível e a proteção integral da lei se aplica.
A regulação precisa, portanto, equilibrar a inovação com a segurança jurídica. A dificuldade de explicar como uma IA chegou a determinado diagnóstico desafia o dever de informação do médico e o consentimento do paciente. Algoritmos treinados com dados parciais podem gerar diagnósticos menos precisos para grupos específicos, criando um risco de discriminação na saúde. A manipulação de dados sensíveis exige, igualmente, conformidade rigorosa com a LGPD.
Em suma, a saúde digital não pode ser um “cheque em branco” para a automação. A regulação deve garantir que a IA potencialize o médico, sem anular a empatia e a responsabilidade que fundamentam a medicina desde Hipócrates. O futuro da saúde é híbrido, mas a responsabilidade deve permanecer rigorosamente humana. A IA na saúde digital é um caminho sem volta, mas sua segurança depende de uma regulação que não asfixie a tecnologia nem desampare o paciente.
O médico continua sendo o garantidor final do ato, mas o Direito brasileiro caminha para uma responsabilização mais compartilhada, onde desenvolvedores e instituições de saúde também prestam contas pela integridade das ferramentas digitais utilizadas.
Como a Digital Health e o tema impactam a saúde?
A Digital Health e o tema impactam a saúde ao redefinir a relação entre médico, tecnologia e paciente, transformando a prática clínica de um ato puramente humano para um processo híbrido e vigiado.
Os principais impactos práticos são:
- Mudança na tomada de decisão: o médico deixa de ser o único detentor do saber para se tornar um curador de dados. Ele ganha precisão (especialmente em imagens e exames complexos), mas assume o “dever de vigilância”: aceitar um diagnóstico da IA sem conferência passa a ser um risco ético e jurídico grave;
- Segurança do paciente e erro diagnóstico: a IA reduz erros por cansaço ou distração humana, mas introduz o risco do “viés algorítmico”. Se o sistema for treinado com dados parciais, grupos específicos da população podem receber diagnósticos menos precisos, gerando uma desigualdade digital na saúde;
- Humanização versus automatização: o texto reforça que a IA não substitui a empatia. O impacto aqui é preventivo: evitar que a medicina se torne uma “linha de montagem” onde o paciente é apenas um conjunto de dados processados por uma máquina;
- Gestão de dados sensíveis: hospitais e clínicas precisam elevar drasticamente seus padrões de segurança (LGPD). O uso de exames para “treinar” IAs exige anonimização rigorosa, sob risco de vazamentos que exponham a vida privada dos pacientes de forma irreversível; e
- Custo e acesso: a regulação mencionada (como o PL 2338/2023) pode encarecer a implementação de tecnologias de alto risco, mas garante que a inovação não ocorra à custa da segurança jurídica do paciente.
Em suma, o impacto é a profissionalização da confiança: o paciente pode se beneficiar de tecnologias de ponta, desde que haja uma camada humana de responsabilidade que garanta que o algoritmo é um meio, e não o fim do tratamento.
Por: Daniel Duarte Lledó, Diretor de Relações e Institucionais e Governamentais & Políticas Públicas/Notícias DataPolicy
