Voltar ao Blog
Blog

Hospitais e operadoras já usam — ou querem usar — inteligência artificial para reduzir sinistros, prever internações e melhorar protocolos clínicos. O problema: os dados que alimentam esses modelos são dados de pacientes. E isso, no Brasil, significa LGPD.

04 de junho de 2025 · dataopera.com.br
Imagem abstrata representando o uso seguro e anonimizado de dados clínicos com inteligência artificial.

A boa notícia é que IA e LGPD não são incompatíveis. A má notícia é que a maioria das implementações que vemos no mercado ignora regras básicas — e coloca as organizações em risco real de sanção e perda de confiança.

Neste artigo, explicamos como funciona a LGPD aplicada a dados de saúde, quais são os erros mais comuns e como usar IA de forma legalmente segura.


Por que dados de saúde têm tratamento especial na LGPD

A LGPD classifica dados de saúde como dados sensíveis — a categoria de maior proteção da lei (Art. 11). Isso significa que as regras para coletá-los, processá-los e compartilhá-los são mais restritivas do que para dados comuns como nome ou e-mail.

Para tratar dados sensíveis, a organização precisa de uma das seguintes bases legais:

Na prática: se você quer treinar um modelo de IA com prontuários para prever readmissões, precisa ter uma dessas bases claramente documentada antes de começar.


Os 3 erros mais comuns de organizações de saúde com IA e LGPD

1. Usar dados identificados quando não precisaria

Muitos projetos de IA em saúde trabalham com dados completos de pacientes — nome, CPF, diagnóstico, histórico — quando o modelo só precisaria de dados anonimizados ou pseudonimizados para funcionar. Isso aumenta o risco sem necessidade.

2. Não ter um DPO designado

A LGPD exige que organizações que tratam dados sensíveis em larga escala nomeiem um Encarregado de Proteção de Dados (DPO). Sem um, a organização não tem canal formal com a ANPD e fica exposta em caso de incidente.

3. Compartilhar dados com fornecedores sem contrato de processamento

Quando um hospital contrata uma plataforma de IA de terceiros e envia dados de pacientes para ela, precisa de um contrato de operador que defina como esses dados são tratados, armazenados e descartados. A maioria dos contratos de SaaS padrão não cobre isso.


Como usar IA com dados de pacientes dentro da lei

Anonimização e pseudonimização

Dados anonimizados — onde a identificação do titular é impossível — estão fora do escopo da LGPD. Dados pseudonimizados (onde a identificação requer uma chave separada) ainda são dados pessoais, mas têm tratamento facilitado.

Para IA em saúde, o ideal é trabalhar com dados pseudonimizados durante o desenvolvimento do modelo e só reverter a pseudonimização nos sistemas clínicos onde há base legal clara (ex: atendimento direto ao paciente).

Privacidade diferencial (Differential Privacy)

Técnica usada por empresas como Google e Apple: adiciona “ruído matemático” controlado aos dados antes de alimentar modelos, de forma que nenhum dado individual possa ser inferido — mas os padrões estatísticos (que o modelo precisa aprender) são preservados.

Federated Learning

Em vez de centralizar dados de pacientes num único servidor, o modelo de IA é treinado localmente em cada instituição. Apenas os parâmetros do modelo (não os dados) são compartilhados centralmente. Especialmente relevante para redes hospitalares e consórcios de operadoras.

Relatório de Impacto (RIPD)

Para qualquer uso de IA que envolva dados sensíveis, a LGPD recomenda — e em alguns casos exige — um Relatório de Impacto à Proteção de Dados (RIPD). É o documento que demonstra que a organização avaliou os riscos e tomou medidas para mitigá-los.


O que a plataforma de IA precisa garantir tecnicamente

Além das obrigações legais, há requisitos técnicos que qualquer solução de IA em saúde deve cumprir para estar alinhada com a LGPD:


Como a DTO trata isso na prática

A plataforma DataOpera foi construída com compliance LGPD como premissa de arquitetura, não como ajuste posterior. Isso inclui:

O DataHAL®, nossa camada de inteligência artificial, opera sobre dados pseudonimizados por padrão — garantindo que os modelos preditivos não precisem de acesso a dados identificados para gerar valor clínico real.


Resumo: o que fazer antes de implementar IA com dados de saúde

  1. Mapear os dados que serão usados e classificá-los (sensíveis vs. comuns)
  2. Definir a base legal para o tratamento antes de iniciar qualquer projeto
  3. Pseudonimizar ou anonimizar sempre que o caso de uso permitir
  4. Nomear um DPO e garantir que ele está envolvido nos projetos de IA
  5. Revisar contratos com todos os fornecedores de tecnologia que processam dados de pacientes
  6. Elaborar o RIPD para projetos de alto risco
  7. Treinar a equipe — a maioria dos incidentes de dados vem de comportamento humano, não de falha técnica

Quer entender como a DataOpera garante compliance LGPD na sua operação de saúde?Falar com um especialista


O que realmente significa ser um Health AI Center
O que define um Health AI Center