Diretiva de Responsabilidade por IA: o que muda para advogados

Inteligência Artificial para Empresas PortuguesasBy 3L3C

A retirada da Diretiva de Responsabilidade por IA aumenta a incerteza, mas abre espaço para escritórios portugueses liderarem em IA, responsabilidade e compliance.

inteligência artificialresponsabilidade civilAI Actcomplianceadvocacia empresarialdireito tecnológico
Share:

A retirada da Diretiva de Responsabilidade por IA: e agora?

Em fevereiro de 2025, a Comissão Europeia retirou oficialmente a proposta de Diretiva de Responsabilidade por IA. Durante mais de dois anos, muitos escritórios de advogados em Portugal prepararam-se para este novo quadro legal, investiram em formação e ajustaram cláusulas contratuais. De um dia para o outro… a peça central da responsabilidade civil em IA desapareceu.

A realidade? A responsabilidade por IA na União Europeia continua a existir – apenas ficou mais difusa, mais dependente de diretivas gerais e, sobretudo, mais dependente de advogados que saibam navegar este vazio regulatório. Para os escritórios portugueses, isto é simultaneamente um risco e uma oportunidade clara de diferenciação.

Neste artigo explico:

  • O que era a Diretiva de Responsabilidade por IA e porque foi retirada
  • Como se articula agora com o AI Act, o RGPD e o regime geral de responsabilidade
  • O impacto prático para escritórios de advogados em Portugal
  • Medidas concretas para criar serviços de compliance em IA que gerem honorários e novos clientes

1. O que era a Diretiva de Responsabilidade por IA – e porque caiu

A Diretiva de Responsabilidade por IA foi proposta em 09/2022 para resolver um problema simples: as regras clássicas de responsabilidade não foram pensadas para sistemas autónomos, opacos e baseados em dados.

Objetivo central da Diretiva

Em termos práticos, a proposta queria:

  • Reduzir o ónus da prova para vítimas de danos causados por sistemas de IA
  • Criar presunções de causalidade quando um sistema de IA estivesse envolvido
  • Facilitar o acesso à prova (documentação técnica, logs, dados de treino)

Ou seja: em vez de a vítima ter de provar ao detalhe “o que se passou dentro do algoritmo”, bastaria demonstrar o uso do sistema de IA e o nexo com o dano. O foco era tornar a litigância viável contra fornecedores e utilizadores profissionais de IA.

Porque foi retirada

A proposta caiu por três razões principais:

  1. Pressão política e económica: associações empresariais e tecnológicas argumentaram que o regime seria pesado, travaria inovação e afastaria investimento em IA da UE.
  2. Falta de consenso entre Estados-Membros: diferentes tradições jurídicas (civil law vs. abordagens mais flexíveis) levaram a posições incompatíveis sobre o nível de proteção e sobre quem deveria suportar o risco.
  3. Sobreposição com o AI Act e com o regime de responsabilidade por produtos: vários governos preferiram testar primeiro o impacto do AI Act e da reforma da Diretiva de Responsabilidade por Produtos antes de criar mais um instrumento.

O resultado é claro: não há regime específico de responsabilidade civil por IA na UE. Em vez disso, vamos viver, durante alguns anos, com um mosaico de normas gerais aplicadas a situações tecnológicas muito novas.


2. AI Act vs. responsabilidade por IA: o que fica em vigor

Muitos clientes já perguntaram a escritórios em Portugal: “Se a Diretiva de Responsabilidade por IA morreu, o AI Act também?”. A resposta é não.

O AI Act continua – e é preventivo, não indemnizatório

O AI Act é um regulamento horizontal que:

  • Classifica sistemas de IA por níveis de risco (mínimo, limitado, elevado, proibido)
  • Impõe obrigações fortes para sistemas de alto risco (documentação, gestão de risco, qualidade de dados, transparência, supervisão humana)
  • Prevê coimas significativas por incumprimento

O foco do AI Act é evitar o dano, não indemnizar depois do dano.

Onde ficam agora as regras de responsabilidade

Sem a Diretiva de Responsabilidade por IA, a litigância relacionada com IA passa a apoiar‑se em três pilares principais:

  1. Diretiva de Responsabilidade por Produtos (reformada)

    • Responsabilidade objetiva por produtos defeituosos, incluindo software e, em certos casos, sistemas de IA integrados em bens
    • Discussão crítica: o que é “defeito” num sistema de IA que “aprende” e se atualiza?
  2. Direito nacional de responsabilidade civil (tort law)

    • Em Portugal, regras do Código Civil sobre responsabilidade contratual e extracontratual
    • Necessidade de provar facto, ilicitude, culpa (em muitos casos), dano e nexo causal – sem presunções específicas para IA
  3. Regulação digital setorial (RGPD, DSA, e o próprio AI Act)

    • RGPD: danos por tratamentos de dados pessoais suportados por IA (perfis, decisões automatizadas, discriminação)
    • DSA: obrigações de plataformas online quanto a conteúdos, algoritmos de recomendação, transparência
    • AI Act: incumprimento de obrigações técnicas pode servir como pista de culpa ou defeito.

Para os advogados, isto significa duas coisas:

Não há “atalho” processual específico para IA, mas há muitos pontos de entrada jurídicos a explorar.


3. O que isto significa para escritórios de advogados em Portugal

Para a advocacia portuguesa, especialmente para escritórios que trabalham com empresas, tecnologia, consumo, laboral ou saúde, a retirada da Diretiva não tira trabalho. Pelo contrário, cria espaço para quem entende de IA e sabe estruturar risco.

3.1. Mais incerteza jurídica = mais procura de aconselhamento

Sem regras claras, os decisores empresariais querem algo muito simples: reduzir probabilidade de litígio e de coimas. É aqui que um escritório pode oferecer valor concreto:

  • Mapear onde a empresa usa ou planeia usar IA de alto risco (recrutamento, scoring de crédito, triagem de candidaturas, pricing dinâmico, análise de sinistros, diagnóstico médico, etc.)
  • Cruzar cada caso de uso com:
    • AI Act (obrigações técnicas e organizacionais)
    • RGPD (base legal, proporcionalidade, direitos dos titulares)
    • Responsabilidade civil (contratos, cláusulas de indemnização, seguros)

Quem conseguir traduzir isto em linguagem simples para o conselho de administração, ganha a confiança do cliente.

3.2. Oportunidade: criar prática de “AI & Compliance”

Há um espaço óbvio para práticas especializadas de direito da IA dentro dos escritórios portugueses. Alguns serviços muito concretos que podem ser oferecidos:

  • Due diligence de IA em operações de M&A ou investimentos em startups tecnológicas
  • Revisão e redação de cláusulas contratuais sobre IA em:
    • contratos de SaaS e licenças de software
    • contratos de outsourcing e BPO
    • contratos de trabalho (uso de IA na avaliação de desempenho, monitorização, BYOD)
  • Criação de políticas internas de IA responsável para grupos empresariais
  • Apoio na estruturação de comités de ética e governação de IA

Advogados que dominem estes temas deixam de ser “um custo jurídico inevitável” e passam a ser parceiros estratégicos de gestão de risco tecnológico.

3.3. Risco: litígios complexos e caros

Do outro lado, quem litiga deve preparar-se para processos mais técnicos:

  • É provável que surjam perícias sobre algoritmos e dados de treino
  • Haverá discussões sobre explicabilidade: o que é uma explicação suficiente quando o modelo é complexo?
  • Em muitos casos, o cliente nem sabe que houve IA envolvida. Descobrir e provar isso será parte essencial do trabalho do advogado.

Escritórios que invistam agora em literacia tecnológica básica (sabendo ao menos distinguir tipos de modelos, fontes de risco, limites da explicação) vão estar muito à frente nos próximos 3 a 5 anos.


4. Como aconselhar empresas que usam IA: um roteiro prático

Os clientes não querem teoria sobre IA. Querem respostas como: “Posso usar este sistema de IA?” e “O que preciso de mudar para não ter problemas?”. Um roteiro de trabalho eficaz para escritórios de advogados pode seguir quatro etapas.

4.1. Levantamento: onde está a IA na organização

O primeiro erro é assumir que a empresa “quase não usa IA”. Em 2025, isso é raro. Muitas vezes já existe:

  • Ferramentas de IA generativa no marketing e comunicação
  • Sistemas de scoring em crédito ou análise de risco
  • Algoritmos de recomendação em e-commerce
  • Software de monitorização de colaboradores ou de triagem de CVs

O escritório pode oferecer um “AI Legal Assessment” com perguntas simples mas estratégicas para cada departamento (RH, Marketing, IT, Jurídico, Compliance).

4.2. Classificar risco jurídico por caso de uso

Depois do mapeamento, importa classificar o risco combinando AI Act, RGPD e responsabilidade civil. Um modelo prático para advogados:

  • Baixo risco: chatbots internos, ferramentas de apoio sem impacto direto em decisões sobre pessoas
  • Médio risco: IA em campanhas de marketing com perfis, análises de comportamento
  • Alto risco: decisões automatizadas em crédito, emprego, saúde, educação, policiamento, seleção de beneficiários de prestações

Para cada categoria, o escritório define requisitos mínimos:

  • Documentação do sistema e do fornecedor
  • Registos de decisões e logs
  • Procedimentos de revisão humana
  • Avaliações de impacto (especialmente RGPD para decisões automatizadas)

4.3. Fortalecer prova e prevenção de litígios

Sem Diretiva de Responsabilidade por IA, o ónus da prova volta a pesar mais sobre quem alega o dano. Mas para as empresas isto não é uma “boa notícia”:

Quem documenta mal, explica pior. E quem explica pior, perde reputação e negocia a partir de uma posição fraca.

O advogado pode recomendar:

  • Registos claros de como a IA foi usada em decisões relevantes
  • Guardar versões de modelos, conjuntos de treino e critérios de decisão
  • Definir fluxos de validação humana em casos sensíveis (crédito, despedimentos, reprovação em concursos)

Tudo isto é ouro em tribunal – tanto para quem defende como para quem acusa.

4.4. Cláusulas contratuais específicas de IA

Em contratos com fornecedores de tecnologia, as cláusulas padrão já não chegam. Alguns pontos essenciais que um escritório português pode normalizar nos seus modelos:

  • Obrigações de transparência técnica mínima (documentação, descrição de modelos, atualizações)
  • Partilha de responsabilidades em caso de dano (incluindo subcontratantes e modelos de terceiros)
  • Auditorias ou avaliações externas de IA de alto risco
  • Obrigações de atualização para conformidade com o AI Act

Este tipo de clausulado é, neste momento, uma área clara de especialização para advogados comerciais e de tecnologia.


5. Como os escritórios podem organizar uma oferta de “IA para Advogados”

Para transformar tudo isto em negócios reais, o escritório precisa de uma oferta clara, e não apenas “sabemos alguma coisa sobre IA”. Um modelo possível:

  • Formação interna estruturada (3–4 sessões) sobre fundamentos técnicos de IA, AI Act, RGPD aplicado à IA e responsabilidade civil
  • Criação de um núcleo interno de 2–3 advogados “AI‑focussed” que acompanham evolução regulamentar europeia
  • Desenvolvimento de produtos jurídicos concretos, por exemplo:
    • Pacote “IA & RH”: políticas internas, revisão de ferramentas de recrutamento e avaliação
    • Pacote “IA & Crédito/Seguros”: modelos de scoring, explicabilidade, informação ao cliente
    • Pacote “IA & Saúde”: dispositivos médicos, telemedicina, triagem automatizada

Quem estruturar isto em 2025 em Portugal posiciona-se para captar empresas que estão agora a experimentar IA generativa e sistemas de alto risco sem uma bússola jurídica clara.


Conclusão: ausência de diretiva, excesso de trabalho jurídico

A retirada da Diretiva de Responsabilidade por IA não significa que a responsabilidade desapareceu – apenas ficou mais fragmentada e mais dependente da capacidade dos advogados em articular AI Act, RGPD, responsabilidade por produtos e direito civil.

Para os escritórios de advogados em Portugal, o momento é favorável: há empresas a adotar IA mais depressa do que compreendem o risco jurídico. Quem conseguir oferecer aconselhamento em IA, responsabilidade e compliance de forma pragmática vai captar novos clientes e fidelizar os atuais.

Este é o momento de deixar de falar de IA apenas em conferências e começar a integrá-la nas propostas de serviços, nos modelos de contrato e na estratégia do escritório. A regulação europeia vai continuar a evoluir; os clientes também. A questão é simples: o seu escritório vai acompanhar – ou ficar a ver de fora?