A retirada da Diretiva de Responsabilidade em IA aumenta a incerteza jurídica na Europa. Veja o que muda para escritórios de advogados em Portugal e como se preparar.
A retirada da Diretiva de IA: e agora para os escritórios em Portugal?
Em fevereiro de 2025, a Comissão Europeia retirou formalmente a proposta de Diretiva de Responsabilidade em Inteligência Artificial (AI Liability Directive). Esta diretiva prometia facilitar a vida de quem sofre danos causados por sistemas de IA. De um dia para o outro, o projeto desapareceu da mesa.
Para um escritório de advogados em Portugal que já está a investir em IA para pesquisa jurídica, análise de contratos ou gestão de processos, esta decisão tem impacto direto: o quadro de responsabilidade civil por IA continua fragmentado, mais complexo e, sobretudo, mais arriscado para clientes… e para o próprio escritório.
Neste artigo da série “IA para Escritórios de Advogados em Portugal”, vou mostrar o que mudou com a retirada da diretiva, como isto se articula com o AI Act, e — mais importante — o que um escritório português pode fazer, na prática, para usar IA com segurança jurídica e transformar esta incerteza em oportunidade de negócio.
1. O que era a Diretiva de Responsabilidade em IA e porque foi retirada
A Diretiva de Responsabilidade em IA queria tornar mais simples a vida do lesado: reduzir o peso da prova e facilitar o acesso à prova quando o dano resultasse de um sistema de IA.
O objetivo central da diretiva
A lógica era clara:
- Os sistemas de IA são complexos, opacos e muitas vezes autónomos.
- Um consumidor ou uma PME tem enorme dificuldade em provar como um algoritmo específico causou o dano.
- A diretiva criava presunções de causalidade e mecanismos de acesso à prova para reequilibrar esta relação de forças.
Na prática, um lesado não teria de explicar tecnicamente o funcionamento do modelo de IA. Bastaria demonstrar que:
- houve incumprimento de deveres de diligência (por exemplo, requisitos do AI Act), e
- o dano é plausivelmente ligado ao funcionamento daquele sistema.
A partir daí, a responsabilidade deslocava-se mais facilmente para o produtor, fornecedor ou utilizador profissional da IA.
Porque é que a proposta caiu
A diretiva foi proposta em 2022, mas nunca reuniu consenso suficiente entre Estados‑Membros e setores económicos. As principais críticas vinham de empresas tecnológicas e indústrias muito digitalizadas:
- Medo de aumento de litigância e de uma “indústria de indemnizações”.
- Receio de custos de compliance elevados, sobretudo para PME que usam IA de terceiros.
- Argumento político de que a Europa já está “pesada” em regulação digital (GDPR, DSA, DMA, AI Act) e não precisava de mais uma camada.
Resultado: em 02/2025, a Comissão retirou formalmente a proposta e decidiu confiar na combinação entre AI Act + Diretiva de Responsabilidade por Produtos + direito nacional da responsabilidade civil.
A mensagem política é de “regulação mais leve”. Na prática, significa mais incerteza jurídica para quem litiga e para quem investe em IA.
2. AI Act vs Diretiva de Responsabilidade: o que fica e o que desaparece
Para um advogado português que acompanha a área, a distinção é simples: o AI Act regula a prevenção do risco, a Diretiva de Responsabilidade queria regular a reação ao dano.
O que o AI Act faz
O AI Act continua de pé e é o pilar da regulação europeia em IA. Em traços largos:
- Classifica sistemas de IA por níveis de risco (baixo, limitado, elevado, proibido).
- Impõe requisitos mais duros para IA de alto risco (por exemplo, scoring de crédito, recrutamento, sistemas usados na justiça, saúde, etc.).
- Exige documentação, gestão de risco, transparência, registo de eventos, supervisão humana, entre outros.
Ou seja, o AI Act responde à pergunta: “Como é que o sistema deve ser concebido e operado para reduzir o risco de dano?”
O que a Diretiva de Responsabilidade faria
A diretiva, agora retirada, respondia a outra pergunta: “Quando o dano já ocorreu, quem paga e com que regras da prova?”
Ela queria, por exemplo:
- Facilitar o acesso a documentação técnica do sistema de IA em tribunal.
- Criar presunções de nexo causal quando houvesse violação do AI Act.
- Harmonizar minimamente abordagens de responsabilidade civil entre Estados‑Membros.
Sem esta diretiva, voltamos ao mosaico de regimes:
- Diretiva de Responsabilidade por Produtos (atualizada), que trata de produtos defeituosos, incluindo software em certos casos.
- Direito nacional da responsabilidade civil (em Portugal, Código Civil, responsabilidade contratual e extracontratual, responsabilidade por produtos, etc.).
- Outras normas setoriais europeias (GDPR, DSA, direito do consumo, serviços financeiros, saúde, etc.).
Para os escritórios portugueses, isto significa duas coisas:
- O AI Act ganha ainda mais peso prático: violar o AI Act é meio caminho para ver reconhecida culpa ou defeito do produto.
- O papel do advogado como “tradutor” entre o técnico e o jurídico torna‑se crítico, porque as regras de responsabilidade continuam dispersas.
3. O novo mapa de responsabilidade por IA para advogados em Portugal
Hoje, um litígio envolvendo IA em Portugal vai passar, na maioria dos casos, por uma combinação de normas existentes.
Bases legais que continuam a mandar
-
Responsabilidade civil extracontratual (Código Civil)
- Artigos sobre facto ilícito, culpa, nexo causal e dano.
- Exemplo: um chatbot de uma seguradora presta informação errada que leva o cliente a assumir um risco financeiro relevante.
-
Responsabilidade por produtos defeituosos
- Já hoje pode cobrir software ou sistemas integrados com IA, se forem considerados “produtos”.
- A discussão passa por saber se havia um defeito de segurança face ao que era expectável.
-
Responsabilidade contratual
- Contratos de fornecimento de software, SaaS com IA, outsourcing de decisão automatizada, etc.
- Omitir cláusulas sobre IA, dados de treino, explicabilidade ou limites de uso é um convite ao litígio.
-
GDPR e proteção de dados
- Decisões automatizadas com impacto significativo em titulares de dados continuam altamente reguladas.
- Violações de princípios de minimização, exatidão, transparência ou base legal podem ser a peça-chave para fundamentar a ilicitude.
-
Direito do consumo e práticas comerciais desleais
- Uso de IA em publicidade personalizada, scoring de consumidores, serviços financeiros para retail, etc.
O problema da prova agrava-se
Sem a diretiva, o ónus da prova e o acesso a documentação técnica ficam menos claros:
- Provar o nexo causal entre o modelo de IA e o dano torna-se mais caro e tecnicamente exigente.
- Muitas empresas vão tentar esconder‑se atrás da opacidade técnica, alegando segredo comercial.
Para um escritório de advogados, isto tem uma consequência direta:
Quem dominar minimamente a linguagem técnica de IA terá uma vantagem processual real, tanto na acusação como na defesa.
Na prática, isto passa por saber fazer as perguntas certas a peritos, entender logs de sistema, perceber o que é um modelo generativo, um sistema de scoring, um modelo preditivo supervisionado, etc.
4. O que os escritórios portugueses devem fazer já (em vez de esperar por nova diretiva)
A retirada da diretiva não é motivo para ficar parado; é um sinal para profissionalizar a governação de IA dentro do próprio escritório e junto dos clientes.
4.1. Mapear onde a IA já está a ser usada
Muitos escritórios em Portugal já usam IA sem lhe chamar “IA”:
- Pesquisa jurídica avançada com modelos de linguagem.
- Ferramentas de análise e revisão de contratos com deteção automática de cláusulas.
- Sistemas de gestão de processos, prazos e faturação com componentes de previsão ou recomendação.
- Assistentes virtuais internos para gerar minutas, resumos de decisões ou rascunhos de peças.
O primeiro passo é simples e obrigatório: fazer um inventário de sistemas com IA, classificando:
- Quem é o fornecedor e onde está alojado o sistema.
- Que dados de clientes entram no sistema.
- Que tipo de decisões ou recomendações o sistema produz.
- Que impacto pode ter um erro do sistema (financeiro, reputacional, regulatório, disciplinar).
4.2. Rever contratos e políticas internas
Depois do mapeamento, entram as medidas jurídicas concretas:
-
Cláusulas de responsabilidade e garantias com fornecedores de IA
- Limites de responsabilidade aceitáveis.
- Níveis de serviço (SLA) e mecanismos de auditoria ou informação técnica mínima.
- Regras claras sobre propriedade de dados, dados de treino e logs.
-
Políticas internas de uso de IA para advogados e staff:
- Que ferramentas podem ser usadas com dados de clientes.
- Obrigação de revisão humana das saídas da IA.
- Proibição de introduzir segredos profissionais em serviços não autorizados.
-
Cláusulas com clientes sobre o uso de IA:
- Transparência: indicar que se recorre a ferramentas de IA em certas fases (por exemplo, triagem de documentos, pesquisa inicial).
- Refletir isto na alocação de risco e honorários (por exemplo, modelo híbrido: eficiência com IA mas responsabilidade final do advogado).
4.3. Documentar para reduzir risco de responsabilidade
Se a prova vai ser difícil, mais vale começar já a construir o dossiê de defesa:
- Registar a lógica de seleção e configuração de cada ferramenta de IA usada pelo escritório.
- Guardar políticas de atualização, manuais do fornecedor, resultados de testes internos.
- Criar registos simples de supervisão humana: quem reviu, quando e com que critérios.
Isto pode parecer burocracia, mas quando surgir o primeiro litígio sobre um parecer ou cláusula contratual gerada com apoio de IA, esta documentação será a diferença entre um erro desculpável e negligência grosseira.
5. Oportunidade estratégica: criar uma prática de “Direito da IA” no escritório
A incerteza regulatória não é apenas risco; é também mercado jurídico novo.
Os clientes empresariais em Portugal — bancos, seguradoras, retalho, saúde privada, tecnológicas, PME exportadoras — já estão a usar IA em grande escala, muitas vezes sem estratégia jurídica clara. Quem for o seu conselheiro nesta fase inicial ganha relacionamento de longo prazo.
Áreas de serviço que fazem falta hoje
Um escritório que queira posicionar-se em IA para empresas pode construir, por exemplo:
-
Auditorias jurídicas a projetos de IA
- Verificar alinhamento com AI Act, GDPR, direito do consumo, sectorial.
- Classificar o sistema por risco e propor medidas de mitigação.
-
Contratualização de projetos de IA
- Redesenhar contratos de fornecimento, licenciamento e parceria tecnológica à luz do novo contexto de responsabilidade.
- Incluir anexos técnicos mínimos e indicadores de desempenho.
-
Políticas internas e formação em IA para clientes
- Guias práticos de uso de IA para equipas comerciais, RH, apoio ao cliente.
- Formação sobre responsabilidades individuais e reporte de incidentes.
-
Litigância e pré‑litigância em IA
- Apoiar clientes que foram lesados por decisões automatizadas (exclusão de crédito, despedimento algorítmico, recusa de seguro).
- Defender empresas acusadas de usar IA de forma discriminatória ou negligente.
Nesta série “IA para Escritórios de Advogados em Portugal”, este tema encaixa diretamente: não se trata só de usar IA para acelerar trabalho interno, mas de desenhar uma área de negócio sustentável em torno do Direito da IA.
6. Próximos passos para o seu escritório em 2025
A retirada da Diretiva de Responsabilidade em IA mostra que o legislador europeu ainda está a ajustar o modelo, mas não muda o essencial: quem usa IA de forma profissional vai ser chamado a responder por danos.
Para um escritório de advogados em Portugal, os próximos meses podem ser decisivos:
-
Clarificar a própria posição interna sobre IA
- Definir que ferramentas são aprovadas e com que limites.
- Criar um pequeno grupo interno de referência em IA e proteção de dados.
-
Atualizar competências da equipa
- Formação básica em conceitos de IA para todos.
- Formação avançada em AI Act, responsabilidade civil e proteção de dados para quem quer liderar esta área.
-
Comunicar aos clientes que o escritório está preparado
- Não basta estar a trabalhar o tema “por dentro”; é crucial dizer ao mercado que o escritório acompanha o AI Act, a retirada da diretiva de responsabilidade e os impactos práticos disto.
O cenário regulatório europeu em IA vai continuar a mexer, com revisões da legislação de produtos, orientações das autoridades e, muito em breve, jurisprudência relevante dos tribunais nacionais e europeus.
Os escritórios que se organizarem desde já — tanto na forma como usam IA internamente, como na forma como aconselham clientes — vão estar numa posição muito mais forte quando os primeiros grandes casos de responsabilidade por IA chegarem aos tribunais portugueses.