Advogados portugueses já usam IA, mas a responsabilidade continua a ser deles. Veja onde surgem riscos reais e como proteger o seu escritório ao adotar IA.
Responsabilidade legal da IA nos escritórios de advogados
Em 2024, vários estudos em EUA e UE chegaram à mesma conclusão: a maioria dos advogados que usa IA generativa não sabe exatamente quais são os riscos jurídicos que está a assumir. Muitos assumem que “se a ferramenta existe, é porque é segura”. É aqui que começam os problemas.
No contexto da série “IA para Escritórios de Advogados em Portugal”, este tema é crítico. Ferramentas de IA já estão a ser usadas em pesquisas jurídicas, rascunhos de peças, revisão de contratos e gestão de escritório. Mas cada prompt mal pensado pode criar deveres profissionais, exposição disciplinar e responsabilidade civil para o advogado e para a sociedade.
Neste artigo vou focar-me em algo que quase ninguém explica aos colegas: quem responde quando a IA erra? E como é que um escritório português pode usar estas ferramentas de forma produtiva sem abrir uma frente de risco desnecessária.
1. O que está realmente em causa quando um advogado usa IA
Quando um advogado português usa IA generativa no seu trabalho, não está apenas a “experimentar tecnologia”. Está a:
- Tratar dados potencialmente confidenciais
- Produzir conteúdos que o cliente pode interpretar como assessoria
- Tomar decisões com base em respostas de um sistema imprevisível
Ou seja, a IA não substitui o advogado, mas o risco continua a ser do advogado. A ferramenta não está inscrita na Ordem, não tem seguro de responsabilidade civil, não responde disciplinarmente. Quem responde é sempre a pessoa que a usa.
Três níveis de risco que muitos ignoram
-
Risco deontológico
Violação de sigilo profissional, independência, dever de zelo e diligência, entre outros deveres previstos no Estatuto da Ordem dos Advogados. -
Responsabilidade civil profissional
Se um erro baseado em IA causa dano ao cliente (por exemplo, perder um prazo ou aconselhar uma estratégia inviável), o cliente pode exigir indemnização. -
Responsabilidade contratual e de proteção de dados
Partilhar dados de clientes com certos sistemas de IA pode violar RGPD e, em alguns casos, os próprios contratos com clientes ou parceiros.
A conclusão prática é simples: usar IA não é inocente. É uma decisão técnica, de negócio e de compliance ao mesmo tempo.
2. Principais áreas de responsabilidade: onde os erros custam caro
A responsabilidade legal da IA para advogados e pequenos escritórios surge, sobretudo, em quatro frentes: confidencialidade, qualidade técnica, transparência com o cliente e proteção de dados.
2.1. Confidencialidade e sigilo profissional
O maior erro que vejo é este: copiar e colar a descrição completa do caso num chatbot público para “ver o que ele sugere”.
Riscos imediatos:
- Transferir dados pessoais e sensíveis para servidores de terceiros fora da UE
- Perder o controlo sobre a utilização futura desses dados
- Não conseguir garantir o sigilo profissional, nem explicar ao cliente o que foi feito
Num eventual processo disciplinar, a defesa “mas era só para testar a IA” não tem qualquer força. Do ponto de vista deontológico, o advogado tem de proteger a confidencialidade em qualquer ferramenta que use, analógica ou digital.
2.2. Erros técnicos e “alucinações” da IA
A IA generativa é conhecida por inventar jurisprudência, doutrina e até artigos de lei quando não encontra informação adequada. Se o advogado transcreve essas respostas para um articulado sem verificação rigorosa, abre três tipos de risco:
- Risco de erro profissional grave perante o cliente
- Risco de descrédito junto do tribunal
- Risco disciplinar por falta de diligência e zelo
A regra de ouro para IA jurídica em Portugal é direta:
A IA pode auxiliar na pesquisa e no rascunho, mas nunca substitui a análise crítica e a confirmação do advogado.
2.3. Dever de informação e transparência com o cliente
Os clientes corporativos, sobretudo, começam a perguntar: “O meu processo está a ser tratado por juristas ou por máquinas?”.
Do ponto de vista ético, há três boas práticas:
- Não prometer “IA infalível” ou capacidade de previsão de resultados como se fossem certezas
- Explicar, quando relevante, que a IA é usada para apoio e eficiência, não para decidir sozinha
- Garantir que os honorários não escondem uma utilização abusiva de automação (por exemplo, cobrar 10 horas por algo feito em 30 minutos com IA sem qualquer valor acrescentado humano)
2.4. Proteção de dados (RGPD) e IA
Qualquer sociedade de advogados que trate dados pessoais (logo, praticamente todas) é responsável por garantir que as ferramentas de IA respeitam o RGPD. Isto implica:
- Avaliar se há transferência de dados para fora da UE
- Ver se o fornecedor é subcontratante (sub-processor) e se há contratos adequados
- Definir prazos de conservação dos dados e finalidades de tratamento
- Considerar a necessidade de uma Avaliação de Impacto sobre Proteção de Dados em projetos de IA de maior escala
Um pequeno escritório pensa muitas vezes que “isto é só para grandes firmas”. Não é. A CNPD não distingue pela dimensão do escritório quando há violação grave de dados.
3. Exemplos práticos: onde um pequeno escritório pode cair
Para tornar isto concreto, vejamos três cenários comuns num escritório de advogados em Portugal que começou a usar IA.
Cenário 1 – Petição inicial com jurisprudência inventada
Uma advogada usa IA generativa para rascunhar uma petição inicial em matéria laboral. A ferramenta devolve um texto com várias “citações” de acórdãos de tribunais superiores, todos com aparência plausível. A advogada, pressionada pelo prazo, faz apenas uma revisão superficial e apresenta a petição.
No tribunal, o juiz ou a parte contrária verificam que nenhum daqueles acórdãos existe. Resultado possível:
- Perda de credibilidade da advogada
- Possível queixa do cliente por erro profissional
- Processo disciplinar por falta de diligência
Aqui, o problema não é a IA; é a falta de verificação humana.
Cenário 2 – Dados sensíveis num chatbot público
Um sócio descreve num chatbot público um caso de criminalidade económica com nomes de pessoas, empresas e detalhes bancários, para “pedir ajuda na estratégia de defesa”. Esses dados ficam guardados para treino futuro do modelo.
Se mais tarde houver uma fuga de dados ou exploração dessa informação, o escritório enfrenta:
- Potencial violação de sigilo profissional
- Responsabilidade perante o cliente
- Risco de sanções da CNPD
Tudo isto podia ser evitado com uma política simples: nunca introduzir dados identificáveis em ferramentas públicas de IA.
Cenário 3 – Automação de respostas a clientes sem supervisão
Um pequeno escritório decide usar IA para responder automaticamente a perguntas frequentes de clientes via e‑mail. O sistema, sem supervisão, dá uma resposta imprecisa sobre prazos de caducidade num caso específico. O cliente confia, não atua a tempo, perde o direito.
O escritório pode ser responsabilizado por:
- Falha no dever de aconselhamento
- Falta de supervisão adequada de sistemas usados no âmbito da prática profissional
A solução? IA sim, mas sempre com revisão humana em qualquer resposta que possa ter impacto jurídico real.
4. Boas práticas para usar IA em escritórios de advogados em Portugal
Há uma forma responsável de usar IA jurídica que aumenta a produtividade sem pôr o escritório em risco constante. Requer algumas decisões práticas.
4.1. Definir uma política interna de uso de IA
Mesmo num escritório pequeno, recomendo criar um documento simples (2–4 páginas) que responda a:
- Que ferramentas de IA podem ser usadas (públicas, privadas, on‑premises)
- Que tipos de dados nunca podem ser inseridos
- Em que tarefas a IA é permitida (ex.: rascunhos, resumos, brainstorming) e em quais é proibida
- Quem supervisiona a adoção de novas ferramentas
Esta política mostra maturidade perante clientes, seguradoras e até perante a própria Ordem, caso surja alguma questão futura.
4.2. Implementar o princípio “IA assistida, decisão humana”
Uma boa regra para o dia-a-dia:
- A IA pode sugerir argumentos, estruturar textos, resumir documentos
- O advogado deve confirmar factos, fontes e adequação jurídica
- Nenhum output da IA deve ser copiado para uma peça processual sem verificação independente
É um modelo semelhante ao de um estagiário talentoso: ajuda muito, mas precisa sempre de revisão.
4.3. Escolher ferramentas pensadas para o contexto jurídico
Para reduzir riscos, vale a pena preferir soluções de IA para advogados que ofereçam:
- Hospedagem de dados em servidores europeus
- Contratos claros sobre uso de dados (sem treino do modelo com dados dos clientes)
- Mecanismos de auditoria e registo de atividade
- Integração com sistemas de gestão documental do escritório
Ferramentas genéricas podem ser úteis em tarefas internas (por exemplo, melhorar redação de e‑mails, criar resumos não confidenciais), mas não devem ser a base do trabalho jurídico substancial.
4.4. Formação contínua em IA e ética profissional
A pior combinação é: uso intenso de IA + zero formação. Para evitar isso:
- Incluir módulos de IA, RGPD e deontologia na formação interna de estagiários e associados
- Revisitar a política de IA do escritório pelo menos uma vez por ano
- Acompanhar orientações de entidades europeias e nacionais sobre IA no setor jurídico
Quem souber articular bem IA + ética + prática jurídica vai distinguir-se no mercado português nos próximos anos.
5. Como posicionar o seu escritório: risco controlado e valor acrescentado
A responsabilidade legal da IA para advogados e pequenos escritórios não é um obstáculo à inovação; é um quadro de segurança. Escritores que ignoram estes temas arriscam-se a ser os exemplos dos próximos “casos mediáticos de IA que correu mal”.
Para quem atua em Portugal e acompanha esta série “IA para Escritórios de Advogados em Portugal”, o caminho mais sólido passa por três ideias:
-
IA não é marketing, é infraestrutura jurídica.
Deve ser tratada com o mesmo cuidado que a gestão de prazos, o sigilo ou o arquivo. -
O advogado continua no centro.
A responsabilidade, a confiança do cliente e a interpretação jurídica não podem ser delegadas a um algoritmo. -
Quem criar desde já políticas claras de uso de IA vai ganhar vantagem competitiva.
Clientes empresariais valorizam escritórios que combinam tecnologia com seriedade na gestão de risco.
Se o seu escritório quer aproveitar a IA para pesquisa jurídica, análise de contratos, previsão de resultados ou gestão interna, o próximo passo lógico é definir regras claras de uso responsável e escolher ferramentas que respeitem o enquadramento jurídico português.
A pergunta para 2025 não é “usar ou não usar IA?”. A pergunta é: que tipo de escritório quer ser – um que comanda a IA com regras claras, ou um que descobre os riscos quando já é tarde demais?