A IA generativa já é usada em muitos escritórios portugueses. Quem responde pelos riscos? Saiba como proteger o seu escritório e transformar risco em oportunidade.
Responsabilidade jurídica da IA generativa nos escritórios
Em 2024, um relatório de 100 páginas da NYU sobre responsabilidade na IA generativa deixou uma mensagem clara: as empresas não podem “empurrar” a culpa para os fabricantes de IA. Quem decide usar a tecnologia é quem responde por ela. Isto inclui, sem rodeios, escritórios de advogados.
Para a advocacia em Portugal, que em 2025 já está a testar IA em pesquisa jurídica, análise de contratos e gestão de escritório, esta realidade é decisiva. A boa notícia? É perfeitamente possível tirar partido da IA generativa com segurança jurídica, desde que o uso seja pensado e controlado. A má notícia é que muitos escritórios ainda estão a usar ferramentas gratuitas, sem políticas, sem formação e sem qualquer avaliação de risco.
Neste artigo da série “IA para Escritórios de Advogados em Portugal”, vou focar-me num ponto que quase ninguém quer discutir: quem responde quando a IA corre mal? Vamos passar da teoria do relatório da NYU para a prática quotidiana de um escritório português, com exemplos concretos e passos acionáveis.
1. O mito perigoso: “a responsabilidade é do fornecedor de IA”
A mensagem central do relatório da NYU é direta: as leis já existentes aplicam‑se às decisões tomadas com IA, como se tivessem sido tomadas por humanos. Em matéria de responsabilidade, a IA é vista como ferramenta, não como sujeito.
Para um escritório de advogados em Portugal, isto significa:
- Se um escritório usa IA para apoiar decisões em recrutamento, continua sujeito à lei da igualdade e não discriminação.
- Se aconselha um cliente que usa IA em crédito, seguros, arrendamento ou emprego, continua a aplicar‑se o quadro europeu (incluindo o RGPD e regras setoriais).
- Com a entrada em vigor do AI Act da UE nos próximos anos, este enquadramento vai ficar ainda mais detalhado, mas a base já está lá: quem usa, responde.
A realidade é simples: a IA não é um “escudo de responsabilidade”. É um potenciador de risco se não for bem governada.
É aqui que muitos escritórios se enganam. Confiar que o fornecedor “já trata da conformidade” é o mesmo que assumir que o fabricante da impressora é responsável por uma cláusula ilegal num contrato impresso.
2. Quatro riscos jurídicos centrais para escritórios de advogados
2.1. Confidencialidade e proteção de dados
O risco mais óbvio é também o mais ignorado: colocar informação confidencial em ferramentas de IA abertas.
Exemplo realista:
- Uma associada júnior copia um rascunho de contestação com dados pessoais de um cliente para uma ferramenta de IA gratuita para “melhorar a redação”.
- O texto é processado fora da UE, pode ser utilizado para treino futuro do modelo e ninguém no escritório tem qualquer controlo sobre o destino desses dados.
Problemas imediatos:
- Potencial violação do segredo profissional.
- Tratamento ilícito de dados pessoais à luz do RGPD.
- Ausência de qualquer acordo de subcontratante ou garantias adequadas.
Se ocorrer uma fuga de informação, quem responde perante o cliente e a CNPD? O escritório, não o chatbot público. O fornecedor pode ter responsabilidade, mas a linha da frente é sempre a entidade que decidiu usar a ferramenta e forneceu os dados.
2.2. Viés, discriminação e decisões automatizadas
A IA generativa e outros sistemas de IA aprendem com dados históricos, muitas vezes cheios de vieses. Isto não é abstrato; tem impacto direto nas práticas de clientes de um escritório.
Cenários típicos em Portugal:
- Cliente empresarial que usa IA em triagem de CVs.
- Banco ou financeira que usa modelos de IA para concessão de crédito.
- Empresa de gestão imobiliária que recorre a IA para analisar perfis de arrendatários.
Se a IA discriminar candidatos por género, idade, origem étnica ou local de residência, não há “culpa do algoritmo” que valha. O responsável é quem tomou (ou aceitou) a decisão com base na IA. O escritório que aconselha estes clientes precisa de perceber:
- Que dados alimentam os modelos.
- Que controlos existem para detetar e mitigar viés.
- Quem valida as decisões finais: máquina, humano ou ambos.
2.3. Erros materiais em peças e pareceres
Outra fonte de responsabilidade é mais prosaica: a IA inventa coisas. Alucina jurisprudência, cita diplomas inexistentes, gera prazos errados.
Cenário possível:
- Um advogado usa IA generativa para preparar uma minuta de recurso e confia na lista de acórdãos sugeridos.
- Não verifica um deles. Mais tarde descobre‑se que a decisão nunca existiu.
Riscos aqui:
- Responsabilidade civil profissional perante o cliente por erro grosseiro.
- Responsabilidade disciplinar perante a Ordem dos Advogados.
IA generativa, hoje, é ótima para rascunhos, brainstorming, estruturação de argumentos. Mas é péssima como fonte única de verdade jurídica. Se um escritório não definir regras claras, alguém vai, inevitavelmente, ir longe demais na delegação.
2.4. Uso não autorizado de IA pelos colaboradores
O relatório da NYU sublinha algo que vejo em muitos ambientes profissionais: a utilização “às escondidas” de ferramentas gratuitas.
Num escritório típico, isto traduz‑se em:
- Estagiários a usarem IA gratuita para resumir processos.
- Secretariado a usar IA para traduzir e-mails com dados sensíveis.
- Advogados a pedirem à IA sugestões de cláusulas contratuais completas com detalhes do negócio.
Tudo sem:
- Qualquer avaliação de risco.
- Qualquer registo do que foi feito.
- Qualquer formação em temas legais e éticos da IA.
Resultado: o escritório tem exposição jurídica real sem ter sequer consciência disso.
3. O quadro legal que já se aplica em Portugal
A pergunta que muitos advogados fazem é: “Mas qual é a lei específica sobre IA?”. A resposta honesta, em 12/2025, é: o essencial já está no ordenamento, através de leis gerais.
Para um escritório em Portugal, os principais pilares são:
- RGPD – tratamento de dados pessoais em sistemas de IA (finalidade, base legal, minimização, direitos dos titulares, transferências internacionais, DPO, DPIA).
- Segredo profissional e dever de confidencialidade – reforçado nos Estatutos da Ordem e no Código Deontológico.
- Direito do consumo, laboral, concorrência e não discriminação – sempre que a IA é usada por clientes nestas áreas.
- Responsabilidade civil profissional – erros causados por utilização imprudente ou negligente de IA.
- AI Act da UE – a entrar em vigor faseadamente, com regimes mais exigentes para sistemas de alto risco.
Ou seja: não é preciso esperar por uma “Lei da IA” para agir de forma segura. Os riscos já podem ser enquadrados hoje, com ferramentas jurídicas que todos os advogados conhecem.
4. Como um escritório pode usar IA generativa com segurança
A parte prática é esta: escritórios que definem regras claras conseguem beneficiar da IA e reduzir a exposição a níveis aceitáveis. O próprio relatório da NYU não é anti‑IA; é pró‑governação.
4.1. Começar por mapear onde a IA já está a ser usada
Antes de comprar soluções, o passo mais honesto é perguntar: “onde é que já estamos a usar IA sem saber?”.
Sugestão de inventário interno:
- Ferramentas de pesquisa jurídica com funcionalidades de IA.
- Softwares de gestão documental com classificação automática.
- Chatbots internos ou externos ao site do escritório.
- Utilização individual de ferramentas genéricas (chatbots públicos, plugins, extensões de browser).
Este mapeamento permite perceber onde há dados sensíveis, onde há transferências internacionais e onde não há qualquer contrato ou avaliação de risco.
4.2. Definir uma política interna de IA para o escritório
Um Policy de IA não precisa de ser um calhamaço. Precisa de ser claro, usável e conhecido.
Pontos mínimos que recomendo:
- Finalidades permitidas: por exemplo, redação, revisão de estilo, brainstorming, estruturação de argumentos, mas nunca decisões finais sem revisão humana.
- Dados proibidos: proibir a inserção de informações de identificação de clientes, dados sensíveis, detalhes processuais concretos em ferramentas não aprovadas.
- Ferramentas autorizadas: lista positiva de sistemas de IA verificados pelo escritório (incluindo se fazem ou não treino com dados do utilizador).
- Revisão humana obrigatória: qualquer output da IA ligado a análise jurídica, pareceres ou peças tem de ser revisto por advogado responsável.
- Registo mínimo: em matérias mais sensíveis, registar quando e como a IA foi usada no processo de trabalho.
4.3. Formar equipas com foco em risco, não em hype
A maioria das formações em IA para advogados foca‑se em “truques de produtividade”. O que falta é:
- Como identificar alucinações da IA em contextos jurídicos.
- Como avaliar fonte, atualidade e fiabilidade de informação gerada.
- Quais são os limites de confidencialidade e proteção de dados.
- Qual é a responsabilidade pessoal e disciplinar do advogado.
Um webinar de 2 horas para toda a equipa, com exemplos concretos de processos portugueses, já reduz bastante o risco.
4.4. Rever contratos com fornecedores de IA
Para escritórios que já usam soluções de IA para pesquisa ou gestão, vale a pena rever:
- Onde são tratados os dados (UE ou países terceiros).
- Se os dados do escritório são usados para treino do modelo.
- Que garantias contratuais existem sobre segredo profissional, segurança e subcontratantes.
- Que cláusulas de responsabilidade e indemnização estão previstas.
Não se trata de exigir o impossível, mas de alinhar o nível de proteção com a sensibilidade dos dados de um escritório de advogados, que não é igual ao de um blog de culinária.
5. Oportunidade estratégica: da gestão de risco a novo serviço jurídico
Escritórios que dominarem este tema não vão só proteger‑se. Vão abrir uma nova linha de serviço junto dos seus clientes empresariais.
Alguns exemplos concretos de serviços que um escritório em Portugal pode oferecer já em 2025:
- Auditoria de utilização de IA em empresas (mapear ferramentas, dados, riscos e bases legais).
- Políticas de IA e governação adaptadas a cada setor (banca, saúde, imobiliário, recursos humanos, retalho).
- Revisão de contratos com fornecedores de IA, incluindo cláusulas de responsabilidade, confidencialidade e dados.
- Formação jurídica para equipas internas de RH, IT, compliance e marketing sobre uso responsável de IA.
Na prática, quem percebe de responsabilidade da IA generativa hoje fica numa posição muito forte para aconselhar clientes amanhã, quando o AI Act e regulamentos nacionais apertarem o cerco.
6. Próximos passos para o seu escritório em 30 dias
Para fechar, deixo um mini‑plano concreto, pensado para um escritório de pequena ou média dimensão em Portugal:
-
Semana 1 – Diagnóstico rápido
- Identificar todas as ferramentas com funcionalidades de IA já em uso.
- Recolher exemplos de como os advogados e staff as estão a usar.
-
Semana 2 – Regras mínimas
- Aprovar uma política interna simples sobre uso de IA.
- Definir pelo menos uma ferramenta de IA “oficial” para uso controlado.
-
Semana 3 – Formação objetiva
- Sessão interna sobre riscos jurídicos (confidencialidade, RGPD, viés, responsabilidade profissional).
- Demonstrações práticas de boas e más utilizações.
-
Semana 4 – Olhar para os clientes
- Identificar 3–5 clientes que já usam ou querem usar IA.
- Preparar uma proposta de serviço focada em conformidade e risco na IA generativa.
Ao longo desta série “IA para Escritórios de Advogados em Portugal”, o objetivo é exatamente este: mostrar que a IA pode ser um enorme aliado, desde que o escritório trate o tema como trata qualquer outra área de risco jurídico sério – com método, bom senso e liderança.
A pergunta para os próximos meses é simples: o seu escritório quer ser arrastado pelos problemas da IA ou quer ser o conselheiro que sabe preveni‑los?