As ordens executivas de IA nos EUA mudaram de rumo. Veja porque isto interessa a escritórios de advogados em Portugal e como ajustar governação, contratos e estratégia.
Porque é que as ordens executivas de IA dos EUA interessam a um escritório em Lisboa ou no Porto?
Há um dado curioso que costuma surpreender: mais de 70% das grandes plataformas de IA usadas em escritórios de advogados portugueses (pesquisa jurídica, contract review, gestão documental) são controladas por empresas norte‑americanas. Quando a Casa Branca muda a forma como regula a inteligência artificial, o reflexo sente‑se, mais cedo ou mais tarde, em qualquer sociedade de advogados que use estas ferramentas – incluindo em Portugal.
A transição de Joe Biden para Donald Trump em 01/2025 trouxe precisamente isso: uma mudança brusca de direção na política de IA, com revogação da Ordem Executiva 14110 (Biden) e publicação da 14179 (Trump), muito mais focada em desregulação e crescimento económico. Para quem lidera um escritório de advogados em Portugal e começa a estruturar uma estratégia de IA jurídica, este contexto internacional não é detalhe técnico: é risco, oportunidade e, sobretudo, um alerta para a importância de ter governação interna sólida.
Neste artigo da série “IA para Escritórios de Advogados em Portugal”, vou resumir o que mudou nos EUA, explicar porque isto mexe com o dia a dia de advogados portugueses e sugerir passos concretos para integrar estas aprendizagens na gestão de risco, compliance e estratégia digital do seu escritório.
1. O que mudou: da Ordem Executiva 14110 à 14179
A mensagem central é simples: Biden tentou criar um enquadramento de segurança e governação da IA; Trump está a desmontar parte desse enquadramento para privilegiar inovação e mercado.
EO 14110 (Biden): segurança, transparência e governação pública
A Ordem Executiva 14110, de 30/10/2023, procurava estruturar a governação federal de IA nos EUA, com foco em:
- criação de Chief AI Officers (CAIO) em agências federais;
- um AI Council interagências para coordenar políticas;
- alinhamento com normas de gestão de risco do NIST;
- obrigações de reporte para desenvolvedores de modelos avançados;
- programas de contratação pública para atrair talento em IA para o Estado.
Em 20/01/2025, esta ordem foi revogada. Na prática:
- os cargos e estruturas criados ficam em zona cinzenta – não foram todos formalmente extintos, mas estão sob revisão;
- obrigações de segurança e reporte que muitas empresas usavam como referência de boas práticas perdem força;
- abre‑se espaço para uma viragem desregulatória, com mais margem de manobra para empresas de IA.
Para advogados que assessoravam clientes com base nesse enquadramento, o recado foi claro: tudo o que estava assente em “cumprir a EO 14110” precisa de ser revisto.
EO 14179 (Trump): remover barreiras à liderança em IA
A nova Ordem Executiva 14179, de 23/01/2025, tem outro espírito: menos obrigações públicas, mais confiança no setor privado. Os pilares são, em síntese:
- eliminar barreiras regulatórias ao desenvolvimento de IA;
- rever e potencialmente revogar mandatos criados por Biden;
- estimular a liderança privada em I&D de IA;
- alinhar política de IA com crescimento económico e interesses de segurança nacional.
O problema? Falta detalhe operacional. E isso gera perguntas que interessam a qualquer advogado que trabalhe com tecnologia:
-
Mandatos de segurança vão ser revertidos?
Se as obrigações de reporte para modelos de alto risco caírem, a responsabilidade por garantir segurança recai ainda mais sobre empresas… e sobre os seus consultores jurídicos. -
E o talento público em IA?
Se o Estado perder peritos para o setor privado, diminui a capacidade regulatória e de fiscalização. Isto gera um cenário de mais incerteza, mas também mais espaço para soft law e normas privadas. -
O que acontece às estruturas de governação?
Comités e institutos de segurança de IA criados no ciclo anterior podem ver o seu peso reduzido. Na prática, o centro de gravidade da governação passa ainda mais para a indústria.
2. Porque é que isto importa a um advogado em Portugal?
Para um escritório de advogados português, o impacto é indireto mas muito real. Há três frentes em que estas ordens executivas de IA dos EUA acabam por bater à porta.
2.1. Fornecedores de IA que o seu escritório já usa
Ferramentas de:
- pesquisa jurídica com IA generativa,
- revisão automática de contratos,
- análise preditiva de litígios,
- ou gestão documental inteligente
são normalmente prestadas por empresas dos EUA. A mudança regulatória afeta:
- políticas de segurança e privacidade das plataformas;
- modelos de responsabilidade contratual e de produto;
- localização e tratamento de dados, tema crítico em contexto RGPD.
Se a pressão regulatória federal norte‑americana abranda, muitos fornecedores vão passar a dizer: “cumprimos apenas o que a lei nos obriga”. Para um escritório português que trabalha com dados sensíveis de clientes, isto não chega.
Quem atua em Portugal precisa de manter o nível europeu (RGPD, Carta dos Direitos Fundamentais, futura AI Act), mesmo que o fornecedor americano relaxe padrões internos.
2.2. Clientes com exposição internacional
Sociedades de advogados de média e grande dimensão já têm:
- clientes com operações nos EUA;
- startups portuguesas que usam APIs de IA norte‑americanas;
- grupos europeus com equipas de data science em vários países.
Esses clientes vão enfrentar um mosaico cada vez mais complexo:
- EUA: tendência para desregulação federal, com forte peso de práticas privadas;
- UE: caminho de regulação mais rígida (AI Act, DSA, RGPD);
- Estados‑membros: normas setoriais adicionais (financeiro, saúde, trabalho, etc.).
O papel do advogado português deixa de ser apenas “traduzir” artigos de lei: passa a ser orquestrar coerência entre regimes muito diferentes, explicando o que pode ser aceito em Portugal e na UE mesmo que seja permitido nos EUA.
2.3. Estratégia interna de IA no próprio escritório
Há ainda um ponto estratégico: o vazio regulatório externo costuma empurrar empresas sérias a criar políticas internas fortes de IA.
Se o escritório espera por legislação detalhada para organizar a forma como usa IA em:
- produção de peças processuais,
- revisão de documentos,
- comunicação com o cliente,
vai chegar tarde. A mensagem que vem dos EUA é quase pedagógica: quando o Estado recua, a autorregulação e a governação interna deixam de ser luxo e passam a ser requisito de credibilidade.
3. Lições práticas para a governação de IA em escritórios portugueses
Para transformar esta análise geopolítica em decisões concretas na gestão do seu escritório, vale olhar para três eixos: riscos, políticas internas e contratos com fornecedores.
3.1. Tratar a IA como risco jurídico transversal
O primeiro passo é aceitar que IA não é apenas “tecnologia” – é risco jurídico e reputacional que atravessa todas as áreas: laboral, dados, propriedade intelectual, responsabilidade civil, consumo, concorrência.
Sugestão prática para 2025:
- nomear um sócio ou senior counsel como responsável de IA (o seu “CAIO interno”);
- mapear onde IA já é usada no escritório (mesmo informalmente: ChatGPT, copilotos, etc.);
- classificar usos por risco: baixo (apoio administrativo), médio (sumários de jurisprudência), alto (esboços de peças, pareceres, contacto direto com cliente);
- definir desde logo o que não pode ser feito com IA generativa (por exemplo, introduzir dados identificáveis de clientes em sistemas fora da UE).
3.2. Criar uma política interna de IA inspirada nos melhores elementos da EO 14110
Apesar de revogada, a Ordem 14110 deixa uma boa lista de princípios que um escritório em Portugal pode adaptar:
- segurança e confidencialidade por design nas ferramentas usadas;
- registo das principais decisões automatizadas ou com apoio de IA;
- formação mínima obrigatória para todos os advogados e staff que usem ferramentas de IA;
- atenção a viés algorítmico em aplicações ligadas a recursos humanos ou triagem de casos.
Isto pode ser formalizado num documento interno relativamente curto (4‑6 páginas), tratável como um “Guia de Utilização de IA no Escritório”, com três partes:
- Princípios: o que queremos garantir (confidencialidade, qualidade, transparência ao cliente).
- Regras: o que é permitido, o que é proibido, quem aprova exceções.
- Procedimentos: como escolher ferramentas, como testar, como documentar uso de IA em trabalhos para cliente.
3.3. Reforçar contratos com fornecedores de IA
Num contexto de desregulação nos EUA, os contratos passam a ser a linha de defesa principal. Para escritórios portugueses, isto significa negociar melhor:
- cláusulas de proteção de dados alinhadas com RGPD, incluindo subcontratantes e localização de dados;
- compromissos de segurança da informação (encriptação, logs, auditorias independentes);
- regras claras sobre treino de modelos com dados do escritório (opt‑out por defeito é regra prudente);
- limitação e exclusão de responsabilidade equilibradas – sobretudo quando a recomendação de IA possa influenciar decisões jurídicas.
Na prática, um escritório pode criar um checklist de due diligence de IA para qualquer novo fornecedor: 10–15 perguntas padrão sobre dados, segurança, governação e responsabilidade. Este documento reutilizável poupa tempo e reduz surpresas.
4. Outros instrumentos em jogo: AI Bill of Rights e Projeto Stargate
Além das ordens executivas mais visíveis, há duas peças que completam o quadro e ajudam a pensar o futuro da IA jurídica.
4.1. AI Bill of Rights: direitos sim, força jurídica não
O chamado AI Bill of Rights foi apresentado na era Biden como um guia de direitos em ambiente algorítmico:
- proteção contra discriminação algorítmica;
- explicabilidade mínima das decisões automatizadas;
- controlos humanos em sistemas de alto impacto.
Não é, porém, uma ordem executiva nem uma lei. E o seu futuro sob Trump é incerto.
Para advogados portugueses, o interesse está na linguagem de princípios: ajuda a estruturar pareceres, políticas internas de clientes ou códigos de conduta para uso de IA em contexto laboral, consumo ou crédito. Mesmo que os EUA recuem, a UE caminha na direção oposta, e conceitos como não discriminação algorítmica vão tornar‑se comuns na prática forense.
4.2. Projeto Stargate: poder de infraestrutura, riscos de concentração
O Projeto Stargate é apresentado como uma mega‑iniciativa de infraestrutura de IA (cerca de 500 mil milhões de dólares), financiada sobretudo por grandes empresas privadas. O objetivo é consolidar a liderança dos EUA na infraestrutura que suporta modelos de IA avançados.
Questões jurídicas que emergem, e que qualquer advogado com clientes em tecnologia vai começar a ouvir:
- haverá preferência política a determinadas empresas em contratos públicos?
- como será gerida a participação de investidores estrangeiros?
- as empresas que beneficiem diretamente desta infraestrutura vão ficar sujeitas a obrigações adicionais de supervisão?
Numa perspetiva portuguesa, o que interessa é perceber que a infraestrutura de IA tende a concentrar‑se em poucos atores globais. Isso aumenta a importância de:
- avaliar dependência tecnológica de um único fornecedor;
- prever em contrato como reagir se houver sanções, restrições à exportação de tecnologia ou alterações súbitas de licenciamento.
5. Próximos passos para escritórios de advogados em Portugal em 2025
Para encaixar tudo isto na série “IA para Escritórios de Advogados em Portugal”, faz sentido fechar com um plano de ação realista para os próximos 6–12 meses.
5.1. Três decisões estratégicas para 2025
-
Definir uma visão clara de IA no escritório
Quer usar IA apenas para eficiência interna, ou também para criar novos serviços (auditorias de algoritmos, due diligence de IA, programas de conformidade digital)? Esta escolha orienta investimentos. -
Escolher 2–3 casos de uso prioritários de IA jurídica
Por exemplo:- pesquisa jurídica assistida,
- revisão de NDA e contratos padrão,
- gestão de prazos e triagem de emails processuais.
-
Criar um mini‑programa de formação interna
Sessões breves, focadas em:- fundamentos de IA generativa,
- riscos jurídicos mais frequentes,
- boas práticas de utilização em contexto forense português.
5.2. Como comunicar isto aos clientes
Um efeito colateral positivo de acompanhar estas ordens executivas de IA é posicionar o escritório como referência em direito da inteligência artificial. Algumas ideias práticas:
- atualizar apresentações institucionais com uma secção de “Serviços em IA e Direito Digital”;
- preparar um client alert trimestral sobre novidades de IA (EUA, UE e Portugal);
- propor a clientes chave workshops conjuntos sobre uso responsável de IA nos seus negócios.
A mensagem que funciona é direta: “Mesmo com a desregulação nos EUA, nós aplicamos os padrões europeus mais exigentes e ajudamos a alinhar a sua utilização de IA com o AI Act e o RGPD”. Isto gera confiança e diferenciação num mercado jurídico cada vez mais competitivo.
Fecho: entre Washington, Bruxelas e Lisboa
As ordens executivas de IA de Biden e Trump mostram duas visões opostas: uma mais regulatória e centrada em segurança, outra mais desregulada e centrada em crescimento. Para um escritório de advogados em Portugal, o ponto não é escolher um lado político; é aproveitar o melhor dos dois mundos.
Da visão de Biden, vale aproveitar o foco em governação, segurança e transparência. Da visão de Trump, vale reconhecer que inovação rápida é uma realidade, e que esperar por regulação perfeita é perder o comboio. O equilíbrio faz‑se no escritório: políticas internas sólidas, contratos bem desenhados e literacia elevada em IA jurídica.
A tendência é clara: entre Washington, Bruxelas e Lisboa, os clientes vão procurar advogados que entendam IA não só como risco, mas também como ferramenta estratégica. Quem começar agora, em 2025, tem uma vantagem que dificilmente se recupera mais tarde.