As mudanças nas ordens executivas de IA nos EUA afetam contratos, risco e estratégia de clientes portugueses. Veja o que muda e como preparar o seu escritório.
Porque é que as ordens executivas de IA dos EUA interessam ao seu escritório
Um escritório de advogados em Lisboa que trabalha com uma startup de IA em saúde, com clientes nos EUA, descobre de um dia para o outro que as obrigações de reporte de segurança dos modelos “desapareceram”. O contrato, desenhado à luz das regras da Administração Biden, deixa de encaixar na nova realidade da Administração Trump. É exatamente aqui que muitos advogados são apanhados de surpresa.
Este tipo de mudança não fica do outro lado do Atlântico. Afeta contratos, política interna de IA, responsabilidade civil, proteção de dados, e estratégias de internacionalização dos clientes portugueses. Para quem atua em tecnologia, proteção de dados, M&A, laboral ou regulatório, entender a lógica das ordens executivas de IA norte‑americanas é menos “curiosidade jurídica” e mais ferramenta de trabalho.
Neste artigo da série “IA para Escritórios de Advogados em Portugal”, vou explicar o que mudou entre as ordens executivas de Biden e Trump sobre inteligência artificial, porque isso interessa a advogados portugueses e como pode usar este conhecimento para prestar aconselhamento mais sólido a clientes que desenvolvem ou utilizam IA.
1. O que foi a EO 14110 e porque é que a sua revogação conta
A Executive Order 14110 (30/10/2023), da Administração Biden, criou um quadro relativamente robusto de governação de IA no sector público federal dos EUA, com impacto indireto em todo o ecossistema tecnológico.
Em termos práticos, a EO 14110:
- criava Chief AI Officers (CAIO) nas agências federais;
- instituía um AI Council interagências;
- alinhava a gestão de risco de IA com normas do NIST;
- exigia reportes obrigatórios de segurança para modelos avançados;
- promovia reformas de contratação pública e recrutamento de talento em IA.
A 20/01/2025, esta ordem foi formalmente revogada. As estruturas não desapareceram todas automaticamente, mas passaram a estar em revisão. Isto abre um período de incerteza regulatória.
Implicações práticas para advogados em Portugal
Para um escritório português, este contexto interessa em pelo menos três frentes:
-
Contratos com entidades norte‑americanas
Cláusulas que remetem para compliance com “federal AI safety requirements” podem ter ficado desajustadas. Quem assessora:- fornecedores portugueses de IA que vendem para agências ou empresas com contratos públicos nos EUA;
- SaaS jurídicos ou de fintech com servidores e utilizadores nos EUA;
precisa de rever: - definições de "modelo de alto risco";
- níveis de reporte de segurança e auditoria;
- repartição de responsabilidades em caso de falha do modelo ou violação de segurança.
-
Políticas internas de IA em empresas multinacionais
Muitos grupos internacionais definiram políticas globais inspiradas no quadro norte‑americano de 2023–2024. Com a revogação da EO 14110, é provável que matriz e filiais comecem a divergir. O advogado português tem aqui um papel central na harmonização entre:- exigências europeias (Regulamento de IA da UE, GDPR, Diretivas de consumo);
- programas internos baseados em padrões agora “enfraquecidos” nos EUA.
-
Gestão de risco contratual e responsabilidade civil
Se o cliente português vendia IA para os EUA assumindo que a outra parte cumpria certo nível de diligência imposto por Washington, esse pressuposto deixou de ser sólido.
Resultado: mais necessidade de cláusulas contratuais claras sobre:- testes de segurança;
- auditorias de terceiros;
- documentação técnica mínima;
- indemnity clauses ligadas a mau uso da IA.
2. EO 14179: da regulação à desregulação – o que muda para os seus clientes
A Executive Order 14179 (23/01/2025), da Administração Trump, desloca o foco da segurança e governação para a remoção de barreiras à liderança americana em IA. Traduzindo para linguagem de prática jurídica: menos obrigação pública, mais protagonismo do sector privado.
Os pilares desta nova abordagem incluem:
- eliminação de barreiras regulatórias ao desenvolvimento de IA;
- revisão e possível revogação de mandatos criados por Biden;
- promoção de liderança privada em I&D;
- alinhamento da política de IA com crescimento económico e segurança nacional, com poucos detalhes operacionais.
Questões em aberto que interessam aos advogados
Algumas dúvidas levantadas pela EO 14179 são especialmente relevantes para escritórios portugueses:
-
Obrigação de reportes de segurança para modelos de alto risco
Se esses reportes forem abandonados, empresas de IA ganham flexibilidade, mas os clientes empresariais (portugueses incluídos) herdam mais risco.Para um advogado que negocia contratos de licenciamento de IA, isto significa:
- recomendar avaliações técnicas independentes antes de grandes integrações;
- incluir warranties detalhadas sobre segurança, robustez e mitigação de vieses;
- prever mecanismos de atualização contratual se o fornecedor alterar substancialmente o modelo.
-
Programas de contratação de talento em IA
Se o Estado federal se retrair e deixar mais espaço ao privado, a competição por talento aumenta.
Escritórios que apoiam empresas tecnológicas portuguesas podem ser chamados a:- estruturar planos de stock options e incentivos para reter especialistas em IA;
- redigir políticas de propriedade intelectual e non-compete ajustadas a equipas distribuídas entre UE e EUA.
-
Estruturas de governação de IA
Órgãos como comités consultivos ou institutos de segurança de IA podem perder relevância política, mesmo que não desapareçam no papel.
O risco é uma assimetria: Europa a endurecer regras (Regulamento de IA), EUA a afrouxá‑las.
Resultado para o seu cliente português com presença global:- complexidade de compliance aumenta;
- decisões sobre onde sediar desenvolvimento de modelos tornam‑se também decisões jurídicas.
3. Outros instrumentos em “limbo”: AI Bill of Rights e Projeto Stargate
Para além das ordens executivas numeradas, há dois elementos que merecem atenção, mesmo para quem atua a partir de Portugal.
AI Bill of Rights: referência ética em risco
O AI Bill of Rights foi um guia político da Administração Biden sobre justiça algorítmica, transparência e não discriminação. Não era lei nem ordem executiva, mas influenciou:
- corporate policies de grandes tecnológicas;
- estruturas internas de avaliação de viés algorítmico;
- programas de compliance em direitos humanos e não discriminação.
A Administração Trump privilegia crescimento e competitividade externa, pelo que o futuro deste quadro é incerto.
Para advogados portugueses que trabalham em:
- laboral (decisões automatizadas em recrutamento e avaliação de desempenho),
- consumo e bancário (scoring de crédito, perfis de risco),
- proteção de dados (perfilagem, decisões automatizadas no sentido do artigo 22.º do RGPD),
o recuo de referências éticas nos EUA não diminui a responsabilidade na Europa — antes a aumenta. As empresas portuguesas com cultura global podem ter tendência para alinhar pelo nível de proteção mais baixo que veem fora, e é aí que a assessoria jurídica tem de ser mais firme, ancorada no direito europeu.
Projeto Stargate: mega‑infraestrutura, muitas dúvidas jurídicas
O Projeto Stargate, um programa de cerca de 500 mil milhões de dólares em infraestrutura de IA financiado por grandes privados, mostra bem a linha da Administração Trump: o Estado cria o palco, mas os protagonistas são empresas como grandes players globais de IA e cloud.
Questões jurídicas relevantes, inclusive para advogados em Portugal que assessoram empresas tecnológicas que querem entrar nesses ecossistemas:
-
Contratação pública e favorecimento político
Poderão contratos privilegiar empresas politicamente alinhadas?
Isto é crucial em due diligence de M&A, parcerias estratégicas e avaliação de risco regulatório. -
Investimento estrangeiro
Projetos estratégicos de IA podem vir acompanhados de restrições a capital estrangeiro.
Escritórios portugueses que representam fundos ou empresas nacionais com ambição transatlântica precisam de integrar este risco na estruturação societária e fiscal. -
Sobrecarga de supervisão federal
Se as empresas beneficiárias forem sujeitas a supervisão especial, isto pode “viajar” para contratos com subfornecedores europeus.
Aqui, o advogado português deve exigir transparência sobre obrigações regulatórias upstream e refletir isso em cláusulas de auditoria, flow-down de requisitos e confidencialidade.
4. Como um escritório em Portugal deve reagir a esta incerteza
A alteração rápida de ordens executivas sobre IA nos EUA é um bom ensaio geral para aquilo que vamos viver na Europa com o Regulamento de IA, atos de execução e orientações das autoridades de supervisão. Quem se preparar agora, ganha vantagem competitiva.
Passos concretos para escritórios de advogados em Portugal
-
Criar um núcleo interno de “IA & Direito”
Não precisa de uma mega equipa. Dois ou três advogados com interesse em tecnologia podem acompanhar:- evolução das ordens executivas dos EUA;
- Regulamento de IA europeu e soft law nacional;
- posições da CNPD, Banco de Portugal, ASF, entre outros.
-
Mapear contratos afetados
Identificar clientes que:- exportam software ou modelos de IA para os EUA;
- usam cloud e modelos fundacionais providenciados por empresas americanas;
- têm parcerias de I&D transatlânticas.
Depois, rever:
- cláusulas de compliance regulatório com referência a “US federal AI rules”;
- regimes de reporte de incidentes;
- limitações de responsabilidade ligadas a IA.
-
Atualizar playbooks de negociação de contratos de IA
Ter minutas e checklists específicas para:- contratos de licenciamento de modelos;
- Data Processing Agreements com forte componente de IA;
- acordos de responsabilidade partilhada quando o cliente combina vários modelos.
A incerteza nos EUA é argumento para insistir em:
- normas contratuais próprias de gestão de risco de IA;
- obrigações de transparência técnica (documentação mínima, model cards, testes de viés);
- mecanismos de resolução de litígios pensados para tecnologia (peritos, arbitragem especializada).
-
Formar clientes sobre riscos específicos da IA
Muitas empresas portuguesas querem usar IA generativa no contencioso, na gestão documental ou no atendimento ao cliente.
Um briefing curto sobre como os EUA estão a caminhar para menos regulação pública pode ser a introdução perfeita para:- justificar investimentos em governação interna de IA;
- defender políticas internas de uso responsável (por exemplo, em escritórios de advogados que começam a usar IA na pesquisa jurídica ou document review);
- mostrar que o escritório domina o contexto internacional, não apenas o direito nacional.
5. Onde isto encaixa na estratégia de IA do seu próprio escritório
Há um último ponto, muitas vezes ignorado: tudo o que está a acontecer nos EUA é também um espelho para como o seu escritório decide usar IA.
Se o seu escritório em Portugal já usa ou pondera usar ferramentas de IA para:
- pesquisa jurídica em bases de dados internacionais;
- análise de contratos e due diligence;
- automatização de minutas;
- gestão de billing e time recording;
então a oscilação regulatória americana mostra uma verdade simples: não pode depender apenas da regulação para garantir segurança e ética. Precisa de uma política interna minimamente estruturada.
Alguns elementos que tenho visto funcionar bem em escritórios que estão a amadurecer na área de IA:
- regras claras para uso de IA em matérias confidenciais;
- validação humana obrigatória em peças processuais e pareceres;
- critérios de escolha de fornecedores (origem dos dados, segurança, possibilidade de auditoria);
- formação contínua, pelo menos anual, sobre riscos jurídicos da IA.
A série “IA para Escritórios de Advogados em Portugal” existe precisamente para apoiar este caminho: dar contexto internacional, traduzir implicações práticas e sugerir passos concretos que aumentem a qualidade do serviço jurídico e, ao mesmo tempo, protejam o seu escritório.
Considerações finais: usar a incerteza a seu favor
As ordens executivas de IA nos EUA mostram duas visões em choque: uma mais orientada para governação e segurança, outra mais focada em desregulação e competitividade económica. Para os clientes portugueses, isto significa operar num mundo onde a Europa tende a apertar regras enquanto os EUA afrouxam.
Para um escritório de advogados em Portugal, isto não é apenas ruído distante. É uma oportunidade para:
- reposicionar o aconselhamento em tecnologia e IA como área estratégica;
- reforçar cláusulas contratuais próprias em vez de depender de “proteções” públicas estrangeiras;
- posicionar o escritório como parceiro que entende o contexto global da IA, mas o aplica ao quadro europeu e português.
Se a IA já está a entrar nos processos dos seus clientes — ou nos seus — esta é a altura certa para estruturar a abordagem jurídica. A próxima grande mudança regulatória pode não vir de Washington, mas de Bruxelas. Estar preparado começa por perceber o que está a acontecer nos dois lados do Atlântico.