Código de IA da UE: o que muda para advogados

Inteligência Artificial para Empresas PortuguesasBy 3L3C

O Código de IA da UE não é lei, mas já define o padrão de compliance em IA. Veja porque é crítico para empresas em Portugal e como os escritórios podem agir agora.

AI Actcódigo de ia da ueadvocacia empresarialcompliance em iadireito das tecnologiasescritórios de advogados em portugal
Share:

Código de IA da UE: o que muda para os advogados em Portugal

Em julho de 2025, a União Europeia apresentou discretamente o Código de Boas Práticas para IA de Propósito Geral. Não é lei. Não prevê coimas diretas. Mas quem trabalha com compliance e tecnologia sabe: muitos dos conflitos jurídicos dos próximos anos vão nascer exatamente aqui.

Para escritórios de advogados em Portugal, especialmente os que assessoram empresas que usam IA generativa (ou ponderam usá‑la em 2025/2026), o Código é um sinal claro de para onde caminha a regulação da IA na UE – e de como vão ser avaliadas as práticas de clientes, fornecedores e parceiros.

Este texto mostra, em linguagem prática, porque é que o Código interessa a advogados portugueses, o que ele antecipa sobre o Regulamento Europeu da IA (AI Act) e como pode ser usado estrategicamente por escritórios de advocacia para atrair e reter clientes empresariais.


1. O que é o Código de IA da UE e porque é que “não sendo lei” conta como se fosse

O Código de Boas Práticas para IA de Propósito Geral é um instrumento voluntário que traduz os princípios abstratos do AI Act em exigências operacionais concretas para modelos como GPT‑4, Gemini, LLaMA, Mistral, entre outros.

Em termos simples, o Código funciona como um “rascunho aplicado” do que o regulador vai esperar ver na prática:

  • Transparência sobre dados de treino e limitações dos modelos
  • Políticas de direitos de autor/copyright e gestão de conteúdos protegidos
  • Avaliações de risco (incluindo riscos sistémicos e de uso indevido)
  • Procedimentos de report de incidentes e falhas graves
  • Documentação de segurança, testes, monitorização e governação

Não cria obrigações legais diretas, mas cria algo quase tão relevante: normas de conduta que podem virar padrão de mercado. E isso tem três efeitos jurídicos imediatos:

  1. Pressão contratual – grandes clientes começam a exigir conformidade com o Código nos contratos com fornecedores de IA.
  2. Referência interpretativa – autoridades e tribunais podem usar o Código como critério de diligência para avaliar se uma empresa foi prudente ou negligente.
  3. Barómetro de risco reputacional – estar “fora” do Código começa a soar a “alto risco” para investidores, parceiros e reguladores.

Para um escritório de advogados que queira liderar em IA para empresas em Portugal, ignorar o Código é perder a oportunidade de se posicionar na linha da frente do AI compliance.


2. Microsoft, OpenAI, Meta: leitura jurídica dos seus movimentos

As primeiras reações das big techs mostram como o Código já está a ser usado como peça de estratégia regulatória, mesmo antes de qualquer sanção formal.

Microsoft e OpenAI: prudência jurídica como vantagem competitiva

Microsoft e OpenAI decidiram aderir ao Código. Não porque seja cómodo, mas porque traz previsibilidade.

Para um fornecedor como a Microsoft, com produtos como Copilot integrados no Microsoft 365, a lógica é clara:

  • Empresas europeias só vão escalar IA se confiarem que a tecnologia não as expõe a coimas, danos reputacionais ou litígios em massa.
  • Ao alinhar-se publicamente com o Código, a Microsoft envia um recado aos departamentos jurídicos e de compliance: “estamos alinhados com Bruxelas, podem comprar com menos medo”.

OpenAI segue raciocínio semelhante: ao aderir, ganha lugar à mesa na definição do que será entendido como “boa prática” sob o AI Act. Em vez de ser apenas alvo de regulação, passa a ser co‑autora de normas de facto.

Para advogados, há aqui uma mensagem importante:

Compliance em IA está a ser usado como ferramenta comercial, não apenas como escudo jurídico.

Ou seja, clientes que investirem cedo em alinhar práticas com o Código vão conseguir negociar melhor com grandes fornecedores, participar em concursos públicos e fechar contratos com multinacionais mais exigentes.

Meta: liberdade operacional vs. custo jurídico e reputacional

Meta recusou assinar. Argumenta que o Código vai além do que o AI Act exige e cria incerteza jurídica e encargos operacionais excessivos, especialmente para o seu ecossistema open‑source baseado na família LLaMA.

Do ponto de vista estritamente económico, faz sentido: manter os modelos mais abertos e com menos amarras regulatórias facilita:

  • Desenvolvimento e iteração rápida por parte da comunidade
  • Adoção massiva por startups e equipas técnicas
  • Menos obrigações de reporte e auditoria

Mas essa liberdade tem um preço, particularmente na Europa:

  • Maior escrutínio regulatório – quem não adere ao código “voluntário” fica marcado como potencial foco de risco sistémico
  • Menor apelo em contextos de alto risco regulatório – administração pública, banca, saúde, seguros, energia
  • Posição mais fraca em litígios futuros, se um tribunal entender o Código como reflexo do “estado da arte” de diligência em IA

Um advogado que assessore empresas portuguesas a escolher entre fornecedores de IA tem aqui um argumento forte:

“Se o vosso apetite de risco é baixo, privilegiem soluções de quem já se comprometeu publicamente com o Código.”


3. O papel de França e o recado para Portugal

A forma como o Código surgiu não se entende sem o episódio político do AI Act. Durante as negociações finais, França pressionou com força para aliviar obrigações sobre modelos open‑source e fundacionais, numa tentativa clara de proteger empresas como a Mistral AI.

Resultado:

  • O texto final do AI Act reduziu o peso regulatório para certos modelos open‑source
  • Alguns sistemas de risco foram redefinidos, estreitando o âmbito das regras mais duras

O que isto mostra é simples: interesses nacionais moldam o direito europeu de IA.

Para Portugal, que quer ser relevante em tecnologia mas tem um tecido empresarial dominado por PME e poucas scale‑ups de IA, há duas implicações diretas:

  1. As empresas portuguesas não vão escrever as regras, vão ter de viver com elas. Quem compensa isso? Uma advocacia bem preparada.
  2. O país pode diferenciar‑se pela qualidade de implementação: ser pequeno não impede que Portugal seja referência em conformidade de IA bem feita, eficiente e pragmática.

Escritórios que dominem o AI Act e o Código de IA podem tornar‑se parceiros estratégicos de:

  • Empresas portuguesas que exportam para a UE
  • Filiais de grupos internacionais instaladas em Portugal
  • Startups que queiram captar investimento exigente em compliance

4. Porque é que o Código interessa agora aos escritórios de advogados em Portugal

O maior erro que tenho visto é este: muitos escritórios só reagem quando a lei já está em vigor e os clientes em pânico. Com a IA, isso será tarde demais.

O Código é uma oportunidade clara de antecipar a curva e criar novas linhas de serviço. Alguns pontos concretos:

4.1. O Código antecipa a prática do AI Act

Mesmo sendo voluntário, o Código mostra:

  • Como Bruxelas quer que sejam organizados os dossiers técnicos de IA
  • Que tipo de documentação de risco e impacto será bem vista
  • Que mecanismos internos de governação (comités de IA, registos de decisões, logs de auditoria) serão esperados

Logo, um escritório que hoje ajude um cliente a:

  • Mapear casos de uso de IA
  • Criar uma política interna de IA alinhada com o Código
  • Rever contratos com fornecedores de tecnologia

vai estar, na prática, a pré‑implementar o AI Act com menos stress e mais margem de manobra.

4.2. O Código como critério de due diligence e M&A

Em operações de M&A, private equity ou fundraising, compliance em IA vai tornar‑se um item fixo de due diligence. O Código fornece um guião excelente para checklists, por exemplo:

  • O alvo da operação utiliza modelos de IA de propósito geral? Quais?
  • Existem registos de testes, riscos e incidentes relacionados com IA?
  • Há alinhamento com os princípios do Código em matéria de transparência, segurança e copyright?

Quem tiver estas respostas prontas vale mais. Quem não tiver, traz desconto no valuation ou exigência de indemnizações e garantias contratuais.

4.3. O Código como argumento de venda para escritórios

Um escritório de advocacia em Portugal pode transformar o Código numa proposta comercial clara:

  • “Desenhamos o vosso programa de governação de IA alinhado com o AI Act e com o Código da UE.”
  • “Apoiamos a seleção e contratação de fornecedores de IA em conformidade com o Código.”
  • “Preparamos a vossa empresa para responder a inspeções e pedidos de informação de reguladores.”

Isto não é teoria. Em 2025, muitas empresas portuguesas já usam IA generativa de forma informal, via funcionários, sem política definida. O Código dá a desculpa perfeita para o departamento jurídico dizer: “temos de pôr ordem na casa agora”.


5. Como começar: roteiro prático de ação para escritórios de advocacia

Os escritórios que quiserem posicionar‑se em IA para empresas em Portugal podem seguir um plano simples em três fases.

5.1. Formar a equipa e criar um “núcleo de IA e Direito”

  • Identificar 2–4 advogados com interesse real em tecnologia
  • Estudar em profundidade: AI Act, Código de Boas Práticas, RGPD aplicado à IA
  • Mapear setores‑alvo: banca, saúde, seguros, retalho, indústria exportadora, setor público

Objetivo: em 2–3 meses, ter uma equipa capaz de explicar o Código em linguagem de negócio e transformar princípios em cláusulas contratuais, políticas internas e pareceres.

5.2. Desenvolver produtos jurídicos concretos

Transformar o Código em serviços claros, por exemplo:

  1. Diagnóstico de risco de IA (2–4 semanas)

    • Levantamento de todos os usos de IA na empresa
    • Avaliação de alinhamento com o Código e o AI Act
    • Mapa de riscos jurídicos (dados, IP, responsabilidade, discriminação)
  2. Política Corporativa de IA

    • Regras internas para uso de IA por colaboradores
    • Critérios mínimos para escolha de fornecedores de IA
    • Definição de papéis: quem aprova, quem supervisiona, quem responde a incidentes
  3. Revisão de contratos de tecnologia

    • Inclusão de cláusulas sobre transparência técnica, logs, auditorias
    • Repartição de responsabilidade por erros e danos causados por IA
    • Exigência de compromissos alinhados com o Código

5.3. Comunicar ao mercado de forma credível

  • Criar conteúdos (como este) que expliquem o Código com foco em impacto para negócios portugueses
  • Organizar webinars, pequenos almoços ou sessões com clientes atuais
  • Colaborar com empresas de tecnologia e consultoras para oferecer projetos conjuntos de IA + legal

A mensagem central deve ser direta:

“O AI Act está a chegar. O Código mostra como ele será aplicado. Se começarmos agora, tratamos a IA como oportunidade. Se esperarmos, tratamo‑la como crise.”


6. E depois do Código? O que esperar nos próximos 12–24 meses

Nos próximos dois anos, é muito provável que vejamos:

  • Autoridades nacionais a usarem o Código como referencial em orientações e inspeções
  • Grandes compradores (banca, telecom, Estado) a pedirem declarações de alinhamento com o Código em concursos
  • Litígios envolvendo IA em que peritos e juízes recorram ao Código para definir o que seria um comportamento diligente

Para os escritórios de advogados em Portugal, isto significa duas coisas:

  1. Quem se preparar agora vai ser chamado para desenhar políticas, contratos e programas de compliance.
  2. Quem esperar pela primeira coima ou escândalo mediático vai entrar apenas na fase de “contenção de danos”, com menos margem para criar valor.

O Código de IA da UE não é só um documento técnico de Bruxelas. É, na prática, o guião antecipado da responsabilidade jurídica em IA na Europa. E 2025/2026 é o momento ideal para os escritórios portugueses decidirem se querem ser protagonistas desta história ou espectadores.