Google assina o Código de IA da UE. O que isto muda para a concorrência entre fornecedores de IA e para escritórios de advogados em Portugal? Veja impactos e passos práticos.
Google assina o Código de IA da UE: porque isto interessa aos advogados em Portugal
Há poucos dias, a Meta disse não ao Código de Boas Práticas de IA de uso geral da União Europeia. Logo a seguir, a Google fez o oposto: anunciou que vai assinar o Código na íntegra. Para quem gere um escritório de advogados em Portugal e está a tentar perceber como usar IA sem criar riscos regulatorios, isto não é apenas “notícia tecnológica”. É um sinal claro de para onde a regulação da IA está a caminhar — e de como isso vai impactar a sua prática.
Este movimento da Google acontece em plena implementação do AI Act da UE, num momento em que muitos escritórios já estão a testar ferramentas como o Gemini, o ChatGPT ou soluções de IA jurídica especializadas. A pergunta prática é simples: como é que a adesão da Google ao Código de IA da UE afeta a concorrência, a disponibilidade de ferramentas e o risco jurídico para advogados portugueses?
Neste artigo da série “IA para Escritórios de Advogados em Portugal”, vou ligar estes pontos: explicar o que está em causa com o Código, o contraste entre Google e Meta, o impacto na concorrência entre fornecedores de IA e, sobretudo, o que um managing partner em Portugal deve fazer agora — em 12/2025, não “um dia mais tarde”.
O que é o Código de IA da UE e o que muda com a entrada da Google
O essencial é isto: o Código de Práticas de IA da UE é um compromisso voluntário, pensado como ponte entre a situação atual e a aplicação total do AI Act. Não substitui a lei, mas antecipa obrigações e cria pressão pública e política.
Com a entrada da Google como signatária:
- Ganham força as exigências de transparência para modelos de IA de uso geral (como Gemini ou modelos usados em produtos jurídicos);
- Aumenta a probabilidade de padrões de mercado se alinharem com estes princípios — mesmo fora da UE;
- Os fornecedores que recusam o Código, como a Meta, ficam sob maior escrutínio regulatório e reputacional.
Para um escritório de advogados, isto traduz‑se em duas consequências práticas:
- Maior previsibilidade regulatória nos produtos baseados em IA da Google (e de quem seguir estes padrões);
- Mais argumentos jurídicos para questionar fornecedores que não alinhem com estas práticas, sobretudo em temas de privacidade, direitos de autor e transparência algorítmica.
Para um advogado, o Código funciona quase como um “soft law” antecipado: não é obrigatório, mas vai influenciar o que os reguladores e tribunais vão esperar das empresas de IA.
Google vs Meta: dois modelos de risco que os escritórios devem compreender
A decisão da Meta de não assinar o Código e a posição oposta da Google revelam estratégias diferentes perante risco regulatório. Isto interessa a qualquer advogado que esteja a decidir que fornecedores de IA pode recomendar ao seu cliente… ou ao próprio escritório.
Meta: flexibilidade máxima, risco regulatório maior
A Meta tem apostado num discurso de abertura dos modelos (open‑source ou quase), com menos compromissos formais perante a UE. Ao recusar o Código:
- Ganha liberdade de desenvolvimento e lançamento de funcionalidades sem o peso de mais relatórios e auditorias voluntárias;
- Assume, contudo, maior risco de conflitos com reguladores europeus, sobretudo em áreas sensíveis como proteção de dados e desinformação.
Não significa que seja “ilegal” usar IA da Meta. Mas significa que, do ponto de vista de governação de risco em escritórios de advogados, usar estes modelos pode exigir:
- Due diligence técnica e jurídica mais profunda;
- Cláusulas contratuais mais robustas sobre responsabilidade, segurança e atualizações;
- Avaliações de impacto acrescidas em proteção de dados (sobretudo se houver dados de clientes ou segredos profissionais envolvidos).
Google: alinhamento estratégico com a agenda europeia
Ao assinar o Código, a Google está a sinalizar que aceita:
- Regras de transparência reforçadas sobre dados de treino e capacidades dos modelos;
- Mecanismos internos de gestão de risco, incluindo mitigação de viés, segurança e controlo de conteúdos danosos;
- Colaboração estruturada com reguladores europeus, o que tende a reduzir fricção regulatória futura.
Para escritórios de advogados em Portugal, isto tem um efeito prático relevante:
Em matéria de IA, a Google posiciona‑se como um fornecedor mais alinhado com o “espírito” do AI Act, o que torna mais fácil justificar o seu uso em políticas internas de compliance.
Impacto na concorrência: o que muda para o mercado de IA usada por advogados
A entrada da Google no Código não é apenas sinal político; altera a dinâmica competitiva.
Três efeitos diretos na concorrência
-
Pressão sobre outros grandes fornecedores
Microsoft, OpenAI e outros players que atuam na UE terão mais incentivos para aderir a compromissos semelhantes, para não ficarem expostos como “menos responsáveis”. -
Barreiras de entrada para startups menos maduras em compliance
Startups de IA que queiram vender para escritórios de advogados, bancos ou seguradoras em Portugal vão sentir pressão para adotar políticas de ética e transparência semelhantes. Quem não o fizer poderá ser filtrado logo no RFP. -
Vantagem comercial para quem assume compromissos públicos de ética de IA
Em propostas a clientes institucionais, poder dizer “usamos fornecedores de IA que subscrevem o Código da UE” passa a ser um argumento competitivo.
Efeitos específicos no ecossistema jurídico
No contexto da série IA para Escritórios de Advogados em Portugal, o impacto na prática jurídica é muito concreto:
- Ferramentas de pesquisa jurídica com IA baseadas em modelos da Google podem ganhar tração, porque combinam produtividade com uma narrativa forte de conformidade;
- Plataformas de revisão de contratos que integrem modelos alinhados com o Código podem ser preferidas em RFPs lançados por grandes sociedades ou departamentos jurídicos de empresas cotadas;
- Soluções de previsão de litígios e análise de risco vão ser avaliadas não só pela precisão, mas também pela robustez ética e regulatória dos modelos subjacentes.
A mensagem para sócios e diretores de IT jurídico é direta: o critério “ética e regulação da IA” deixou de ser cosmética e passou a ser um fator real de decisão de compra.
Como isto afeta decisões concretas em escritórios de advogados portugueses
Para um escritório em Lisboa, Porto, Braga ou Faro, a grande questão é: o que é que eu faço com esta informação na prática?
1. Rever a estratégia de fornecedores de IA
Se o seu escritório já usa ou está a testar IA para apoio jurídico, vale a pena:
- Mapear todas as ferramentas de IA em uso (pesquisa jurídica, geração de minutas, gestão documental, automação de e‑mails, etc.);
- Identificar quem são os fornecedores e quais os modelos base usados (Google, OpenAI, Meta, outros);
- Verificar se esses fornecedores aderem ao Código de IA da UE ou a compromissos equivalentes;
- Classificar fornecedores por nível de risco regulatório e grau de alinhamento com o AI Act.
Daqui pode sair uma decisão prática: priorizar fornecedores com maior alinhamento regulatório (onde a Google sobe no ranking) e criar planos de mitigação para os restantes.
2. Atualizar políticas internas de uso de IA
A maioria dos escritórios com quem tenho falado em 2024‑2025 está, pelo menos, numa destas fases:
- Já aprovou uma política interna de uso de IA;
- Tem diretrizes informais, mas nada escrito;
- Ou ainda está no modo “cada advogado faz como acha melhor”.
Com a evolução regulatória europeia e a entrada da Google no Código, faz sentido rever essa política para incluir:
- Critérios mínimos para escolha de ferramentas (por exemplo, preferência por fornecedores que sigam o Código);
- Regras claras sobre que dados podem ou não ser inseridos em sistemas de IA (segredo profissional, dados pessoais, informações estratégicas de clientes);
- Procedimentos de avaliação periódica de risco dos modelos utilizados;
- Exigência de logs e rastreabilidade nas tarefas em que a IA é usada para apoiar decisões jurídicas.
3. Reforçar o discurso de confiança junto dos clientes
Clientes empresariais estão cada vez mais sensíveis ao tema IA. Muitos questionam, de forma direta:
- “Estão a usar IA no meu processo?”
- “Onde são armazenados os meus dados?”
- “Há risco de os meus documentos irem parar ao treino de modelos?”
A decisão da Google oferece um bom gancho para reposicionar o discurso:
“Sim, utilizamos ferramentas de IA, mas selecionamos fornecedores que alinham com o Código de IA da UE e com o AI Act. Temos políticas internas que garantem que o segredo profissional e a proteção de dados são intocáveis.”
Isto não é marketing vazio; é gestão de risco convertida em argumento comercial.
O que esperar para 2025 e como preparar o seu escritório agora
O cenário mais provável para 2025 é um mercado de IA jurídica na UE com três características fortes:
- Regulação mais clara e mais exigente, com o AI Act a entrar em fase de aplicação e o Código de IA a servir como referência prática;
- Maior concentração em fornecedores “compliance‑friendly”, como a Google e outros que sigam a mesma linha;
- Aumento da pressão sobre escritórios para demonstrarem não só que usam IA, mas que o fazem de forma responsável.
Para um escritório de advogados em Portugal, isto significa que a vantagem competitiva não vai estar apenas em “usar IA”, mas em usar IA com governação séria. Quem tratar o tema como moda tecnológica vai ficar para trás; quem o encarar como pilar de estratégia de negócio e de gestão de risco vai ganhar.
Passos práticos para os próximos 3–6 meses
Para fechar, deixo um roteiro concreto que tenho visto funcionar em sociedades de média e grande dimensão:
-
Diagnóstico interno de IA (2–4 semanas)
- Levantamento de todas as ferramentas de IA em uso;
- Identificação de dados sensíveis envolvidos;
- Mapeamento de fornecedores e da sua posição face ao AI Act e ao Código.
-
Definição de critérios de seleção de fornecedores (2–3 semanas)
- Preferência por signatários do Código ou equivalentes;
- Requisitos contratuais mínimos (segurança, privacidade, auditoria, responsabilidade);
- Regras específicas para uso em dados de clientes.
-
Aprovação ou revisão da política interna de IA (4–6 semanas)
- Envolvendo sócios, IT, DPO/encarregado de proteção de dados e RH;
- Incluindo formação obrigatória básica para advogados e staff.
-
Comunicação aos clientes (contínua)
- Atualizar propostas e apresentações institucionais com a abordagem responsável à IA;
- Preparar FAQs para responder às principais preocupações.
Quem começar este trabalho agora entra em 2025 com uma narrativa clara: o escritório usa IA para ser mais eficiente, mas faz‑lo com critérios alinhados com a regulação europeia e com os interesses dos clientes.
A decisão da Google de assinar o Código de IA da UE não resolve todos os problemas éticos e jurídicos da inteligência artificial, mas é um marco importante na forma como os grandes players encaram a responsabilidade. Para escritórios de advogados em Portugal, é também uma oportunidade: usar este novo contexto regulatório para estruturar uma estratégia de IA segura, competitiva e alinhada com o AI Act.
A pergunta que fica é simples: quando um cliente lhe perguntar, em 2025, “como é que o seu escritório usa IA?”, vai responder com generalidades… ou com uma estratégia clara, suportada por escolhas conscientes de fornecedores como a Google e por políticas internas sólidas?