O tribunal de Amsterdã proíbe a xAI de gerar imagens sexuais não consensuais com Grok, sob pena de €100 000 por dia. No mesmo dia, o Google lança o Gemini 3.1 Flash Live para conversas de áudio em tempo real em mais de 90 línguas, a OpenAI integra plugins nativos no Codex (Slack, Figma, Notion, Gmail), e a Anthropic publica um artigo técnico sobre o desenho do modo auto do Claude Code. Cohere, Mistral e Suno completam uma semana densa em anúncios.
xAI : o tribunal de Amsterdã proíbe Grok nudes
27 de março — O tribunal distrital de Amsterdã proferiu uma decisão contra a xAI, proibindo-a de gerar ou distribuir imagens sexuais não consensuais nos Países Baixos. Em caso de descumprimento, a multa é de €100 000 por dia, limitada a €10 milhões.
A decisão segue uma denúncia conjunta da ONG holandesa Offlimits e do Victims Support Fund. Segundo o Center for Countering Digital Hate (CCDH), o Grok gerou 3 milhões de imagens sexualizadas em 11 dias, das quais 23 000 envolviam menores. A Offlimits destaca que o Grok não leva em conta a localização geográfica da vítima representada, o que lhe confere alcance global.
A decisão ocorre no mesmo dia em que o Parlamento Europeu aprovou a proibição de deepfakes sexuais gerados por IA — um sinal forte de convergência regulatória. Trata-se do primeiro julgamento europeu deste tipo diretamente contra a xAI.
🔗 CNBC: tribunal holandês proíbe Grok AI por imagens nuas 🔗 The Record Media: tribunal holandês ameaça xAI com multas
Gemini 3.1 Flash Live : áudio em tempo real em 90+ línguas
26 de março — O Google lança o Gemini 3.1 Flash Live, seu modelo multimodal para conversas em tempo real. Ele suporta áudio, imagens, vídeo e texto com uma janela de contexto de 128 000 tokens e suporta mais de 90 línguas.
Em comparação com a geração anterior, o modelo mantém conversas duas vezes mais longas, lida melhor com ruído de fundo e sons ambientais, segue instruções de sistema complexas com mais precisão e aciona ferramentas externas durante a conversa com mais confiabilidade. Todos os áudios gerados são marcados com SynthID.
| Funcionalidade | Detalhe |
|---|---|
| Janela de contexto | 128 000 tokens |
| Línguas | 90+ |
| Conversas | 2× mais longas que antes |
| Watermarking | SynthID em todos os áudios |
Disponibilidade: via Live API no Google AI Studio (desenvolvedores), via Gemini Live e Search Live (utilizadores, 200+ países), e via Vertex AI (empresas). O Search Live também expande o acesso para mais de 200 países e territórios, com suporte a vídeo Google Lens.
Gemini : importação de memórias e históricos desde o ChatGPT e o Claude
26 de março — O Google lança uma ferramenta de importação na app Gemini para facilitar a migração desde outros assistentes de IA.
Duas funcionalidades estão disponíveis:
-
Importação de memórias (“Add Memory”): o Gemini sugere um prompt a inserir no ChatGPT, Claude ou Copilot. A resposta gerada (resumo dos dados pessoais memorizados pelo outro assistente) é copiada e colada no Gemini, que extrai preferências, interesses, informações de localização, etc.
-
Importação de histórico (“Import Chats”): upload de um ficheiro
.zipexportado do ChatGPT ou do Claude, até 5 GB. As conversas passadas tornam-se pesquisáveis e podem ser retomadas no Gemini.
🔗 Blog Google: Switch to Gemini
Gemini CLI v0.35.2 : subagents por defeito, Vim melhorado — e acesso Pro restrito
25-26 de março — A versão estável v0.35.2 do Gemini CLI introduz várias funcionalidades notáveis.
| Funcionalidade | Descrição |
|---|---|
| Subagents ativados por defeito | Planeador de tarefas paralelas + fragmentação de código |
| Atalhos de teclado personalizáveis | Suporte a keybindings, caracteres literais, protocolo Kitty |
| Modo Vim melhorado | Motions X, ~, r, f/F/t/T; copiar-colar com o registo unnamed |
| SandboxManager unificado | Isolamento de ferramentas com bubblewrap/seccomp Linux |
| Descoberta de contexto JIT | Carregamento otimizado para ferramentas filesystem |
| gRPC nativo | Integração nativa e roteamento de protocolo |
Mudança de política notável: a partir de 25 de março, os utilizadores gratuitos têm acesso apenas ao Gemini Flash. O acesso ao Gemini Pro fica reservado a assinantes pagos (planos Pro e Ultra). A reação da comunidade é largamente negativa. O Google também reforça a deteção de abusos: o uso da autenticação OAuth do Gemini CLI com software de terceiros pode agora levar a restrições.
🔗 Changelog Gemini CLI 🔗 Discussão da comunidade
Gemini Drop março 2026 : Personal Intelligence gratuito e Lyria 3 Pro
27 de março — A atualização mensal “Gemini Drops” de março de 2026 apresenta as novas funcionalidades da app Gemini lançadas este mês.
| Funcionalidade | Descrição | Disponibilidade |
|---|---|---|
| Personal Intelligence gratuito | Ligação do Gmail, Photos, YouTube para planear viagens/projetos | Gratuito, Estados Unidos |
| Gemini Live melhorado | Baseado no Gemini 3.1 Flash Live, contexto 2× mais longo | Todos os utilizadores |
| Import ChatGPT/Claude | Transferência de memórias e histórico | Todos os utilizadores |
| Lyria 3 Pro | Criação de música até 3 minutos, fotos → anthems | Assinantes |
| Google TV | Respostas visuais Gemini e narrações | Google TV |
Codex : plugins nativos para Slack, Figma, Notion e Gmail
26-27 de março — A OpenAI disponibiliza os plugins como funcionalidade de primeira classe no Codex. Os desenvolvedores podem ligar o Codex às ferramentas que usam no dia a dia sem configuração manual.
| Plugin | Caso de uso |
|---|---|
| Slack | Enviar mensagens, ler canais |
| Figma | Aceder aos designs, gerar código |
| Notion | Ler e escrever páginas |
| Gmail | Ler e redigir e-mails |
Os plugins sincronizam-se automaticamente à inicialização do Codex e são acessíveis via o comando /plugins. A instalação e desinstalação fazem-se diretamente desde a interface TUI com gestão de autenticação integrada.
A 27 de março, a OpenAI publicou uma galeria de casos de uso práticos acessíveis num clique: construção de apps iOS, análise de datasets, geração de relatórios e apresentações. O changelog Codex v0.117.0 detalha funcionalidades técnicas, incluindo o suporte a menções de plugins nos prompts.
🔗 Documentação plugins Codex 🔗 Tweet @OpenAIDevs
Anthropic : o desenho do modo auto do Claude Code explicado
26 de março — A Anthropic publicou um artigo técnico no blog sobre o desenho do seu modo auto (auto mode) no Claude Code, disponível no blog Engineering.
O problema abordado: os utilizadores do Claude Code sofrem de fadiga de aprovação (approval fatigue). As estatísticas mostram que 93% dos pedidos de permissão são aceites — o que sugere que uma automatização parcial é possível sem sacrificar a segurança.
A solução: duas camadas de classificadores
O modo auto assenta em dois níveis de proteção baseados em modelos (Sonnet 4.6):
- Camada de entrada: uma sonda de deteção de injeção de prompt (prompt injection probe) analisa os resultados das ferramentas antes de chegarem ao agente.
- Camada de saída: um classificador de transcrição avalia cada ação proposta através de um processo em duas etapas antes da sua execução.
| Nível | Tipo de ação | Tratamento |
|---|---|---|
| Tier 1 | Ferramentas seguras (leitura de ficheiros, pesquisa) | Passagem direta, sem classificador |
| Tier 2 | Modificações de ficheiros no projeto | Contorno do classificador (revisáveis via controlo de versão) |
| Tier 3 | Ações perigosas (comandos shell, operações externas) | Avaliação completa pelo classificador |
Métricas de desempenho:
| Etapa | Taxa de falsos positivos (tráfego real) | Taxa de falsos negativos (ações arriscadas) |
|---|---|---|
| Etapa 1 (rápida) | 8,5 % | 6,6 % |
| Pipeline completo | 0,4 % | 17 % |
A taxa de falsos positivos de 0,4 % no pipeline completo significa que o modo auto quase nunca interrompe o trabalho indevidamente. A taxa de falsos negativos de 17 % reflete casos em que o classificador deteta um perigo mas interpreta mal o âmbito da autorização concedida pelo utilizador.
“New on the Engineering Blog: How we designed Claude Code auto mode. Many Claude Code users let Claude work without permission prompts. Auto mode is a safer middle ground: we built and tested classifiers that make approval decisions instead.”
🇵🇹 No blog Engineering: como concebemos o modo auto do Claude Code. Muitos utilizadores deixam o Claude trabalhar sem pedidos de permissão. O modo auto é um compromisso mais seguro: construímos e testámos classificadores que tomam as decisões de aprovação no lugar deles. — @AnthropicAI no X
🔗 Claude Code auto mode: a safer way to skip permissions
GitHub Copilot : resolução de conflitos de merge e visibilidade dos agents
26 de março — Duas atualizações importantes do GitHub Copilot melhoram o fluxo de trabalho das equipas.
Resolução de conflitos de merge: agora é possível mencionar @copilot num comentário de pull request para lhe pedir para resolver conflitos. O agente trabalha no seu ambiente cloud, resolve os conflitos, verifica que o build e os testes passam, e depois faz push das alterações. Disponível em todos os planos pagos do Copilot (Business/Enterprise requer ativação admin).
Visibilidade dos agents em Issues e Projects: quando um agente de código (Copilot, Claude, Codex) é atribuído a uma issue, a sua sessão aparece sob o assignee na sidebar com um estado em tempo real — em fila, em curso, à espera de revisão, concluído. As sessões também são visíveis nas vistas table e board de Projects (a ativar via “View menu > Show agent sessions”).
🔗 Copilot resolve conflitos de merge 🔗 Atividade dos agents em Issues e Projects
GitHub : novo painel de PRs e Copilot for Jira
25-26 de março — Duas melhorias adicionais para os desenvolvedores GitHub.
Painel de Pull Requests (preview público): um painel redesenhado em github.com/pulls centraliza os PRs que requerem atenção — revisões solicitadas, correções a fazer, prontos para merge. Vistas guardadas personalizadas, filtros avançados com autocompletar e suporte a queries AND/OR complementam a interface. A ativar via os parâmetros Feature Preview.
Copilot for Jira: desde o lançamento em preview público, várias melhorias: escolha do modelo IA diretamente desde o Jira, inclusão automática do número do ticket Jira no título do PR e no nome da branch, e acesso às páginas Confluence via o servidor MCP Atlassian (configurável com um PAT).
🔗 Novo painel de PRs 🔗 Melhorias do Copilot for Jira
Cohere Transcribe : nº1 no ranking ASR open-source
26 de março — A Cohere lança o Cohere Transcribe, o seu primeiro modelo de reconhecimento automático de fala (Automatic Speech Recognition — ASR). Disponível em open-source sob licença Apache 2.0, sobe diretamente ao primeiro lugar do ranking Open ASR do Hugging Face para inglês.
O modelo baseia-se numa arquitetura Fast-Conformer Transformer encoder-decoder de 2 mil milhões de parâmetros. Mais de 90% dos parâmetros estão alocados ao encoder, com um decoder leve para minimizar o custo autorregressivo e maximizar a velocidade. Treinado em 500 000 horas de pares áudio-transcrição.
| Modelo | WER médio |
|---|---|
| Cohere Transcribe | 5,42 |
| Zoom Scribe v1 | 5,47 |
| IBM Granite 4.0 1B | 5,52 |
| NVIDIA Canary Qwen 2.5B | 5,63 |
| OpenAI Whisper Large v3 | 7,44 |
O WER (Word Error Rate — taxa de erro de palavras) de 5,42% coloca o Cohere Transcribe no topo. A velocidade de inferência é 3× superior aos concorrentes de tamanho comparável. 14 línguas suportadas (incluindo francês, alemão, árabe, mandarim, japonês e coreano).
Limitações a notar: o modelo não é concebido para code-switching (mudanças de língua durante o áudio) e pode transcrever sons não vocais — recomenda-se adicionar um filtro VAD (Voice Activity Detection).
🔗 Blog Cohere: Transcribe 🔗 Modelo no Hugging Face
Suno v5.5 : voz pessoal, modelos à medida, preferências adaptativas
26 de março — A Suno lança a versão 5.5 da sua ferramenta de geração musical, com três novas funcionalidades centradas na personalização.
| Funcionalidade | Descrição | Disponibilidade |
|---|---|---|
| Voices | Capturar e usar a própria voz cantada (permanece privada) | Todos os utilizadores |
| Custom Models | Fine-tuning a partir das suas composições originais, até 3 modelos | Assinantes Pro/Premier |
| My Taste | Aprendizagem adaptativa de preferências em géneros e ambientes | Todos os utilizadores |
Estas ferramentas são apresentadas como as fundações dos modelos de próxima geração desenvolvidos em parceria com a indústria musical.
Mistral Voxtral TTS : clone de voz em 3 segundos, open-weight
23 de março (cobertura na imprensa 26-27 de março) — A Mistral publica o Voxtral TTS, o seu primeiro modelo de síntese de voz (Text-to-Speech) open-weight. O modelo voxtral-tts-2603 conta com 4 mil milhões de parâmetros e suporta 9 línguas (inglês, francês, alemão, espanhol, neerlandês, português, italiano, hindi, árabe).
A latência anunciada é de 70 ms para uma configuração típica (amostra de 10 segundos + 500 caracteres). O clonagem de voz funciona a partir de apenas 3 segundos de áudio de referência. Em termos de naturalidade, a Mistral indica que o Voxtral ultrapassa o ElevenLabs Flash v2.5 e atinge a paridade com o ElevenLabs v3. O modelo pode correr num laptop de consumo, numa GPU mid-range ou num dispositivo móvel topo de gama. Acesso : pesos disponíveis no Hugging Face (licença Creative Commons) e via a API Mistral Studio a 0,016 dólar por 1 000 caracteres. Integração do modo voz disponível no Le Chat.
xAI : SuperGrok Lite a 10 dólares/mês e vídeos stories de 15 segundos
25 de março — xAI anunciou duas novidades em torno do Grok.
SuperGrok Lite : um novo plano de assinatura a 10 dólares por mês, atualmente em teste restrito. Inclui sessões de chat duas vezes mais longas do que o nível gratuito, um agente IA, e geração de vídeo em resolução 480p (máximo 6 segundos). O plano se posiciona entre o nível gratuito e o SuperGrok Standard (30 dólares por mês).
Video stories via Grok Imagine : o Grok Imagine agora gera “vídeos stories” de 15 segundos em 720p com áudio sincronizado, música de fundo e efeitos sonoros. Elon Musk declarou querer “redobrar a aposta” em vídeo. Este anúncio ocorre no contexto do encerramento do Sora pela OpenAI na mesma semana.
🔗 Bloomberg : xAI redobra aposta em vídeos de IA
Kimi/Moonshot AI considera uma IPO em Hong Kong
26 de março — Moonshot AI, a empresa chinesa por trás do modelo Kimi, estuda uma listagem na bolsa de Hong Kong, segundo a Bloomberg. Os bancos conselheiros seriam CICC e Goldman Sachs, com uma valorização alvo de cerca de 18 bilhões de dólares e um financiamento em curso de até 1 bilhão de dólares. Os acionistas atuais incluem Alibaba, Tencent e 5Y Capital. O calendário da IPO permanece incerto.
🔗 Bloomberg : Moonshot considera IPO em Hong Kong
NVIDIA GTC : IA proprietária e aberta não se opõem
25 de março — No âmbito do GTC 2026, a NVIDIA e líderes do setor (Mistral, Perplexity, Cursor, Reflection AI, LangChain) afirmaram que o futuro da IA reside na complementaridade dos modelos abertos e proprietários. Jensen Huang resumiu a posição da NVIDIA: “Proprietary versus open is not a thing. It’s proprietary and open.” -> “Proprietário versus aberto não é algo. É proprietário e aberto.”
O artigo do blog destaca a necessidade de orquestração multi-modelos, multi-cloud e multimodal para as empresas. A NVIDIA confirma seu compromisso com open source ao tornar-se a maior organização no Hugging Face.
🔗 Blog NVIDIA : IA Aberta e Proprietária
Claude Code v2.1.85 e v2.1.84 : hooks condicionais e PowerShell no Windows
26-27 de março — Duas novas versões do Claude Code foram publicadas.
v2.1.85 (27 de março) : introdução de um campo condicional if na configuração dos hooks, permitindo disparar um hook apenas em certos comandos ou arquivos. Também: variáveis de ambiente para os scripts de ajuda MCP, timestamps nas transcrições para tarefas agendadas, suporte OAuth conforme a RFC 9728, e possibilidade para os hooks PreToolUse de satisfazer AskUserQuestion retornando updatedInput.
v2.1.84 (~26 de março) : PowerShell no Windows disponível em pré-visualização (pré-visualização opt-in) como ferramenta nativa, hook TaskCreated (disparado na criação de uma tarefa pelo Claude), suporte HTTP para WorktreeCreate, e prompt de retorno exibido após 75 minutos de inatividade. Correção de um bug de permissão em scripts de plugins oficiais no macOS/Linux.
🔗 Tweet @lydiahallie — v2.1.85
Z.ai GLM-5.1 disponível para todos os assinantes do Coding Plan
27 de março — Z.ai (Zhipu) anuncia que o GLM-5.1 está agora acessível a todos os assinantes do GLM Coding Plan, independentemente do nível de assinatura (Lite, Pro ou Max).
🔗 PANews : GLM-5.1 no Coding Plan
Genspark integra Grok Imagine no seu agente de vídeo
26 de março — A Genspark integrou o Grok Imagine (geração de vídeo multi-imagem e extensão de vídeo) no seu Genspark AI Video Agent. Os utilizadores podem usar até 7 imagens para criar um vídeo, ou estender um vídeo existente até 10 segundos.
Meta SAM 3.1 : acompanhamento de 16 objetos em tempo real, velocidade dobrada
27 de março — A Meta publica o SAM 3.1, uma atualização do Segment Anything Model 3 para detecção e acompanhamento de objetos em vídeo em tempo real. A inovação central é o multiplexação de objetos (object multiplexing): em vez de uma passagem separada por objeto seguido, todos os objetos são processados numa única passagem (forward pass). Resultado: até 16 objetos simultaneamente, com uma velocidade que passa de 16 para 32 quadros por segundo num GPU H100 — ou seja, o dobro — ao mesmo tempo que reduz significativamente o consumo de memória.
A arquitetura baseia-se num codificador/decodificador Mux-Demux que partilha uma única computação para todos os objetos. Um mecanismo de raciocínio global (global reasoning) melhora a precisão em cenas com muitos elementos. O SAM 3.1 é um substituto direto (drop-in replacement) do SAM 3 — nenhuma alteração de API é necessária.
O modelo é publicado em open source: checkpoint disponível para download no Hugging Face, código fonte atualizado no GitHub, artigo de pesquisa publicado e demo interativa disponível.
🔗 Blog Meta : SAM 3.1 🔗 Código GitHub 🔗 Tweet @AIatMeta
Meta TRIBE v2 : um gêmeo digital da atividade cerebral humana
26 de março — A Meta publica o TRIBE v2, um modelo de fundação preditivo concebido como “gêmeo digital” (digital twin) da atividade neuronal. O modelo prevê respostas cerebrais fMRI de alta resolução para quase qualquer som, imagem ou texto, com uma resolução 70× superior às abordagens anteriores. Treinado com dados de mais de 700 voluntários, funciona em modo zero-shot para novos sujeitos, línguas e tarefas sem re-treinamento. O objetivo é permitir que os neurocientistas testem hipóteses rapidamente sem experiências humanas e acelerar a pesquisa sobre transtornos neurológicos. O modelo, o código e o artigo científico são publicados sob licença CC BY-NC.
🔗 Blog Meta : TRIBE v2 🔗 Tweet @AIatMeta
O que isso significa
A decisão do tribunal de Amsterdã marca uma viragem regulatória: é a primeira vez que uma jurisdição europeia condena diretamente a xAI por conteúdos gerados pelo Grok, com uma coação pecuniária dissuasiva. Combinada com a votação do Parlamento Europeu sobre deepfakes sexuais no mesmo dia, isso desenha um quadro legal que vai impor-se progressivamente a todos os fornecedores de IA generativa.
Do lado das ferramentas para desenvolvedores, a semana ilustra a corrida pela integração: Codex com os seus plugins nativos, Copilot com a resolução de conflitos de merge e a visibilidade dos agentes nas Issues/Projects, e Claude Code com os seus hooks condicionais. Os assistentes IA integram-se cada vez mais profundamente nos fluxos de trabalho existentes em vez de os substituir.
A restrição de acesso ao Gemini Pro no CLI gratuito é um sinal de que o período de generosidade gratuita nas ferramentas CLI começa a reduzir-se. O Gemini, como o GitHub Copilot antes dele, converge para um modelo freemium onde capacidades avançadas exigem uma subscrição.
Por fim, a IPO considerada da Kimi em Hong Kong por 18 bilhões de dólares confirma a atratividade das valorizações no setor de IA chinês, enquanto a Mistral, com o Voxtral TTS, continua a posicionar os seus modelos open-weight como alternativa aos serviços proprietários na síntese de voz.
Fontes
- CNBC : Tribunal holandês proíbe Grok AI nudes
- The Record Media : Tribunal holandês ameaça xAI com multas
- Al Jazeera : Tribunal holandês proíbe nudificação pelo Grok da xAI
- Blog Google : Gemini 3.1 Flash Live
- Blog Google : Desenvolvedores Gemini 3.1 Flash Live
- Blog Google : Mudar para o Gemini
- Blog Google : Gemini Drop março 2026
- Changelog Gemini CLI
- Discussão política Gemini CLI
- TechCrunch : Gemini importa ChatGPT/Claude
- Documentação plugins Codex
- Tweet @OpenAIDevs — plugins
- Anthropic Engineering : Claude Code auto mode
- Tweet @AnthropicAI — auto mode
- GitHub Changelog : Copilot resolve conflitos de merge
- GitHub Changelog : Atividade de agentes em Issues e Projects
- GitHub Changelog : Painel de PRs
- GitHub Changelog : Copilot for Jira
- Blog Cohere : Transcribe
- Hugging Face : Cohere Transcribe
- TechCrunch : Cohere Transcribe
- Suno Blog v5.5
- Mistral Voxtral TTS
- TechCrunch : Mistral Voxtral
- Bloomberg : xAI redobra aposta em vídeos
- Bloomberg : Moonshot IPO Hong Kong
- Blog NVIDIA GTC : Aberto e Proprietário em IA
- Tweet @lydiahallie — Claude Code v2.1.85
- PANews : GLM-5.1 Coding Plan
- Tweet @genspark_ai
- Blog Meta : SAM 3.1
- GitHub SAM 3
- Tweet @AIatMeta — SAM 3.1
- Blog Meta : TRIBE v2
- Tweet @AIatMeta — TRIBE v2
Este documento foi traduzido da versão fr para a língua pt usando o modelo gpt-5-mini. Para mais informações sobre o processo de tradução, consulte https://gitlab.com/jls42/ai-powered-markdown-translator