Pesquisar

Grok banido na Holanda, Gemini 3.1 Flash Live, plugins nativos Codex

O tribunal de Amsterdã proíbe a xAI de gerar imagens sexuais não consensuais com Grok, sob pena de €100 000 por dia. No mesmo dia, o Google lança o Gemini 3.1 Flash Live para conversas de áudio em tempo real em mais de 90 línguas, a OpenAI integra plugins nativos no Codex (Slack, Figma, Notion, Gmail), e a Anthropic publica um artigo técnico sobre o desenho do modo auto do Claude Code. Cohere, Mistral e Suno completam uma semana densa em anúncios.


xAI : o tribunal de Amsterdã proíbe Grok nudes

27 de março — O tribunal distrital de Amsterdã proferiu uma decisão contra a xAI, proibindo-a de gerar ou distribuir imagens sexuais não consensuais nos Países Baixos. Em caso de descumprimento, a multa é de €100 000 por dia, limitada a €10 milhões.

A decisão segue uma denúncia conjunta da ONG holandesa Offlimits e do Victims Support Fund. Segundo o Center for Countering Digital Hate (CCDH), o Grok gerou 3 milhões de imagens sexualizadas em 11 dias, das quais 23 000 envolviam menores. A Offlimits destaca que o Grok não leva em conta a localização geográfica da vítima representada, o que lhe confere alcance global.

A decisão ocorre no mesmo dia em que o Parlamento Europeu aprovou a proibição de deepfakes sexuais gerados por IA — um sinal forte de convergência regulatória. Trata-se do primeiro julgamento europeu deste tipo diretamente contra a xAI.

🔗 CNBC: tribunal holandês proíbe Grok AI por imagens nuas 🔗 The Record Media: tribunal holandês ameaça xAI com multas


Gemini 3.1 Flash Live : áudio em tempo real em 90+ línguas

26 de março — O Google lança o Gemini 3.1 Flash Live, seu modelo multimodal para conversas em tempo real. Ele suporta áudio, imagens, vídeo e texto com uma janela de contexto de 128 000 tokens e suporta mais de 90 línguas.

Em comparação com a geração anterior, o modelo mantém conversas duas vezes mais longas, lida melhor com ruído de fundo e sons ambientais, segue instruções de sistema complexas com mais precisão e aciona ferramentas externas durante a conversa com mais confiabilidade. Todos os áudios gerados são marcados com SynthID.

FuncionalidadeDetalhe
Janela de contexto128 000 tokens
Línguas90+
Conversas2× mais longas que antes
WatermarkingSynthID em todos os áudios

Disponibilidade: via Live API no Google AI Studio (desenvolvedores), via Gemini Live e Search Live (utilizadores, 200+ países), e via Vertex AI (empresas). O Search Live também expande o acesso para mais de 200 países e territórios, com suporte a vídeo Google Lens.

🔗 Anúncio oficial do Google


Gemini : importação de memórias e históricos desde o ChatGPT e o Claude

26 de março — O Google lança uma ferramenta de importação na app Gemini para facilitar a migração desde outros assistentes de IA.

Duas funcionalidades estão disponíveis:

  1. Importação de memórias (“Add Memory”): o Gemini sugere um prompt a inserir no ChatGPT, Claude ou Copilot. A resposta gerada (resumo dos dados pessoais memorizados pelo outro assistente) é copiada e colada no Gemini, que extrai preferências, interesses, informações de localização, etc.

  2. Importação de histórico (“Import Chats”): upload de um ficheiro .zip exportado do ChatGPT ou do Claude, até 5 GB. As conversas passadas tornam-se pesquisáveis e podem ser retomadas no Gemini.

🔗 Blog Google: Switch to Gemini


Gemini CLI v0.35.2 : subagents por defeito, Vim melhorado — e acesso Pro restrito

25-26 de março — A versão estável v0.35.2 do Gemini CLI introduz várias funcionalidades notáveis.

FuncionalidadeDescrição
Subagents ativados por defeitoPlaneador de tarefas paralelas + fragmentação de código
Atalhos de teclado personalizáveisSuporte a keybindings, caracteres literais, protocolo Kitty
Modo Vim melhoradoMotions X, ~, r, f/F/t/T; copiar-colar com o registo unnamed
SandboxManager unificadoIsolamento de ferramentas com bubblewrap/seccomp Linux
Descoberta de contexto JITCarregamento otimizado para ferramentas filesystem
gRPC nativoIntegração nativa e roteamento de protocolo

Mudança de política notável: a partir de 25 de março, os utilizadores gratuitos têm acesso apenas ao Gemini Flash. O acesso ao Gemini Pro fica reservado a assinantes pagos (planos Pro e Ultra). A reação da comunidade é largamente negativa. O Google também reforça a deteção de abusos: o uso da autenticação OAuth do Gemini CLI com software de terceiros pode agora levar a restrições.

🔗 Changelog Gemini CLI 🔗 Discussão da comunidade


Gemini Drop março 2026 : Personal Intelligence gratuito e Lyria 3 Pro

27 de março — A atualização mensal “Gemini Drops” de março de 2026 apresenta as novas funcionalidades da app Gemini lançadas este mês.

FuncionalidadeDescriçãoDisponibilidade
Personal Intelligence gratuitoLigação do Gmail, Photos, YouTube para planear viagens/projetosGratuito, Estados Unidos
Gemini Live melhoradoBaseado no Gemini 3.1 Flash Live, contexto 2× mais longoTodos os utilizadores
Import ChatGPT/ClaudeTransferência de memórias e históricoTodos os utilizadores
Lyria 3 ProCriação de música até 3 minutos, fotos → anthemsAssinantes
Google TVRespostas visuais Gemini e narraçõesGoogle TV

🔗 Gemini Drop março 2026


Codex : plugins nativos para Slack, Figma, Notion e Gmail

26-27 de março — A OpenAI disponibiliza os plugins como funcionalidade de primeira classe no Codex. Os desenvolvedores podem ligar o Codex às ferramentas que usam no dia a dia sem configuração manual.

PluginCaso de uso
SlackEnviar mensagens, ler canais
FigmaAceder aos designs, gerar código
NotionLer e escrever páginas
GmailLer e redigir e-mails

Os plugins sincronizam-se automaticamente à inicialização do Codex e são acessíveis via o comando /plugins. A instalação e desinstalação fazem-se diretamente desde a interface TUI com gestão de autenticação integrada.

A 27 de março, a OpenAI publicou uma galeria de casos de uso práticos acessíveis num clique: construção de apps iOS, análise de datasets, geração de relatórios e apresentações. O changelog Codex v0.117.0 detalha funcionalidades técnicas, incluindo o suporte a menções de plugins nos prompts.

🔗 Documentação plugins Codex 🔗 Tweet @OpenAIDevs


Anthropic : o desenho do modo auto do Claude Code explicado

26 de março — A Anthropic publicou um artigo técnico no blog sobre o desenho do seu modo auto (auto mode) no Claude Code, disponível no blog Engineering.

O problema abordado: os utilizadores do Claude Code sofrem de fadiga de aprovação (approval fatigue). As estatísticas mostram que 93% dos pedidos de permissão são aceites — o que sugere que uma automatização parcial é possível sem sacrificar a segurança.

A solução: duas camadas de classificadores

O modo auto assenta em dois níveis de proteção baseados em modelos (Sonnet 4.6):

  1. Camada de entrada: uma sonda de deteção de injeção de prompt (prompt injection probe) analisa os resultados das ferramentas antes de chegarem ao agente.
  2. Camada de saída: um classificador de transcrição avalia cada ação proposta através de um processo em duas etapas antes da sua execução.
NívelTipo de açãoTratamento
Tier 1Ferramentas seguras (leitura de ficheiros, pesquisa)Passagem direta, sem classificador
Tier 2Modificações de ficheiros no projetoContorno do classificador (revisáveis via controlo de versão)
Tier 3Ações perigosas (comandos shell, operações externas)Avaliação completa pelo classificador

Métricas de desempenho:

EtapaTaxa de falsos positivos (tráfego real)Taxa de falsos negativos (ações arriscadas)
Etapa 1 (rápida)8,5 %6,6 %
Pipeline completo0,4 %17 %

A taxa de falsos positivos de 0,4 % no pipeline completo significa que o modo auto quase nunca interrompe o trabalho indevidamente. A taxa de falsos negativos de 17 % reflete casos em que o classificador deteta um perigo mas interpreta mal o âmbito da autorização concedida pelo utilizador.

“New on the Engineering Blog: How we designed Claude Code auto mode. Many Claude Code users let Claude work without permission prompts. Auto mode is a safer middle ground: we built and tested classifiers that make approval decisions instead.”

🇵🇹 No blog Engineering: como concebemos o modo auto do Claude Code. Muitos utilizadores deixam o Claude trabalhar sem pedidos de permissão. O modo auto é um compromisso mais seguro: construímos e testámos classificadores que tomam as decisões de aprovação no lugar deles.@AnthropicAI no X

🔗 Claude Code auto mode: a safer way to skip permissions


GitHub Copilot : resolução de conflitos de merge e visibilidade dos agents

26 de março — Duas atualizações importantes do GitHub Copilot melhoram o fluxo de trabalho das equipas.

Resolução de conflitos de merge: agora é possível mencionar @copilot num comentário de pull request para lhe pedir para resolver conflitos. O agente trabalha no seu ambiente cloud, resolve os conflitos, verifica que o build e os testes passam, e depois faz push das alterações. Disponível em todos os planos pagos do Copilot (Business/Enterprise requer ativação admin).

Visibilidade dos agents em Issues e Projects: quando um agente de código (Copilot, Claude, Codex) é atribuído a uma issue, a sua sessão aparece sob o assignee na sidebar com um estado em tempo real — em fila, em curso, à espera de revisão, concluído. As sessões também são visíveis nas vistas table e board de Projects (a ativar via “View menu > Show agent sessions”).

🔗 Copilot resolve conflitos de merge 🔗 Atividade dos agents em Issues e Projects


GitHub : novo painel de PRs e Copilot for Jira

25-26 de março — Duas melhorias adicionais para os desenvolvedores GitHub.

Painel de Pull Requests (preview público): um painel redesenhado em github.com/pulls centraliza os PRs que requerem atenção — revisões solicitadas, correções a fazer, prontos para merge. Vistas guardadas personalizadas, filtros avançados com autocompletar e suporte a queries AND/OR complementam a interface. A ativar via os parâmetros Feature Preview.

Copilot for Jira: desde o lançamento em preview público, várias melhorias: escolha do modelo IA diretamente desde o Jira, inclusão automática do número do ticket Jira no título do PR e no nome da branch, e acesso às páginas Confluence via o servidor MCP Atlassian (configurável com um PAT).

🔗 Novo painel de PRs 🔗 Melhorias do Copilot for Jira


Cohere Transcribe : nº1 no ranking ASR open-source

26 de março — A Cohere lança o Cohere Transcribe, o seu primeiro modelo de reconhecimento automático de fala (Automatic Speech Recognition — ASR). Disponível em open-source sob licença Apache 2.0, sobe diretamente ao primeiro lugar do ranking Open ASR do Hugging Face para inglês.

O modelo baseia-se numa arquitetura Fast-Conformer Transformer encoder-decoder de 2 mil milhões de parâmetros. Mais de 90% dos parâmetros estão alocados ao encoder, com um decoder leve para minimizar o custo autorregressivo e maximizar a velocidade. Treinado em 500 000 horas de pares áudio-transcrição.

ModeloWER médio
Cohere Transcribe5,42
Zoom Scribe v15,47
IBM Granite 4.0 1B5,52
NVIDIA Canary Qwen 2.5B5,63
OpenAI Whisper Large v37,44

O WER (Word Error Rate — taxa de erro de palavras) de 5,42% coloca o Cohere Transcribe no topo. A velocidade de inferência é 3× superior aos concorrentes de tamanho comparável. 14 línguas suportadas (incluindo francês, alemão, árabe, mandarim, japonês e coreano).

Limitações a notar: o modelo não é concebido para code-switching (mudanças de língua durante o áudio) e pode transcrever sons não vocais — recomenda-se adicionar um filtro VAD (Voice Activity Detection).

🔗 Blog Cohere: Transcribe 🔗 Modelo no Hugging Face


Suno v5.5 : voz pessoal, modelos à medida, preferências adaptativas

26 de março — A Suno lança a versão 5.5 da sua ferramenta de geração musical, com três novas funcionalidades centradas na personalização.

FuncionalidadeDescriçãoDisponibilidade
VoicesCapturar e usar a própria voz cantada (permanece privada)Todos os utilizadores
Custom ModelsFine-tuning a partir das suas composições originais, até 3 modelosAssinantes Pro/Premier
My TasteAprendizagem adaptativa de preferências em géneros e ambientesTodos os utilizadores

Estas ferramentas são apresentadas como as fundações dos modelos de próxima geração desenvolvidos em parceria com a indústria musical.

🔗 Suno Blog v5.5


Mistral Voxtral TTS : clone de voz em 3 segundos, open-weight

23 de março (cobertura na imprensa 26-27 de março) — A Mistral publica o Voxtral TTS, o seu primeiro modelo de síntese de voz (Text-to-Speech) open-weight. O modelo voxtral-tts-2603 conta com 4 mil milhões de parâmetros e suporta 9 línguas (inglês, francês, alemão, espanhol, neerlandês, português, italiano, hindi, árabe).

A latência anunciada é de 70 ms para uma configuração típica (amostra de 10 segundos + 500 caracteres). O clonagem de voz funciona a partir de apenas 3 segundos de áudio de referência. Em termos de naturalidade, a Mistral indica que o Voxtral ultrapassa o ElevenLabs Flash v2.5 e atinge a paridade com o ElevenLabs v3. O modelo pode correr num laptop de consumo, numa GPU mid-range ou num dispositivo móvel topo de gama. Acesso : pesos disponíveis no Hugging Face (licença Creative Commons) e via a API Mistral Studio a 0,016 dólar por 1 000 caracteres. Integração do modo voz disponível no Le Chat.

🔗 Anúncio Mistral Voxtral


xAI : SuperGrok Lite a 10 dólares/mês e vídeos stories de 15 segundos

25 de março — xAI anunciou duas novidades em torno do Grok.

SuperGrok Lite : um novo plano de assinatura a 10 dólares por mês, atualmente em teste restrito. Inclui sessões de chat duas vezes mais longas do que o nível gratuito, um agente IA, e geração de vídeo em resolução 480p (máximo 6 segundos). O plano se posiciona entre o nível gratuito e o SuperGrok Standard (30 dólares por mês).

Video stories via Grok Imagine : o Grok Imagine agora gera “vídeos stories” de 15 segundos em 720p com áudio sincronizado, música de fundo e efeitos sonoros. Elon Musk declarou querer “redobrar a aposta” em vídeo. Este anúncio ocorre no contexto do encerramento do Sora pela OpenAI na mesma semana.

🔗 Bloomberg : xAI redobra aposta em vídeos de IA


Kimi/Moonshot AI considera uma IPO em Hong Kong

26 de março — Moonshot AI, a empresa chinesa por trás do modelo Kimi, estuda uma listagem na bolsa de Hong Kong, segundo a Bloomberg. Os bancos conselheiros seriam CICC e Goldman Sachs, com uma valorização alvo de cerca de 18 bilhões de dólares e um financiamento em curso de até 1 bilhão de dólares. Os acionistas atuais incluem Alibaba, Tencent e 5Y Capital. O calendário da IPO permanece incerto.

🔗 Bloomberg : Moonshot considera IPO em Hong Kong


NVIDIA GTC : IA proprietária e aberta não se opõem

25 de março — No âmbito do GTC 2026, a NVIDIA e líderes do setor (Mistral, Perplexity, Cursor, Reflection AI, LangChain) afirmaram que o futuro da IA reside na complementaridade dos modelos abertos e proprietários. Jensen Huang resumiu a posição da NVIDIA: “Proprietary versus open is not a thing. It’s proprietary and open.” -> “Proprietário versus aberto não é algo. É proprietário e aberto.”

O artigo do blog destaca a necessidade de orquestração multi-modelos, multi-cloud e multimodal para as empresas. A NVIDIA confirma seu compromisso com open source ao tornar-se a maior organização no Hugging Face.

🔗 Blog NVIDIA : IA Aberta e Proprietária


Claude Code v2.1.85 e v2.1.84 : hooks condicionais e PowerShell no Windows

26-27 de março — Duas novas versões do Claude Code foram publicadas.

v2.1.85 (27 de março) : introdução de um campo condicional if na configuração dos hooks, permitindo disparar um hook apenas em certos comandos ou arquivos. Também: variáveis de ambiente para os scripts de ajuda MCP, timestamps nas transcrições para tarefas agendadas, suporte OAuth conforme a RFC 9728, e possibilidade para os hooks PreToolUse de satisfazer AskUserQuestion retornando updatedInput.

v2.1.84 (~26 de março) : PowerShell no Windows disponível em pré-visualização (pré-visualização opt-in) como ferramenta nativa, hook TaskCreated (disparado na criação de uma tarefa pelo Claude), suporte HTTP para WorktreeCreate, e prompt de retorno exibido após 75 minutos de inatividade. Correção de um bug de permissão em scripts de plugins oficiais no macOS/Linux.

🔗 Tweet @lydiahallie — v2.1.85


Z.ai GLM-5.1 disponível para todos os assinantes do Coding Plan

27 de março — Z.ai (Zhipu) anuncia que o GLM-5.1 está agora acessível a todos os assinantes do GLM Coding Plan, independentemente do nível de assinatura (Lite, Pro ou Max).

🔗 PANews : GLM-5.1 no Coding Plan


Genspark integra Grok Imagine no seu agente de vídeo

26 de março — A Genspark integrou o Grok Imagine (geração de vídeo multi-imagem e extensão de vídeo) no seu Genspark AI Video Agent. Os utilizadores podem usar até 7 imagens para criar um vídeo, ou estender um vídeo existente até 10 segundos.

🔗 Tweet @genspark_ai


Meta SAM 3.1 : acompanhamento de 16 objetos em tempo real, velocidade dobrada

27 de março — A Meta publica o SAM 3.1, uma atualização do Segment Anything Model 3 para detecção e acompanhamento de objetos em vídeo em tempo real. A inovação central é o multiplexação de objetos (object multiplexing): em vez de uma passagem separada por objeto seguido, todos os objetos são processados numa única passagem (forward pass). Resultado: até 16 objetos simultaneamente, com uma velocidade que passa de 16 para 32 quadros por segundo num GPU H100 — ou seja, o dobro — ao mesmo tempo que reduz significativamente o consumo de memória.

A arquitetura baseia-se num codificador/decodificador Mux-Demux que partilha uma única computação para todos os objetos. Um mecanismo de raciocínio global (global reasoning) melhora a precisão em cenas com muitos elementos. O SAM 3.1 é um substituto direto (drop-in replacement) do SAM 3 — nenhuma alteração de API é necessária.

O modelo é publicado em open source: checkpoint disponível para download no Hugging Face, código fonte atualizado no GitHub, artigo de pesquisa publicado e demo interativa disponível.

🔗 Blog Meta : SAM 3.1 🔗 Código GitHub 🔗 Tweet @AIatMeta


Meta TRIBE v2 : um gêmeo digital da atividade cerebral humana

26 de março — A Meta publica o TRIBE v2, um modelo de fundação preditivo concebido como “gêmeo digital” (digital twin) da atividade neuronal. O modelo prevê respostas cerebrais fMRI de alta resolução para quase qualquer som, imagem ou texto, com uma resolução 70× superior às abordagens anteriores. Treinado com dados de mais de 700 voluntários, funciona em modo zero-shot para novos sujeitos, línguas e tarefas sem re-treinamento. O objetivo é permitir que os neurocientistas testem hipóteses rapidamente sem experiências humanas e acelerar a pesquisa sobre transtornos neurológicos. O modelo, o código e o artigo científico são publicados sob licença CC BY-NC.

🔗 Blog Meta : TRIBE v2 🔗 Tweet @AIatMeta


O que isso significa

A decisão do tribunal de Amsterdã marca uma viragem regulatória: é a primeira vez que uma jurisdição europeia condena diretamente a xAI por conteúdos gerados pelo Grok, com uma coação pecuniária dissuasiva. Combinada com a votação do Parlamento Europeu sobre deepfakes sexuais no mesmo dia, isso desenha um quadro legal que vai impor-se progressivamente a todos os fornecedores de IA generativa.

Do lado das ferramentas para desenvolvedores, a semana ilustra a corrida pela integração: Codex com os seus plugins nativos, Copilot com a resolução de conflitos de merge e a visibilidade dos agentes nas Issues/Projects, e Claude Code com os seus hooks condicionais. Os assistentes IA integram-se cada vez mais profundamente nos fluxos de trabalho existentes em vez de os substituir.

A restrição de acesso ao Gemini Pro no CLI gratuito é um sinal de que o período de generosidade gratuita nas ferramentas CLI começa a reduzir-se. O Gemini, como o GitHub Copilot antes dele, converge para um modelo freemium onde capacidades avançadas exigem uma subscrição.

Por fim, a IPO considerada da Kimi em Hong Kong por 18 bilhões de dólares confirma a atratividade das valorizações no setor de IA chinês, enquanto a Mistral, com o Voxtral TTS, continua a posicionar os seus modelos open-weight como alternativa aos serviços proprietários na síntese de voz.


Fontes

Este documento foi traduzido da versão fr para a língua pt usando o modelo gpt-5-mini. Para mais informações sobre o processo de tradução, consulte https://gitlab.com/jls42/ai-powered-markdown-translator