Pesquisar

Modo de Voz no Claude Code, GPT-5.3 Instant para todos, Gemini 3.1 Flash-Lite em preview

Modo de Voz no Claude Code, GPT-5.3 Instant para todos, Gemini 3.1 Flash-Lite em preview

3 de março de 2026 marca um dia carregado: Claude Code ativa o seu Voice Mode em rollout progressivo, OpenAI lança o GPT-5.3 Instant para todos os utilizadores do ChatGPT com uma redução notável das alucinações, e o Google apresenta o Gemini 3.1 Flash-Lite em preview — o modelo mais económico da série Gemini 3. Em paralelo, a OpenAI já provoca o GPT-5.4, o FLUX.2 [pro] duplica a velocidade sem perda de qualidade, e a Anthropic reconhece um crescimento “unprecedented” que colocou os seus sistemas sob pressão.


Voice Mode no Claude Code — push-to-talk, rollout ~5%

3 de março de 2026 — Thariq (@trq212, equipa Claude Code na Anthropic) anuncia o rollout progressivo do Voice Mode no Claude Code. A funcionalidade era muito aguardada há várias semanas pela comunidade de desenvolvedores.

Como funciona:

AspectoDetalhe
AtivaçãoComando /voice para ativar/desativar
Push-to-talkMantenha a barra de espaço para falar, solte para enviar
TranscriçãoAparece em tempo real no terminal
Nota de boas-vindasVisível na tela inicial durante a ativação
TokensOs tokens de transcrição de voz não contam nos rate limits

Boris Cherny (@bcherny, lead Claude Code) confirma que usa este modo no dia a dia: diz ter escrito “a maior parte do [seu] código CLI esta semana” com o Voice Mode. O seu feedback sugere que a funcionalidade está pronta para sessões de trabalho reais, não apenas para testes.

Disponibilidade : Ativo para cerca de 5% dos utilizadores a 3 de março. O rollout progressivo continuará nas semanas seguintes. A gratuidade da transcrição (tokens fora da cota) é uma escolha notável que remove uma fricção habitual para este tipo de funcionalidade.

A comunidade já pede uma versão bidirecional — respostas lidas em voz alta — assim como a disponibilidade geral de /remote-control. Esses dois pontos permanecem no roadmap.

🔗 Tweet @trq212 — Implantação do Voice Mode 🔗 Tweet @bcherny — Relato de experiência


GPT-5.3 Instant disponível para todos — -26,8% de alucinações

3 de março 2026 — OpenAI implanta o GPT-5.3 Instant para todos os utilizadores do ChatGPT. Este modelo substitui o GPT-5.2 Instant como modelo predefinido do ChatGPT, com foco principal na qualidade do dia a dia em vez dos benchmarks académicos.

O ponto mais concreto desta atualização: a redução das alucinações.

CenárioRedução de alucinações
Com acesso à web (domínios sensíveis: medicina, direito)-26,8%
Sem acesso à web-19,7%
Relatos dos utilizadores (sinalizações de erros)-22,5% (web), -9,6% (sem)

Outras melhorias documentadas no blog OpenAI :

  • Menos recusas desnecessárias : redução dos preâmbulos defensivos/moralizadores do GPT-5.2 — o modelo responde diretamente sem avisos supérfluos
  • Pesquisa web : melhor equilíbrio entre resultados da web e conhecimentos internos; menos listas de links, síntese mais pertinente
  • Tom mais fluido : menos suposições sobre o estado emocional do utilizador
  • Escrita criativa : prosa mais evocativa e imersiva

“GPT-5.3 Instant in ChatGPT is now rolling out to everyone. More accurate, less cringe.”

🇵🇹 GPT-5.3 Instant no ChatGPT já está disponível para todos. Mais preciso, menos cringe.@OpenAI no X

Disponibilidade API : identificador gpt-5.3-chat-latest. O GPT-5.2 Instant permanece acessível em “Modelos antigos” durante 3 meses, depois será removido a 3 de junho de 2026. As atualizações Thinking e Pro são anunciadas como “a seguir”.

Limite conhecido : o tom em japonês e coreano continua por vezes rígido — em correção.

🔗 Anúncio GPT-5.3 Instant 🔗 System Card GPT-5.3 Instant


Gemini 3.1 Flash-Lite — preview, 2,5× mais rápido, $0,25/1M tokens

3 de março de 2026 — Google lança o Gemini 3.1 Flash-Lite em preview via API Gemini no Google AI Studio e Vertex AI. É o modelo mais económico da série Gemini 3, concebido para cargas de trabalho de alto volume para desenvolvedores.

Preço e desempenho

AspectoValor
Preço input$0,25 / 1M tokens
Preço output$1,50 / 1M tokens
Velocidade (TTFAT)2,5× mais rápido vs Gemini 2.5 Flash
Velocidade de output+45% vs Gemini 2.5 Flash (Artificial Analysis)
Score Elo (Arena.ai)1432
GPQA Diamond86,9%
MMMU Pro76,8%

Estes benchmarks colocam o Flash-Lite acima de vários modelos Gemini de gerações anteriores maiores — o que valida a abordagem de eficiência da série 3.1.

Níveis de Thinking adaptativos

Uma característica notável: os thinking levels (níveis de reflexão adaptativos) estão integrados nativamente no AI Studio e no Vertex AI. Os desenvolvedores podem ajustar dinamicamente a profundidade de raciocínio conforme a complexidade da tarefa — útil para misturar tarefas simples a baixo custo e análises complexas no mesmo pipeline, sem mudar de modelo.

Casos de uso documentados

Tradução multilíngue em larga escala, moderação de conteúdo, geração de interfaces de e‑commerce, dashboards dinâmicos, agentes SaaS multi‑etapas. Empresas como Latitude, Cartwheel e Whering já estão em early access.

🔗 Anúncio Gemini 3.1 Flash-Lite 🔗 Tweet @GoogleAI


Teaser GPT-5.4 — “5.4 sooner than you Think.”

3 de março de 2026 — Uma hora após o anúncio do GPT-5.3 Instant, a OpenAI publica um tweet sucinto: “5.4 sooner than you Think.” 800k visualizações, 13k likes.

A capitalização incomum de “Think” foi notada pela comunidade — possível referência a um modo de reflexão melhorado no GPT-5.4. Nenhum detalhe adicional disponível para já.

🔗 Teaser GPT-5.4 — @OpenAI


Escalabilidade Claude — tráfego sem precedentes, #1 App Store

3 de março de 2026 — No final do dia, Thariq (@trq212) publica uma mensagem reconhecendo dificuldades de escalabilidade:

“We’ve seen unprecedented growth in Claude and Claude Code traffic this week that was genuinely hard to forecast. We appreciate you bearing with us as we scale.”

🇵🇹 Observámos um crescimento sem precedentes no tráfego do Claude e do Claude Code esta semana, que foi realmente difícil de prever. Agradecemos a sua paciência enquanto dimensionamos a nossa infraestrutura.@trq212 no X

Contexto : Claude atingiu a posição #1 na App Store a 1 de março (confirmado por Mike Krieger, CPO @mikeyk), e o lançamento do Voice Mode gerou um pico adicional de tráfego. O pacote npm @anthropic-ai/claude-code regista 9,5 milhões de downloads semanais.

🔗 Tweet @trq212 — Escalabilidade 🔗 Tweet @mikeyk — Claude #1 App Store


BFL FLUX.2 [pro] — 2× mais rápido, mesmo preço, mesma qualidade

3 de março de 2026 — Black Forest Labs anuncia uma atualização major do FLUX.2 [pro] : o modelo é agora 2× mais rápido sem qualquer perda de qualidade e sem aumento de preço.

O FLUX.2 [pro] cobre três modos: text-to-image, edição de imagem e multi-reference. O tweet da BFL descreve o posicionamento: “sweet spot of high quality + reasonable speed + broad capabilities” — notadamente para fotorrealismo (fotos de produto, graphic design) e coerência de renderização de personagens.

🔗 Tweet @bfl_ml — Atualização FLUX.2 [pro] 🔗 Documentação FLUX.2


ElevenLabs no MWC — assistente vocal em rede e parceria com a Deloitte

2 de março de 2026 — ElevenLabs anuncia duas parcerias a partir do Mobile World Congress Barcelona.

ElevenLabs × Deutsche Telekom — Magenta AI Call Assistant

A Deutsche Telekom apresenta o Magenta AI Call Assistant — descrito como o primeiro assistente vocal IA integrado diretamente na rede telecom. Alimentado pela plataforma ElevenAgents da ElevenLabs, funciona sem necessidade de aplicação a instalar, em qualquer dispositivo capaz de efetuar uma chamada (smartphones e telefones fixos).

Funcionalidades anunciadas: tradução em 50 línguas, resumo inteligente das chamadas, ações autónomas em workflows.

ElevenLabs × Deloitte — agentes omnicanal enterprise

A ElevenLabs e a Deloitte anunciam a sua primeira parceria. O objetivo: combinar a plataforma ElevenLabs Agents com a expertise de consultoria da Deloitte para ajudar empresas a lançar agentes vocais omnicanal — experiência do cliente, vendas, operações internas — integrados nos sistemas empresariais existentes. É a primeira parceria da ElevenLabs com um gabinete Big Four.

🔗 Tweet @elevenlabsio — Deutsche Telekom MWC 🔗 Blog ElevenLabs × Deloitte


Breves

Claude Code v2.1.64 (pre-release “next”)

A versão 2.1.64 do Claude Code foi publicada com a tag next no npm — ainda não promovida em latest (que permanece 2.1.63) e ausente dos GitHub Releases oficiais. O changelog ainda não está disponível; provavelmente trata-se de um pre-release que inclui o Voice Mode.

🔗 npm @anthropic-ai/claude-code

Qwen 3.5 GPTQ-Int4 — quantização, vLLM e SGLang

3 de março — Alibaba/Qwen publica os pesos GPTQ-Int4 da série Qwen 3.5 com suporte nativo a vLLM e SGLang. Resultado: menos VRAM necessária, inferência mais rápida, implantações locais facilitadas em configurações GPU limitadas.

🔗 Tweet @Alibaba_Qwen — GPTQ-Int4

Qwen 3.5 Small no LM Studio, Ollama e MLX

2-3 de março — Os modelos Qwen 3.5 Small (0.8B–9B) estão agora disponíveis nas três principais plataformas de inferência local: LM Studio (~7 GB VRAM para 9B), Ollama e MLX. O deployment local está, portanto, operacional no dia seguinte ao lançamento.

🔗 LM Studio · Ollama · MLX

Z.ai Startup Program — créditos API e early access GLM-5

2 de março — Z.ai abre o seu Startup Program: créditos API gratuitos, rate limits prioritários, acesso antecipado à API e comunidade dedicada. Público‑alvo: startups AI‑native, builders de agentes, fundadores SaaS. O modelo em produção na plataforma é o GLM-5.

🔗 Tweet @Zai_org — Startup Program

March Pixel Drop — Gemini nas apps, Circle to Search multi‑objetos, Scam Detection em França

3 de março — O Pixel Drop de março traz várias funcionalidades IA aos aparelhos Pixel. O Gemini pode agora executar tarefas diretamente nas apps (comandos, reservas, pedir um café — em beta). O Circle to Search reconhece agora todos os objetos visíveis num ecrã numa única pesquisa, com um botão “Try It On” para experimentar virtualmente roupas. O Magic Cue sugere restaurantes via Gemini diretamente nas conversas. Em termos de segurança, o Scam Detection chega a França, Itália, Espanha, México, Alemanha e Japão. A Pixel Watch recebe alertas sísmicos e Satellite SOS na Europa e no Canadá.

🔗 March Pixel Drop — Blog Google

GPT-5.3 Instant System Card

A System Card que acompanha o GPT-5.3 Instant é publicada simultaneamente. A abordagem de segurança é idêntica à do GPT-5.2 Instant — o modelo também é referenciado sob gpt-5.3-instant.

🔗 System Card GPT-5.3 Instant


O que isso significa

O Voice Mode no Claude Code é a decisão mais estruturante do dia para os desenvolvedores. Tornar a transcrição gratuita (fora da cota) elimina a principal barreira económica deste tipo de funcionalidade — é uma escolha deliberada para maximizar a adoção, não um detalhe. A barra de espaço como push-to-talk num terminal é uma interface minimalista coerente com a ferramenta.

No front dos modelos, o GPT-5.3 Instant e o Gemini 3.1 Flash-Lite ilustram duas estratégias diferentes: a OpenAI melhora a experiência diária do grande público (menos alucinações, menos recusas desnecessárias), o Google optimiza a relação custo/desempenho para desenvolvedores API de alto volume (2,5× mais rápido, preço agressivo). O teaser do GPT-5.4 publicado uma hora após o lançamento do GPT-5.3 sugere um ritmo de despliegue ainda sustentado na OpenAI em março de 2026.

A menção de tráfego sem precedentes (unprecedented) na Anthropic, combinada com o #1 na App Store, confirma que o Claude Code e a app Claude saem de uma fase de nicho para atingir um público muito mais amplo. Os problemas de escalabilidade são sinal de uma adoção que excede as projeções, não de uma falha técnica.


Fontes - Tweet @trq212 — Voice Mode a ser lançado

Este documento foi traduzido da versão fr para a língua pt utilizando o modelo gpt-5-mini. Para mais informações sobre o processo de tradução, consulte https://gitlab.com/jls42/ai-powered-markdown-translator