Luma AI lança Uni-1, um modelo que funde raciocínio e geração de pixels numa única passagem, acumulando 6,1 milhões de visualizações em poucos dias. Enquanto isso, Perplexity implanta suas APIs no Samsung Browsing Assist em mais de um bilhão de dispositivos, Claude Code v2.1.86 chega com cerca de quinze correções, e o GitHub Copilot CLI introduz a geração de testes unitários por agentes em modo autopilot.
Luma Uni-1 — Raciocínio e geração de pixels unificados
23 de março — A Luma AI anunciou o Uni-1, um modelo que descreve como «um novo tipo de modelo que pensa e gera pixels simultaneamente». Ao contrário dos modelos de difusão clássicos que primeiro geram uma representação latente e depois a decodificam, o Uni-1 funde o raciocínio e a geração num único processo.
O anúncio atraiu atenção com 6,1 milhões de visualizações, 4.000 likes e mais de mil compartilhamentos — números incomuns para um anúncio técnico na geração de imagens.
Arquitetura e posicionamento:
| Capacidade | Descrição |
|---|---|
| Raciocínio espacial | Compreende e completa cenas com coerência de perspectiva e oclusão |
| Raciocínio de bom senso | Inferência da intenção da cena para orientar a geração |
| Transformação guiada | Modificações guiadas pela plausibilidade física, não apenas pela correspondência de pixels |
| Inteligência unificada | Compreensão, diretivas e geração numa única passagem (unified pass) |
A Luma posiciona o Uni-1 com a frase «Menos artificial. Mais inteligente.» — sinalizando uma ruptura com os geradores de imagens baseados na correspondência estatística de padrões visuais. O modelo é apresentado como a base dos futuros «Creative Agents» da Luma, potencialmente o motor da próxima geração do Dream Machine.
Uni-1 está disponível imediatamente em lumalabs.ai/app.
“A new kind of model that thinks and generates pixels at the same time.”
🇵🇹 Um novo tipo de modelo que pensa e gera pixels simultaneamente. — @LumaLabsAI no X
Perplexity alimenta Samsung Browsing Assist em 1 bilhão de dispositivos
26 de março — A Samsung lançou o Browsing Assist, um assistente de IA conversacional integrado nativamente no Samsung Browser em aparelhos Galaxy Android e PCs com Windows. Por trás da funcionalidade: as APIs da Perplexity, implantadas numa escala sem precedentes em mais de um bilhão de dispositivos Samsung no mundo.
Esse lançamento consolida uma parceria já existente: a Perplexity alimenta dois dos três assistentes integrados ao Galaxy S26 — o assistente nativo Perplexity e o Bixby, que usa as APIs Perplexity para busca web e raciocínio. Com o Browsing Assist, a Perplexity passa do assistente conversacional para a camada de IA do próprio navegador.
Capacidades do Browsing Assist:
| Funcionalidade | Descrição |
|---|---|
| Respostas com fontes | Resultados em tempo real durante a navegação |
| Resumo de páginas | Inclusive de conteúdo autenticado (páginas atrás de login) |
| Busca no histórico | Em linguagem natural |
| Gerenciamento conversacional | Abrir, fechar, navegar entre abas por voz ou texto |
| Ações multi-abas | Operar simultaneamente em várias abas abertas |
| Sincronização telefone → PC | Retomar uma conversa iniciada no celular |
Infraestrutura: O Browsing Assist funciona num cluster Perplexity dedicado a locatário único (single-tenant), com retenção nula de dados em todas as entradas da API. O endpoint foi projetado sob medida para a rapidez e a escala exigidas pela Samsung.
A Perplexity observa que as capacidades implantadas na Samsung — busca, raciocínio, orquestração multi-abas — são exatamente aquelas sobre as quais seu navegador Comet é construído. Essa implantação representa uma validação em grande escala da stack técnica da Perplexity.
Disponibilidade: Estados Unidos e Coreia do Sul no lançamento; outras regiões a seguir. As mesmas capacidades estão acessíveis a desenvolvedores via Search API, Embeddings API e Agent API da Perplexity.
Claude Code v2.1.86 — Correções importantes e suporte VCS Jujutsu/Sapling
27 de março — A Anthropic lançou o Claude Code v2.1.86, uma versão particularmente densa em correções. A atualização traz cerca de quinze correções de bugs e várias melhorias de desempenho.
Principais melhorias:
| Categoria | Mudança |
|---|---|
| API | Header X-Claude-Code-Session-Id para agregar requisições por sessão no proxy |
| VCS | Exclusão de .jj (Jujutsu) e .sl (Sapling) no Grep e autocompletar |
| Cache MCP | Tempo de inicialização reduzido de 5s para 30s (cache keychain macOS) |
| Desempenho | Taxa de cache melhorada no Bedrock, Vertex e Foundry |
| Tokens | Redução de overhead em menções @fichier (sem mais JSON-escape do conteúdo bruto) |
| UX memória | Nomes de arquivos de memória clicáveis na notificação «Saved N memories» |
| Skills | Descrições limitadas a 250 caracteres; menu /skills ordenado alfabeticamente |
| Read tool | Formato de números de linha compacto, deduplicação de leituras idênticas |
Correções de bugs notáveis: --resume falhava em sessões criadas antes da v2.1.85; Write/Edit/Read falhava em arquivos fora da raiz do projeto com skills condicionais; possível crash de memória com /feedback em sessões longas; modo --bare perdia as ferramentas MCP; o atalho de copiar URL OAuth copiava apenas ~20 caracteres em vez da URL completa; scripts de plugins oficiais do marketplace falhavam com «Permission denied» no macOS/Linux desde a v2.1.83.
GitHub Copilot CLI — Testes unitários por agentes em autopilot
28 de março — O GitHub anunciou uma nova capacidade do Copilot CLI: gerar automaticamente uma suíte completa de testes unitários diretamente do terminal, combinando o modo plano (plan mode) com uma frota de agentes em modo autopilot.
Workflow :
- Ativar o modo plano com
Shift-Tabno terminal - Lançar uma frota de agentes em autopilot
- Acompanhar o progresso com o comando
/tasks
A geração é paralelizada entre vários agentes, o que permite cobrir múltiplos módulos simultaneamente. O caso de uso principal é projetos existentes sem cobertura de testes — o Copilot CLI pode gerar uma suíte completa sem sair do ambiente do terminal.
OpenAI — gpt-realtime-1.5 e gpt-realtime-mini em disponibilidade geral
27 de março — A OpenAI anunciou a disponibilidade geral (General Availability) dos novos modelos realtime via Realtime API. A documentação dos modelos lista agora:
| Modelo | Posicionamento |
|---|---|
gpt-realtime-1.5 | Melhor modelo vocal para interações de áudio bidirecionais |
gpt-realtime-mini | Versão econômica do modelo realtime |
Esses modelos sucedem a antiga denominação gpt-4o-realtime-preview do período beta. A Realtime API permite interações vocais bidirecionais (áudio de entrada e saída) em tempo real via WebRTC, WebSocket ou SIP. A demo apresentada por @OpenAIDevs ilustra um concierge médico para uma clínica em Singapura capaz de recolher informações e agendar consultas naturalmente.
Google DeepMind — Toolkit de medição da manipulação por IA
26 de março — O Google DeepMind publicou os resultados de um estudo empírico de grande escala sobre manipulação por IA, envolvendo 10.000 pessoas. O estudo identifica os domínios onde os modelos exercem influência significativa (domínio financeiro, por exemplo) e aqueles onde as salvaguardas existentes bloqueiam eficazmente conselhos falsos (domínio médico).
O Google DeepMind desenvolveu um toolkit para medir a manipulação por IA — o primeiro do género validado empiricamente — para quantificar como a manipulação pode ocorrer. O estudo identifica táticas de risco como o uso do medo como alavanca.
“We’ve built an empirically validated, first-of-its-kind toolkit to measure AI manipulation in the real world — to better understand how it can occur and help protect people.”
🇵🇹 Desenvolvemos um toolkit para medir a manipulação por IA no mundo real, validado empiricamente e o primeiro do seu tipo — para compreender melhor como ela pode ocorrer e proteger os utilizadores. — @GoogleDeepMind no X
Google Translate Live — Tradução em tempo real no iOS
27 de março — A Google expandiu o Google Translate Live com suporte a auscultadores no iOS, com um rollout em curso para mais países. A funcionalidade, anteriormente disponível apenas no Android, permite tradução em tempo real em 70+ línguas via auscultadores Bluetooth ou com fio.
MedGemma Impact Challenge — Quatro vencedores, 850+ equipas
26 de março — A Google anunciou os vencedores do MedGemma Impact Challenge, uma competição que mobilizou 850+ equipas de desenvolvedores para construir aplicações de saúde com o MedGemma 1.5 (o modelo médico aberto da Google).
Vencedores principais:
| Posição | Projeto | Descrição |
|---|---|---|
| 1º | EpiCast | Vigilância epidemiológica para países da CEDEAO — traduz observações clínicas em sinais IDSR padronizados pela OMS |
| 2º | Sunny | Detecção de sinais de cancro de pele via mobile, relatórios estruturados com privacidade preservada |
| 3º | FieldScreen AI | Rastreio de tuberculose offline: analisa radiografias torácicas e áudio de tosse |
| 4º | Tracer | Prevenção de erros médicos: extrai hipóteses das notas dos médicos e confronta com resultados de exames |
Prémios especiais foram atribuídos a projetos Edge AI e agentic workflow, incluindo ClinicDX (diagnósticos integrados no OpenMRS para a África subsaariana, 160+ guias OMS/MSF, totalmente offline).
🔗 Blog Google MedGemma Impact Challenge
Runway — Ad Concepter App e concurso de 100.000 $
27 de março — A Runway lançou a Ad Concepter App, uma ferramenta de criação publicitária com IA. A partir de um prompt, de uma imagem de referência e de um visual do produto, a app gera conceitos, composições e etapas narrativas (story beats) para anúncios. A ferramenta está disponível imediatamente na aplicação web.
A Runway lança simultaneamente o Big Ad Contest (#RunwayBigAdContest) com prémios até 100.000 $ para promover a adoção da ferramenta.
Pika — AI Selves em beta pública
26 de março — A Pika abriu os Pika AI Selves em beta pública. Anunciada em fevereiro, essa funcionalidade permite que cada utilizador crie uma extensão agentiva de si mesmo — um «AI Self» com memória persistente (incluindo detalhes pessoais como alergias alimentares), capaz de agir autonomamente em conversas de grupo, criar videojogos ou enviar fotos.
O acesso é universal via pika.me (web) e pela nova app iOS. A Pika posiciona essa funcionalidade além da geração de vídeo pura, concorrendo com agentes pessoais de IA.
Breves
Awesome GitHub Copilot — 27 de março — O projeto comunitário «Awesome GitHub Copilot» migra para um novo site dedicado awesome-copilot.github.com com pesquisa full-text, Learning Hub e instalação com um clique para Copilot CLI e VS Code. 🔗 Tweet GitHub
NotebookLM notifications push — 27 de março — O NotebookLM permite agora sair da página durante uma geração longa e receber uma notificação push móvel quando a geração termina. 🔗 Tweet NotebookLM
O que isso significa
O Luma Uni-1 marca uma mudança de paradigma na geração visual: em vez de otimizar a correspondência estatística de pixels, o modelo integra raciocínio espacial durante a própria geração. Se essa abordagem se mantiver na prática, ela altera a forma como as ferramentas criativas podem gerir a coerência de cena e instruções complexas.
A implantação Perplexity × Samsung é talvez o anúncio de maior impacto prático da semana: um bilhão de dispositivos é uma distribuição massiva para as capacidades de busca e raciocínio da Perplexity. É também a confirmação de que APIs de IA especializadas (busca, raciocínio, orquestração multi-abas) se tornaram componentes de infraestrutura para fabricantes de hardware.
No âmbito das ferramentas para desenvolvedores, o Claude Code v2.1.86 e o GitHub Copilot CLI avançam em duas direções distintas: o Claude Code consolida a fiabilidade (correções para sessões longas, MCP, VCS menos comuns), enquanto o Copilot CLI avança para a automação agentiva (geração de testes por frota de agentes). As duas evoluções refletem a maturidade crescente dos assistentes de desenvolvimento para além do autocompletar.
Fontes
- Luma AI Uni-1 — Tweet anuncio
- Perplexity APIs + Samsung Browsing Assist — Blog oficial
- Perplexity × Samsung — Tweet
- Claude Code Changelog
- GitHub Copilot CLI — Testes unitários — Tweet
- OpenAI gpt-realtime-1.5 — Tweet @OpenAIDevs
- Realtime API docs OpenAI
- Google DeepMind — Toolkit manipulação IA — Tweet
- Google Translate Live iOS — Tweet @GoogleAI
- MedGemma Impact Challenge — Blog Google
- Runway Ad Concepter — Tweet
- Pika AI Selves beta — Tweet
- Awesome GitHub Copilot — Tweet
Este documento foi traduzido da versão fr para a língua pt usando o modelo gpt-5-mini. Para mais informações sobre o processo de tradução, consulte https://gitlab.com/jls42/ai-powered-markdown-translator