O 11 de março de 2026 é um dia denso: a Anthropic cria um instituto interdisciplinar para o debate público sobre IA, a Perplexity lança sua visão “Computer” com quatro APIs simultâneas, a OpenAI publica as novas primitivas agentivas da Responses API, e a Meta detalha quatro gerações de chips IA custom desenvolvidas em dois anos.
Anthropic Institute : Jack Clark à frente do benefício público
11 de março de 2026 — A Anthropic lança o The Anthropic Institute, um novo esforço para avançar o debate público sobre os desafios colocados pela IA poderosa. A iniciativa é liderada pelo cofundador Jack Clark, que assume um novo papel como “Head of Public Benefit” (responsável pelo benefício público) na Anthropic.
O Instituto reunirá uma equipe interdisciplinar — pesquisadores, economistas, juristas, especialistas em políticas públicas — com acesso único aos modelos de ponta da Anthropic. Sua missão: analisar e comunicar os impactos societais, econômicos e de segurança da IA à medida que se desenvolvem.
Três primeiras contratações foram anunciadas:
| Recruta | Trajetória |
|---|---|
| Matt Botvinick | Resident Fellow, Yale Law School ; ex-Senior Director of Research, Google DeepMind |
| Anton Korinek | Professor de economia (em licença sabática), equipe Economic Research |
| Zoë Hitzig | Ex-OpenAI, especializada nos impactos sociais e econômicos da IA |
O Instituto apoia-se nas equipas existentes da Anthropic: Frontier Red Team, Societal Impacts, Economic Research. Em paralelo, a Anthropic anuncia a expansão da sua equipe Public Policy, focada na transparência dos modelos, proteção dos consumidores de energia, controlos de exportação e governança global da IA.
A criação deste Instituto marca uma etapa notável: a Anthropic estrutura formalmente seu compromisso público e dá-lhe um rosto com um dos seus cofundadores.
🔗 Apresentando o Anthropic Institute
Perplexity : lançamento coordenado da visão “Everything is Computer”
11 de março de 2026 — A Perplexity publica simultaneamente quatro anúncios que formam um lançamento coordenado em torno da sua visão “Computer”: a IA como computador pessoal e profissional.
Personal Computer e Enterprise
O Personal Computer é um Mac mini dedicado que funciona 24/7, ligado às aplicações locais e aos servidores da Perplexity. Atua como um proxy digital do usuário — ações sensíveis exigem aprovação explícita. Lista de espera aberta.
O Computer for Enterprise conecta-se ao Snowflake, Salesforce, HubSpot e centenas de plataformas. As skills (competências) são personalizáveis, e a integração com o Slack permite trabalhar em DMs ou em canais partilhados. Baseia-se em SOC 2 Type II, SAML SSO e registos de auditoria (audit logs). A Perplexity divulga um número vindo de um estudo interno de 16 000 requisições: economia de 1,6 milhão de dólares em custos de mão-de-obra e 3,25 anos de trabalho realizado em 4 semanas.
Comet Enterprise é um navegador IA nativo com controlos de administrador (permissões por domínio, registos de ação, MDM) e uma parceria com a CrowdStrike para proteções ao nível do navegador.
Perplexity Finance recebe 40+ ferramentas de finanças em direto (SEC filings, FactSet, S&P Global, Coinbase, LSEG, Quartr, Polymarket), com ligação a corretoras via Plaid para análise de um portfólio real.
Premium Sources oferece acesso ao Statista, CB Insights e PitchBook diretamente nos fluxos de pesquisa — as fontes pagas são citadas automaticamente.
Agent API : orquestração de runtime completa
A Agent API é um runtime gerido para construir workflows agentivos com pesquisa integrada, execução de ferramentas e orquestração multi-modelo. Substitui num único ponto de integração um roteador de modelos, uma camada de pesquisa, um fornecedor de embeddings, um serviço sandbox e uma pilha de monitorização (monitoring stack).
| Ferramenta integrada | Capacidades |
|---|---|
web_search | Filtragem por domínio, atualidade, intervalo de datas, idioma, orçamento de conteúdo |
fetch_url | Recuperação direta de URLs |
| Funções personalizadas | Suporte completo |
Quatro perfis otimizados (presets) cobrem os casos de uso: pesquisa factual rápida, pesquisa equilibrada, análise profunda multi-fonte e pesquisa institucional. Deep Research 2.0 está disponível via o perfil advanced-deep-research — ele lança dezenas de pesquisas por requisição e processa centenas de documentos.
A Agent API é agnóstica quanto a modelos, suporta cadeias de fallback (fallback chains) multi-modelo para uma disponibilidade próxima de 100%, e está disponível hoje em docs.perplexity.ai.
Search API : snippets melhorados e benchmark SEAL
A atualização da Search API foca-se na qualidade dos excertos (snippets) e na infraestrutura de avaliação.
O novo pipeline de marcação ao nível de fragmentos (span-level labeling) identifica quais segmentos de um documento-fonte são relevantes para uma consulta. Resultado: excertos mais curtos e precisos, o que reduz os custos em tokens e melhora a gestão do contexto para modelos a jusante.
O benchmark SEAL testa se um sistema de recuperação consegue responder a perguntas cuja resposta muda no tempo. A Perplexity progride no SEAL-Hard enquanto outros fornecedores decaem. O framework search_evals é atualizado como open source no GitHub.
Outras melhorias: suporte a multi-queries (até 5 numa única requisição API), filtragem por idioma (código ISO 639-1) e por país, e SDK Python (pip install perplexityai) com suporte nativo às três APIs.
Sandbox API : execução de código isolada para agentes
A Perplexity abre seu ambiente de execução de código interno como um serviço autónomo. Cada sessão corre num pod Kubernetes isolado, com um sistema de ficheiros persistente montado. Linguagens suportadas: Python, JavaScript, SQL. A instalação de pacotes em tempo de execução (at runtime) é possível.
As sessões têm um estado persistente (stateful): os ficheiros criados numa etapa estão disponíveis nas etapas seguintes, e workflows longos podem pausar e retomar horas depois. A segurança baseia-se num modelo zero-trust (zero-trust): sem acesso de rede direto, tráfego de saída via proxy, o código nunca tem acesso às chaves API brutas.
A Sandbox API será integrável na Agent API com a mesma chave API e os mesmos créditos. Estado: beta privada em breve.
OpenAI : a Responses API recebe um ambiente computacional para agentes
11 de março de 2026 — A OpenAI publica um artigo de engenharia detalhando as novas primitivas da Responses API para construir agentes autónomos fiáveis: shell tool Unix, contentores hospedados, compactação nativa de contexto e agent skills reutilizáveis.
A shell tool
A shell tool permite que o modelo interaja com um computador via linha de comando, com acesso aos utilitários Unix clássicos (grep, curl, awk). Ao contrário do interpretador de código existente que executava apenas Python, a shell tool suporta Go, Java, Node.js e outros ambientes. Os modelos GPT-5.2 e posteriores são treinados para sugerir comandos shell.
A Responses API pode executar vários comandos shell em paralelo através de sessões de contentores separadas, e aplica um limite de saída por comando para evitar saturar a janela de contexto.
Contentores hospedados
O contentor constitui o espaço de trabalho do modelo:
| Componente | Descrição |
|---|---|
| Sistema de ficheiros | Upload, organização e gestão de recursos via APIs container e file |
| Bases de dados | Armazenamento estruturado (SQLite) — o modelo interroga as tabelas em vez de carregar todo o conteúdo |
| Acesso de rede | Proxy egress centralizado com lista de autorizações, injeção de segredos por domínio |
Compactação nativa do contexto
Para tarefas de longa duração, a Responses API integra um mecanismo de compactação nativa: os modelos são treinados para produzir uma representação compacta e encriptada do estado conversacional. Disponível no servidor (limiar configurável) ou via um endpoint /compact. O Codex usa este mecanismo para manter sessões de codificação de longa duração sem degradação.
Agent skills
As skills (competências de agente) condicionam modelos de padrões de fluxo de trabalho repetitivos (workflow patterns) em bundles reutilizáveis: uma pasta com um ficheiro SKILL.md e os recursos associados. A Responses API carrega automaticamente a skill no contexto antes de enviar o prompt ao modelo. As skills são geridas via API e versionadas.
Em paralelo, um post no blog de desenvolvedores celebra um ano da Responses API com cinco estudos de caso de clientes. As duas publicações formam um quadro coerente da evolução da plataforma rumo à agentividade.
🔗 Responses API + ambiente computacional 🔗 1 ano da Responses API
OpenAI : estratégia de defesa contra prompt injection
11 de março de 2026 — A OpenAI publica um artigo de segurança sobre a resistência dos agentes de IA a ataques por injeção de prompt (prompt injection).
Os primeiros ataques consistiam em inserir instruções diretas em conteúdos externos (páginas Wikipedia, emails). Com a melhoria dos modelos, esses ataques evoluíram para engenharia social (social engineering): contexto profissional convincente, urgência simulada, autorização alegada. Um exemplo de 2025 descrito no artigo mostrava um ataque bem-sucedido em 50% dos casos numa versão antiga do ChatGPT.
A OpenAI aborda o problema pelo prisma do sistema tripartido (empregador / agente / terceiro malicioso), análogo a um agente de suporte ao cliente humano exposto a tentativas de manipulação. O objetivo não é identificar perfeitamente cada ataque, mas limitar o impacto de uma manipulação bem-sucedida.
| Contra-medida | Descrição |
|---|---|
| Análise source-sink | Detecção de combinações conteúdo não confiável + ação perigosa |
| Safe Url | Detecta se informações da conversa seriam transmitidas a um terceiro — pede confirmação ou bloqueia |
| Sandbox aplicacional | Canvas e ChatGPT Apps detectam comunicações inesperadas e pedem consentimento |
O Safe Url aplica-se também às navegações no Atlas, bem como às pesquisas e navegações no Deep Research.
🔗 Designing AI agents to resist prompt injection
Meta MTIA : quatro gerações de chips IA em dois anos
11 de março de 2026 — A Meta publica um artigo técnico detalhado sobre a sua família de chips IA custom MTIA (Meta Training and Inference Accelerator). Em dois anos, a Meta desenvolveu quatro gerações sucessivas para servir bilhões de utilizadores a menor custo.
“AI models are evolving faster than traditional chip development cycles.”
🇵🇹 Os modelos de IA evoluem mais rapidamente do que os ciclos tradicionais de desenvolvimento de chips.
| Geração | Inovação principal |
|---|---|
| MTIA 300 | Primeiro chip otimizado para modelos de ranking e recomendação (Ranking & Recommendation), base modular reutilizável |
| MTIA 400 | Evolução para workloads GenAI, rack de 72 chips num domínio de scale-up único |
| MTIA 450 | Dobro da largura de banda HBM, +75% de FLOPS MX4, aceleração de hardware para attention e FFN |
| MTIA 500 | +50% de largura de banda HBM vs MTIA 450, foco em inference GenAI |
A progressão entre MTIA 300 e MTIA 500: largura de banda HBM multiplicada por 4,5 e FLOPS multiplicados por 25. A estratégia da Meta baseia-se num desenvolvimento de alta velocidade (um novo chip por ano), foco em inference em vez de pré-treino, e integração nativa com PyTorch.
“Mainstream GPUs are typically built for the most demanding workload — large-scale GenAI pre-training — while Meta’s primary need is inference.”
🇵🇹 As GPUs convencionais são tipicamente projetadas para a carga de trabalho mais exigente — o pré-treinamento GenAI em larga escala — enquanto a necessidade primária da Meta é a inferência.
A arquitetura do elemento de processamento (Processing Element) combina dois núcleos vetoriais RISC-V, um motor de produto escalar (Dot Product Engine), uma unidade de funções especiais (Special Function Unit), um motor de redução e um DMA. A pilha de software baseia-se em PyTorch, vLLM, Triton e compiladores MTIA dedicados, com integração vLLM via arquitetura de plugin.
🔗 Meta MTIA : scale AI chips for billions
Gemini CLI v0.33.0 : Plan Mode enriquecido e autenticação A2A
11 de março de 2026 — O Gemini CLI publica a versão v0.33.0, duas semanas após a v0.32.0 que introduziu o Plan Mode.
| Categoria | Novidades |
|---|---|
| Arquitetura de agente | Autenticação HTTP para agentes A2A remotos, descoberta de mapas de agentes A2A autenticados |
| Plan Mode | Sub-agentes de pesquisa integrados, suporte a anotações para feedback de utilizadores, nova subcomando copy |
| Interface CLI | Cabeçalho compacto com ícone ASCII, exibição invertida da janela de contexto, retenção de 30 dias por defeito para o histórico de chat |
A adição da autenticação HTTP para o protocolo A2A (Agent-to-Agent) é a principal novidade técnica: o Gemini CLI pode agora descobrir e autenticar-se junto de agentes remotos, lançando as bases para uma orquestração multi-agentes segura.
Gemini no Chrome : expansão para Índia, Nova Zelândia e Canadá
11 de março de 2026 — A Google expande as funcionalidades de IA do Chrome para três novos mercados: Índia, Nova Zelândia e Canadá.
Gemini in Chrome — o assistente IA no painel lateral, baseado no Gemini 3.1 — está agora disponível no Mac, Windows e Chromebook Plus nessas regiões. Entre as funcionalidades implantadas: acesso ao Gmail, Maps, Calendar e YouTube a partir do Chrome, análise cruzada de vários separadores abertos, e transformação de imagens diretamente no navegador via Nano Banana 2. A atualização adiciona 50+ línguas adicionais, incluindo hindi, francês e espanhol.
🔗 O Chrome expande-se à Índia, Nova Zelândia e Canadá
--- ## AlphaEvolve : novos limites inferiores para 5 números de Ramsey
11 de março de 2026 — Pushmeet Kohli (Google DeepMind) anuncia que o AlphaEvolve estabeleceu novos limites inferiores para 5 números clássicos de Ramsey em combinatória extremal — problemas tão difíceis que o próprio Erdős comentou sobre sua complexidade, e cujos melhores resultados anteriores datavam de pelo menos uma década.
O AlphaEvolve atua como um meta-algoritmo que descobre automaticamente os procedimentos de busca necessários, onde historicamente era preciso projetar manualmente algoritmos específicos. Este resultado ilustra as capacidades do AlphaEvolve além das otimizações de kernels do Google pelas quais já era conhecido.
Gemini Embedding 2 : primeiro embedding multimodal do Google
10 de março de 2026 — O Google anuncia Gemini Embedding 2, descrito como “our most capable and first fully multimodal embedding model”. É o primeiro modelo de embedding nativamente multimodal do Google, disponível para desenvolvedores via Gemini API e AI Studio.
GitHub Copilot : revisão de código a partir do terminal e avanços para JetBrains
11 de março de 2026 — Duas atualizações notáveis para o GitHub Copilot.
Revisão de código a partir do GitHub CLI v2.88.0
Agora é possível solicitar uma revisão de código do Copilot diretamente do terminal. As comandos gh pr edit --add-reviewer @copilot (modo não interativo) e gh pr create (modo interativo) integram o Copilot ao lado dos colegas de equipe. A seleção de revisores conta com uma busca dinâmica, o que melhora o desempenho em grandes organizações e corrige problemas de acessibilidade. Disponível em todos os planos que incluem Copilot code review — atualização para o GitHub CLI v2.88.0 necessária.
🔗 Revisão de código a partir do GitHub CLI
Melhorias agenticas para JetBrains IDEs
A atualização do plugin JetBrains traz em disponibilidade geral (GA): agentes personalizados (custom agents), sub-agentes e agente de planejamento (plan agent), além da seleção automática de modelo para todos os planos. Em pré-visualização pública (public preview): os hooks de agente (userPromptSubmitted, preToolUse, postToolUse, errorOccurred) via um arquivo hooks.json em .github/hooks/, e o suporte aos arquivos AGENTS.md e CLAUDE.md.
Outras melhorias completam a atualização: auto-approve configurável por MCP, painel de pensamento para modelos com raciocínio estendido, indicador de uso da janela de contexto, e descontinuação do modo Edit no menu.
Explorar um repositório no Copilot na web
Em pré-visualização pública: é possível explorar a árvore de um repositório GitHub diretamente da interface web do Copilot. Os arquivos selecionados são automaticamente adicionados como referências temporárias ao chat e podem ser tornados permanentes.
🔗 Explorar repositório no Copilot
Anthropic Sydney e Claude for Office
Sydney, 4.º escritório na Ásia-Pacífico
10 de março de 2026 — A Anthropic anuncia a abertura próxima de um escritório em Sydney, seu quarto na região Ásia-Pacífico (após Tóquio, Seul e Singapura). A Austrália é 4.º lugar mundial no uso do Claude.ai por habitante; a Nova Zelândia é 8.º segundo o mesmo indicador (Anthropic Economic Index). O escritório se concentrará inicialmente em clientes empresariais, startups e pesquisa.
🔗 Sydney, 4.º escritório na Ásia-Pacífico
Claude for Excel e PowerPoint : contexto compartilhado e Skills Office
11 de março de 2026 — Os add-ins Claude for Excel e Claude for PowerPoint recebem duas atualizações importantes: o compartilhamento de contexto entre as duas aplicações (um analista pode extrair dados de uma planilha Excel e usá-los em uma apresentação PowerPoint em uma única conversa), e a chegada das Skills (workflows reutilizáveis de um clique) em ambos os add-ins.
As Skills pré-carregadas cobrem os casos de uso mais frequentes: auditoria de fórmulas, construção de modelos LBO/DCF, decks de panorama competitivo, atualização de apresentações com novos dados e revisão de decks para banco de investimento. Os add-ins estão agora disponíveis via Amazon Bedrock, Google Cloud Vertex AI e Microsoft Foundry para implantações em conformidade. Disponibilidade: Mac e Windows em planos pagos (Pro, Max, Team, Enterprise).
🔗 Claude for Excel e PowerPoint
NVIDIA Nemotron 3 Super, ComfyUI e GTC 2026
11 de março de 2026 — A NVIDIA está muito ativa em torno do GTC 2026.
Nemotron 3 Super oferece uma vazão 5 vezes superior para IA agentica em comparação com a geração anterior. Trata-se de um modelo MoE (Mixture of Experts) de 120 bilhões de parâmetros em open source, otimizado para cargas de inferência de alta frequência.
NVIDIA e ComfyUI anunciaram durante o GDC 2026 (Game Developers Conference) uma integração que simplifica a geração de vídeo por IA local para desenvolvedores de jogos e criadores, com suporte aos modelos FLUX e LTX-Video.
O blog da NVIDIA GTC 2026 Live Updates agrega os anúncios ao vivo da conferência em San Jose — a Mistral AI também apresenta seus modelos frontier nesse contexto.
🔗 Nemotron 3 Super 🔗 ComfyUI GDC 🔗 GTC 2026 Live
Em resumo
Runway Labs — A Runway lança um incubador interno liderado por Alejandro Matamala Ortiz (cofundador, diretor de inovação). O Runway Labs prototipará aplicações radicalmente novas para vídeo generativo e modelos de simulação do mundo (General World Models) em setores variados: cinema, saúde, educação, jogos, publicidade, imobiliário. Recrutamento aberto.
Claude Code /btw — Um novo comando /btw permite ter conversas laterais (side chain conversations) enquanto uma tarefa está em execução, sem interromper o trabalho em curso.
NotebookLM Flashcards — Atualização dos quizzes e flashcards: retomar de onde parou, acompanhamento dos flashcards bem-sucedidos ou falhados, possibilidade de remover ou embaralhar os flashcards.
Meta Canopy Height Maps v2 — A Meta e o World Resources Institute publicam o CHMv2, uma nova versão dos mapas de altura de copa florestal global. O modelo DINOv3 (visão auto-supervisionada da Meta) melhora a precisão e a cobertura global. Aplicações: migração climática, restauração florestal, planejamento urbano. Modelos disponíveis em open source.
Z.ai GLM-5 — O GLM-5 está agora acessível a usuários Lite (nível gratuito), depois de ter sido reservado a usuários Pro desde seu lançamento em fevereiro de 2026.
O que isso significa
11 de março de 2026 ilustra duas tendências de fundo que convergem.
A primeira é a plataformização da agentica: OpenAI, Perplexity e GitHub publicam no mesmo dia primitivas complementares (shell tools, sandboxes, agent hooks, code review). O ecossistema se estrutura em blocos reutilizáveis — skills, contêineres, sub-agentes — que permitem aos desenvolvedores construir agentes confiáveis sem reinventar a infraestrutura.
A segunda é a corrida por silício customizado: o detalhe que a Meta publica sobre suas quatro gerações MTIA em dois anos revela uma estratégia clara de independência em relação às GPUs de consumo, calibrada para inferência em grande escala. A mesma lógica leva a NVIDIA a lançar o Nemotron 3 Super no dia do GTC, onde os anúncios se acumulam.
A criação do Anthropic Institute insere-se em um movimento mais discreto, mas duradouro: à medida que as capacidades progridem, as grandes empresas de IA estruturam suas equipes de impacto público — não mais como comunicação de superfície, mas como um esforço de pesquisa por si só.
Fontes
- The Anthropic Institute
- Sydney, 4.º escritório na Ásia-Pacífico
- Claude for Excel e PowerPoint
- Tweet de @bcherny (/btw)
- Everything is Computer — Perplexity
- Agent API — Perplexity
- Search API — Perplexity
- Sandbox API — Perplexity
- Responses API + ambiente de computação — OpenAI
- 1 ano da Responses API — OpenAI
- Defesa contra prompt injection — OpenAI
- Meta MTIA chips
- Meta Canopy Height Maps v2
- Gemini CLI v0.33.0
- Gemini no Chrome — expansão
- AlphaEvolve — Ramsey numbers
- Gemini Embedding 2
- Copilot Code Review a partir do CLI
- Copilot JetBrains — melhorias agenticas
- Copilot — exploração de repositório na web
- Nemotron 3 Super — NVIDIA
- ComfyUI + NVIDIA no GDC
- GTC 2026 Live Updates — NVIDIA
- Introducing Runway Labs
- Atualização NotebookLM Flashcards
- Z.ai GLM-5 rollout para Lite
Este documento foi traduzido da versão fr para o idioma pt usando o modelo gpt-5-mini. Para mais informações sobre o processo de tradução, consulte https://gitlab.com/jls42/ai-powered-markdown-translator