Pesquisar

Anthropic levanta 30 bilhões de $, GPT-5.3-Codex-Spark na Cerebras, Gemini 3 Deep Think

Anthropic levanta 30 bilhões de $, GPT-5.3-Codex-Spark na Cerebras, Gemini 3 Deep Think

Dia excepcional na IA: Anthropic anuncia uma arrecadação de fundos de 30 bilhões de dólares elevando sua avaliação para 380 bilhões, OpenAI implanta um modelo de coding em tempo real a 1000+ tokens/segundo na Cerebras, e Google impulsiona Gemini 3 Deep Think para novos recordes em ciências. Do lado do ecossistema, xAI reestrutura suas equipes em torno de 4 produtos, Mistral investe 1,2 bilhão de euros na Suécia, e GitHub suspende temporariamente GPT-5.3-Codex por razões de confiabilidade.


Anthropic levanta 30 bilhões de $ em Série G

12 de fevereiro — Anthropic anuncia uma arrecadação de fundos de 30 bilhões de dólares em Série G, elevando a avaliação post-money da empresa para 380 bilhões de dólares. A rodada é co-liderada por GIC e Coatue, com a participação de D. E. Shaw Ventures, Dragoneer, Founders Fund, ICONIQ e MGX. A lista de investidores adicionais inclui Sequoia Capital, BlackRock, Goldman Sachs, Fidelity, Microsoft e NVIDIA entre outros.

MétricaValor
Valor arrecadado30 bilhões $
Avaliação post-money380 bilhões $
Receita anualizada (run-rate)14 bilhões $
Crescimento anual10x por ano (últimos 3 anos)
Clientes >100k$/anoCrescimento de 7x em um ano
Clientes Enterprise >1M$/anoMais de 500 (vs 12 há 2 anos)
Clientes Fortune 108 de 10
Run-rate Claude Code2,5 bilhões $ (dobrou desde janeiro de 2026)
Usuários semanais Claude Code2x desde 1º de janeiro de 2026
Commits GitHub via Claude Code4% (dobrou em 1 mês)
Assinaturas business Claude Code4x desde o início de 2026
Participação empresarial Claude Code>50% da receita do Claude Code

Os fundos servirão para pesquisa fundamental, desenvolvimento de produtos e expansão da infraestrutura. Claude permanece o único modelo de IA frontier disponível nas três principais plataformas de nuvem: AWS (Bedrock), Google Cloud (Vertex AI) e Microsoft Azure (Foundry). Anthropic treina e executa Claude em uma gama diversificada de hardware de IA (AWS Trainium, Google TPUs, NVIDIA GPUs).

This fundraising reflects the incredible demand we are seeing from these customers, and we will use this investment to continue building the enterprise-grade products and models they have come to depend on.

🇵🇹 Esta captação de recursos reflete a incrível demanda que estamos vendo desses clientes, e usaremos esse investimento para continuar construindo os produtos e modelos de nível empresarial dos quais eles passaram a depender. — Krishna Rao, CFO da Anthropic (@AnthropicAI no X)

🔗 Anúncio oficial


GPT-5.3-Codex-Spark: modelo em tempo real na Cerebras

12 de fevereiro — OpenAI lança GPT-5.3-Codex-Spark em research preview, um modelo de coding em tempo real otimizado para inferência ultrarrápida no Cerebras Wafer-Scale Engine 3. É o primeiro modelo OpenAI implantado em hardware não NVIDIA.

Codex-Spark é uma versão compacta do GPT-5.3-Codex, projetada para trabalho interativo onde a latência importa tanto quanto a inteligência: edições direcionadas, refatoração de lógica, ajuste de interfaces com feedback imediato.

EspecificaçãoDetalhe
Tokens/segundo> 1.000 (vs 50-100 para modelos padrão)
Janela de contexto128k tokens
FormatoApenas texto (multimodal planejado posteriormente)
Redução overhead cliente/servidor80% (WebSocket persistente)
Redução overhead por token30%
Redução time-to-first-token50%

O modelo roda no Cerebras Wafer-Scale Engine 3, um processador monolítico que mantém o cálculo estreitamente acoplado para inferência de alto rendimento. Este lançamento marca o primeiro passo da parceria OpenAI-Cerebras anunciada em janeiro de 2026.

Codex-Spark está disponível em research preview para assinantes ChatGPT Pro, nas últimas versões do app Codex, da CLI e da extensão VS Code. O acesso à API é limitado a parceiros selecionados, com implantação mais ampla planejada.

No SWE-Bench Pro e Terminal-Bench 2.0, o modelo mostra desempenho sólido completando tarefas em uma fração do tempo em comparação com GPT-5.3-Codex. Limites de taxa separados se aplicam durante a fase de research preview.

Eventualmente, Codex oferecerá dois modos complementares: raciocínio de longo horizonte (tarefas autônomas de várias horas/dias) e colaboração em tempo real (iteração rápida). Ambos os modos poderão se combinar, com delegação de tarefas longas a subagentes em segundo plano.

🔗 Anúncio oficial


Gemini 3 Deep Think: pontuações recordes em ciências

12 de fevereiro — Google anuncia uma grande atualização do Gemini 3 Deep Think, seu modo de raciocínio especializado. O modelo agora é projetado para resolver desafios concretos em ciência, pesquisa e engenharia, além da teoria abstrata.

Deep Think foi atualizado em estreita parceria com cientistas e pesquisadores. O objetivo é abordar problemas de pesquisa complexos, onde os dados são frequentemente desordenados ou incompletos e onde não existe uma solução única. O modelo combina conhecimento científico profundo e utilidade em engenharia.

Benchmarks recordes

BenchmarkPontuaçãoNota
Humanity’s Last Exam48,4% (sem ferramentas)Novo padrão para modelos frontier
ARC-AGI-284,6%Verificado pela ARC Prize Foundation
CodeforcesElo 3455Programação competitiva
IMO 2025Medalha de ouroOlimpíada Internacional de Matemática
IPhO 2025 (escrito)Medalha de ouroOlimpíada Internacional de Física
IChO 2025 (escrito)Medalha de ouroOlimpíada Internacional de Química
CMT-Benchmark50,5%Física Teórica Avançada

Casos de uso reais

  • Matemática (Lisa Carbone, Universidade Rutgers): Deep Think identificou uma falha lógica sutil em um artigo de matemática altamente técnico, que havia escapado da revisão humana por pares. Ela trabalha nas estruturas matemáticas necessárias para a física de altas energias.
  • Ciência dos Materiais (Wang Lab, Universidade Duke): Otimização de métodos de fabricação para o crescimento de cristais complexos, candidatos para materiais semicondutores. Deep Think projetou uma receita para cultivar filmes finos de mais de 100 micrômetros.
  • Engenharia Mecânica (Anupam Pathak, Google Platforms & Devices): Iteração em protótipos físicos na velocidade do software. Possibilidade de transformar um esboço em um objeto imprimível em 3D (geração de arquivo STL).

Gemini 3 Deep Think está disponível a partir de hoje para assinantes Google AI Ultra no app Gemini, e pela primeira vez via API em acesso antecipado para pesquisadores, engenheiros e empresas.

🔗 Anúncio oficial


Reestruturação da xAI: 4 equipes e Macrohard

11 de fevereiro — xAI publica um all-hands de 45 minutos no X, revelando uma reestruturação importante da empresa após a saída de metade de seus cofundadores (6 de 12). As últimas saídas são as de Tony Wu e Jimmy Ba.

Elon Musk anuncia a reorganização da xAI em 4 equipes principais:

EquipeFocoLíder
GrokChatbot + voz-
CodingSistema de código de aplicativo-
ImagineGeração de vídeo-
MacrohardSimulação computacional → empresasToby Pohlen

Macrohard é o projeto mais ambicioso: segundo Toby Pohlen, o sistema “é capaz de fazer tudo o que um computador pode fazer em um computador”. A ambição se estende até o design de motores de foguete por IA.

Métricas chave anunciadas

  • X ultrapassou 1 bilhão de USD em receita recorrente anual (assinaturas)
  • Imagine gera 50 milhões de vídeos por dia
  • Mais de 6 bilhões de imagens nos últimos 30 dias

A visão interplanetária de Musk se estende de data centers orbitais a bases lunares. Esses anúncios ocorrem após a aquisição da xAI pela SpaceX (2 de fevereiro) e a saída de 6 cofundadores de 12 durante o último ano (Kyle Kosic para OpenAI, Christian Szegedy, Igor Babuschkin, Greg Yang, Tony Wu, Jimmy Ba).

🔗 Artigo TechCrunch


Mistral investe 1,2 bilhão de EUR na Suécia

11 de fevereiro — Mistral AI anuncia um investimento de 1,2 bilhão de euros (1,4 bilhão de USD) para construir uma infraestrutura de IA na Suécia, em parceria com EcoDataCenter. É o primeiro investimento de infraestrutura de IA da Mistral fora da França.

O data center estará localizado em Borlänge (Suécia) no site da EcoDataCenter, com abertura prevista para 2027. A instalação fornecerá 23 megawatts de potência de computação e hospedará as GPUs NVIDIA Vera Rubin de última geração.

DetalheValor
Valor1,2 bi EUR / 1,4 bi USD
ParceiroEcoDataCenter
LocalizaçãoBorlänge, Suécia
Abertura2027
Capacidade23 MW
GPUNVIDIA Vera Rubin
Receita projetada2 bi EUR em 5 anos

Arthur Mensch, CEO da Mistral AI, declarou que este investimento é “um passo concreto para a construção de capacidades independentes na Europa, dedicadas à IA”. A escolha da Suécia explica-se pelo seu acesso a energia limpa e relativamente barata. O objetivo é entregar um stack de IA totalmente europeu — projetado, construído e operado em toda a cadeia de valor da IA, com dados processados e armazenados localmente na Europa.

🔗 Artigo Tech.eu


Qwen-Image-2.0: geração e edição de imagens unificadas

10 de fevereiro — Alibaba lança Qwen-Image-2.0, um modelo foundation de geração de imagens de nova geração que unifica a geração text-to-image e a edição de imagens em uma única arquitetura.

Mudanças principais em relação à v1:

  • Arquitetura unificada geração + edição (anteriormente modelos separados)
  • Modelo mais compacto: 7B parâmetros (vs 20B para a v1)
  • Renderização de texto aprimorada com suporte a prompts de até 1K tokens
  • Resolução nativa 2K (2048x2048)
BenchmarkQwen-Image-2.0FLUX.1
DPG-Bench88,3283,84
AI Arena (blind eval)#1-

O modelo se destaca na renderização de texto em chinês e inglês através de diferentes formatos: infográficos, pôsteres, caligrafia, sinalização. Qwen-Image-2.0 está disponível em teste de API na plataforma Alibaba Cloud BaiLian e gratuitamente via Qwen Chat (chat.qwen.ai).

🔗 Anúncio oficial


Deep Research atualiza para GPT-5.2

10 de fevereiro — OpenAI atualiza ChatGPT Deep Research com o modelo GPT-5.2, substituindo as versões anteriores o3 e o4-mini. A atualização traz conexões com apps, pesquisa em sites específicos e controles em tempo real.

FuncionalidadeDetalhe
ModeloGPT-5.2 (substitui o3 / o4-mini)
Conexões appsGmail, Google Calendar, Google Contacts + qualquer MCP
Pesquisa direcionadaRestrição a sites específicos e fontes confiáveis
Controles tempo realAcompanhamento de progresso, interrupção e redirecionamento no meio da execução
Plano de pesquisaCriável e editável antes do lançamento
InterfaceBarra lateral redesenhada + visualização de relatório em tela cheia
ExportaçãoPDF e DOCX

Os usuários agora podem conectar Deep Research a qualquer servidor MCP ou aplicativo, e restringir pesquisas na web a sites confiáveis para relatórios mais precisos e credíveis. Os apps funcionam em modo somente leitura como fontes confiáveis.

A implantação começou em 10 de fevereiro para usuários Plus e Pro, com usuários Free e Go a seguir nos dias seguintes.

🔗 Anúncio oficial


ChatGPT junta-se ao GenAI.mil do Pentágono

10 de fevereiro — OpenAI anuncia a implantação de uma versão personalizada do ChatGPT no GenAI.mil, a plataforma de IA enterprise do Departamento de Defesa dos EUA. ChatGPT junta-se ao Google Gemini (lançado em dezembro de 2025) e xAI Grok (adicionado no final de dezembro de 2025) na plataforma.

DetalheValor
PlataformaGenAI.mil (DoD)
Usuários potenciais~3 milhões (militares, civis, contratados)
Usuários ativos plataforma1,1 milhão únicos desde o lançamento
ClassificaçãoApenas dados não classificados
InfraestruturaNuvem governamental autorizada
Isolamento de dadosDados isolados, não usados para treinar modelos OpenAI

Os casos de uso cobrem a síntese e análise de documentos de política, a redação de materiais de aquisição, a geração de relatórios internos e checklists de conformidade, e a assistência à pesquisa e planejamento.

🔗 Anúncio oficial


ElevenLabs for Government

11 de fevereiro — ElevenLabs lança ElevenLabs for Government, uma iniciativa dedicada ao setor público anunciada no ElevenLabs Summit em Londres. Esta plataforma oferece agentes de voz e chat de IA projetados para organizações governamentais, disponíveis 24/7, em vários idiomas, por telefone, chat, e-mail e WhatsApp.

A plataforma visa três objetivos:

  • Acessibilidade e inclusão: agentes omnichannel multilíngues capazes de resolver solicitações dos cidadãos instantaneamente
  • Eficiência e produtividade: automação de contatos de alto volume e redução de transferências entre serviços
  • Confiança e engajamento: melhoria do acesso a comunicações alinhadas com políticas públicas
ImplantaçãoDetalhes
República TchecaLinhas diretas nacionais de emprego e benefícios, ~5.000 chamadas/dia, 85% de resolução autônoma
UcrâniaGêmeo digital de um alto funcionário + serviços públicos, em parceria com o Ministério da Transformação Digital
Midland, Texas (EUA)Concierge cívico de voz “Jacky”, redução estimada de 7.000 chamadas perdidas/mês

A plataforma é certificada SOC 2 Tipo 2, GDPR, CPRA e HIPAA para atender aos requisitos de segurança do setor público.

🔗 Anúncio oficial


Anthropic cobre aumentos de eletricidade

11 de fevereiro — Anthropic anuncia que cobrirá os aumentos de preços de eletricidade para consumidores causados por seus data centers. A empresa assume quatro compromissos concretos:

CompromissoDetalhe
Custos de infraestrutura de redeCobertura de 100% dos custos de conexão à rede
Nova produção de energiaComissionamento de novas capacidades de geração adaptadas às necessidades
Redução da pressão na redeInvestimento em sistemas de redução de consumo em picos
Investimento comunitárioCriação de centenas de empregos permanentes e milhares de empregos de construção

🔗 Anúncio oficial


Anthropic doa 20 milhões de $ para regulação da IA

12 de fevereiro — Anthropic anuncia uma doação de 20 milhões de dólares para a Public First Action, uma nova organização bipartidária 501(c)(4) nos EUA. O objetivo é mobilizar cidadãos e formuladores de políticas sobre questões de IA no interesse público.

O tweet da Anthropic destaca que a IA está sendo adotada mais rapidamente do que qualquer tecnologia na história, e que a janela para acertar as políticas públicas está se fechando.

🔗 Anúncio no X


Claude Code Desktop: plugins locais e marketplace

11 de fevereiro — Boris Cherny (líder do Claude Code na Anthropic) publica uma thread detalhando o que os engenheiros amam no Claude Code: sua personalização. Ele lista hooks, plugins, LSPs, MCPs, skills, esforço, agentes personalizados, linhas de status, estilos de saída como mecanismos de personalização.

Em paralelo, Lydia Hallie anuncia que Claude Code no desktop agora suporta plugins locais. Os usuários podem instalar comandos slash personalizados, skills e servidores MCP do marketplace, com sincronização automática entre desktop e CLI.

🔗 Thread Boris Cherny


GitHub Mobile: Seletor de Modelo para Copilot

11 de fevereiro — GitHub adiciona um seletor de modelos ao Copilot Coding Agent no aplicativo GitHub Mobile, no iOS e Android.

Usuários Copilot Pro e Pro+ agora podem escolher o modelo de IA que alimenta suas sessões de coding agent diretamente do telefone, sem ter que passar pelo desktop.

Modelo disponívelEditor
Auto (padrão — otimiza velocidade e desempenho)GitHub
Claude Opus 4.5Anthropic
Claude Opus 4.6Anthropic
Claude Sonnet 4.5Anthropic
GPT-5.1-Codex-MaxOpenAI
GPT-5.2-CodexOpenAI

O modo Auto seleciona automaticamente um modelo para otimizar velocidade e desempenho de acordo com a disponibilidade. A funcionalidade está disponível a partir de agora para assinantes Copilot Pro e Pro+. O suporte Business e Enterprise chegará em breve. Nota: GPT-5.3-Codex, tornado GA em 9 de fevereiro, ainda não está na lista móvel.

🔗 GitHub Changelog


GitHub suspende GPT-5.3-Codex (confiabilidade)

10 de fevereiro — GitHub anuncia a suspensão temporária da implantação do GPT-5.3-Codex no GitHub Copilot por razões de confiabilidade da plataforma, apenas um dia após o anúncio de sua disponibilidade geral.

O tweet, que cita em resposta o anúncio de 9 de fevereiro sobre o GA do GPT-5.3-Codex, gerou 357.500 visualizações e 1.000 curtidas, testemunhando o impacto na comunidade de desenvolvedores. Vários usuários relataram problemas de disponibilidade do serviço nas respostas.

O fato de o modelo ainda não figurar na lista do Seletor de Modelo Móvel (anunciado em 11 de fevereiro) pode estar relacionado a essa suspensão.

🔗 Anúncio no X


Manus lança Project Skills

12 de fevereiro — Manus (agora sob a Meta) lança Project Skills, uma funcionalidade que permite criar bibliotecas de habilidades dedicadas por projeto.

Cada projeto pode montar um conjunto de skills selecionadas de pools “Team Skills” ou coleções pessoais. A ideia: transformar uma pasta de projeto padrão em um espaço de trabalho inteligente e autônomo.

FuncionalidadeDescrição
Bibliotecas por projetoMontagem de toolkits personalizados de pools de equipe ou pessoais
Workflows contidosApenas skills explicitamente adicionadas ao projeto podem ser acionadas
Workflows bloqueadosAdministradores podem bloquear o conjunto de skills para padronizar processos

Os benefícios destacados: onboarding mais rápido, escalonamento da expertise individual para a organização e construção de “conhecimento institucional” que melhora com o tempo. Disponível imediatamente para todos os usuários Manus.

🔗 Anúncio oficial


Gemini CLI v0.28.0 + Extension Settings

10-11 de fevereiro — Google lança a versão 0.28.0 da Gemini CLI e anuncia Extension Settings, uma nova funcionalidade para simplificar a configuração de extensões.

Gemini CLI v0.28.0 (10 de fevereiro)

NovidadeDetalhe
Comando /prompt-suggestNovo comando slash para sugestões de prompts
Tema automáticoAdaptação baseada no fundo do terminal
Compatibilidade IDESuporte adicionado para Positron IDE
OAuth aprimoradoConsentimento OAuth interativo e não interativo
Checklist componentComponente para gerenciamento de tarefas estruturadas no modo plan
SubagentesRegistro dinâmico de políticas para subagentes
Execução em segundo planoComandos shell em segundo plano

Extension Settings (11 de fevereiro)

As extensões Gemini CLI agora podem definir parâmetros de configuração que os usuários fornecem na instalação. Configuração automática com prompts interativos, segurança integrada (dados sensíveis como chaves de API são armazenados no keychain do sistema) e gerenciamento centralizado via gemini extensions config. Extensões Data Cloud (BigQuery, Cloud SQL, Firestore, Looker, Spanner) já implementam essa funcionalidade.

🔗 Anúncio oficial


Shopping IA no Google Search e Gemini

11 de fevereiro — Google anuncia a integração de funcionalidades de compras diretamente em seus produtos de IA — Search AI Mode e o chatbot Gemini.

Os usuários agora podem comprar itens da Etsy e Wayfair diretamente no chatbot Gemini. Direct Offers, uma nova funcionalidade no AI Mode, permite que marcas ofereçam descontos a potenciais compradores. Novos formatos de anúncios estão sendo testados no AI Mode do Search para varejistas.

O Google está trabalhando com Walmart, Target e Shopify em um protocolo de checkout permitindo que os consumidores finalizem suas compras diretamente nos produtos de IA do Google.

🔗 Artigo PYMNTS


Relatório GTIG: ataques de destilação no Gemini

12 de fevereiro — O Google Threat Intelligence Group (GTIG) publica um relatório revelando que o Gemini foi alvo de ataques de destilação — tentativas de clonagem massiva via prompts repetidos.

Uma campanha enviou mais de 100.000 prompts ao Gemini antes de ser detectada. Os ataques visavam especificamente os algoritmos de raciocínio do Gemini. Os atacantes são principalmente empresas privadas e pesquisadores buscando uma vantagem competitiva.

Os sistemas do Google detectaram a atividade em tempo real e ajustaram as proteções. O Google considera a destilação como roubo de propriedade intelectual.

🔗 Artigo NBC News


Codex CLI v0.99.0: execução shell concorrente

11 de fevereiro — OpenAI lança Codex CLI v0.99.0 com execução shell concorrente, uma statusline configurável e APIs dedicadas de app-server.

FuncionalidadeDetalhe
Execução shell concorrenteComandos shell diretos não bloqueiam mais um turno em andamento
/statuslineConfiguração interativa de metadados no rodapé TUI
Resume picker adaptativoNovo seletor para retomar sessões
App-server APIsAPIs dedicadas para integração de aplicativos
Admin controlsControles de administração para pesquisa na web e rede
ImagensSuporte GIF/WebP
SnapshottingSnapshotting de ambiente
Steer modeEstável e ativo por padrão (Enter envia, Tab coloca na fila)

O empacotamento npm foi reformulado: binários específicos da plataforma são distribuídos via dist-tags @openai/codex, reduzindo o tamanho dos pacotes.

🔗 Changelog Codex CLI


Qwen Chat AI Slides

12 de fevereiro — Qwen anuncia a próxima chegada do AI Slides no Qwen Chat. A funcionalidade permite converter diferentes tipos de documentos em apresentações: project docs → meeting slides, paper → oral deck, product info → sales deck, topic → teaching deck.

A funcionalidade é construída com Qwen Agent + Qwen-Image 2.0 (o modelo de imagem lançado alguns dias antes). Chen Cheng demonstrou a capacidade de transformar artigos acadêmicos em apresentações orais em poucos minutos, com um agente de pesquisa integrado.

🔗 Anúncio no X


O que isso significa

A arrecadação de fundos de 30 bilhões de dólares da Anthropic a uma avaliação de 380 bilhões confirma a dominação dos modelos frontier na economia da IA. O run-rate de 14 bilhões de dólares anuais e a parcela de 2,5 bilhões gerada pelo Claude Code mostram que o coding assistido por IA tornou-se uma infraestrutura crítica para desenvolvedores e empresas.

A chegada do GPT-5.3-Codex-Spark na Cerebras marca uma virada na diversificação do hardware de IA além da NVIDIA. A inferência a 1000+ tokens/segundo muda a natureza da interação com modelos de código, tornando possível uma colaboração fluida em tempo real.

Gemini 3 Deep Think com suas medalhas de ouro em olimpíadas científicas e sua pontuação de 84,6% no ARC-AGI-2 demonstra que os modelos frontier começam a atingir um nível de raciocínio científico comparável aos melhores humanos em campos especializados.

A reestruturação da xAI em 4 equipes com Macrohard — visando fazer “tudo o que um computador pode fazer” — e o investimento massivo da Mistral na Europa mostram que a corrida pela infraestrutura de IA está acelerando globalmente. A suspensão do GPT-5.3-Codex pelo GitHub lembra, no entanto, que a confiabilidade permanece um grande desafio para a implantação em larga escala.


Fontes