Căutare

Anthropic în fața Departamentului Războiului, Perplexity integrat în Galaxy S26, Claude și Codex GA la Copilot

Anthropic în fața Departamentului Războiului, Perplexity integrat în Galaxy S26, Claude și Codex GA la Copilot

26 februarie 2026 marchează o zi încărcată: Dario Amodei expune public cele două linii roșii pe care Anthropic refuză să le treacă pentru Departamentul Războiului american, Perplexity obține acces la nivel de OS pe 800 de milioane de dispozitive Samsung, GitHub extinde Claude și Codex la Copilot Business și Pro, iar Eli Lilly inaugurează LillyPod, cea mai puternică fabrică AI farmaceutică construită vreodată.


Anthropic în fața Departamentului Războiului

26 februarie — Dario Amodei, CEO al Anthropic, publică o declarație despre discuțiile în curs cu Departamentul Războiului (DoW) american. Textul expune două linii roșii pe care Anthropic refuză să le depășească, chiar și sub presiune guvernamentală.

Anthropic este primul furnizor de modele frontier care a implementat modelele sale în rețelele clasificate ale guvernului american, în laboratoare naționale și pentru clienți de securitate națională. Claude este folosit pentru analiza de informații, modelare, planificare operațională și operațiuni cibernetice.

Cele două cazuri de utilizare refuzate:

Cas d’utilisationPoziția Anthropic
Supraveghere internă în masăIncompatibilă cu valorile democratice. IA permite reunirea datelor disparate într-un portret complet al oricărei persoane, la scară largă.
Arme complet autonomeModelele actuale nu sunt suficient de fiabile. Fără supraveghere umană = riscuri inacceptabile pentru soldați și civili.

DoW ar fi cerut ca Anthropic să accepte “orice utilizare legală” și să elimine aceste măsuri de siguranță. În caz de refuz, DoW ar fi amenințat cu clasificarea Anthropic drept “risc în lanțul de aprovizionare” — etichetă niciodată aplicată unei companii americane, de obicei rezervată adversarilor. Amodei observă ironia: o amenințare îi califică drept risc de securitate, alta îi consideră esențiali pentru securitatea națională.

Anthropic afirmă că rămâne disponibil pentru o tranziție lină dacă DoW alege un alt furnizor.

🔗 Declarație a lui Dario Amodei privind discuțiile noastre cu Departamentul Războiului


Perplexity integrat în Samsung Galaxy S26

26 februarie — Perplexity anunță integrarea sa în Samsung Galaxy S26 ca AI de sistem, cu wake word-ul “Hey Plex”. Este pentru prima dată când Samsung acordă acces la nivel de OS unei companii terțe care nu este Google sau Samsung.

Ce permite integrarea:

FuncționalitateDetaliu
Wake word”Hey Plex” + buton lateral (apăsare lungă)
Acces nativNotes, Calendar, Gallery, Clock, Reminders
BixbyFolosește API-urile Perplexity pentru căutare și raționament în timp real
Samsung InternetIntegrarea API-urilor Perplexity cu capabilități de agent browser
Motor de căutareDisponibil ca opțiune implicită în Samsung Browser

Samsung a proiectat S26 în jurul unui model multi-agent. Datele interne arată că 8 utilizatori din 10 folosesc deja mai mult de doi agenți IA pe zi. Perplexity este preinstalat pe toate S26, fără descărcare sau configurare. Cu 800 de milioane de dispozitive Samsung active în 2026, acordul reprezintă un acces hardware masiv pentru Perplexity.

🔗 Blog Perplexity — Parteneriat Samsung


Claude și Codex GA pentru Copilot Business și Pro

26 februarie — GitHub extinde accesul la agenții Claude (Anthropic) și OpenAI Codex pentru abonamentele Copilot Business și Copilot Pro. Până acum rezervat pentru Copilot Enterprise și Pro+, acest acces este acum extins unei baze de utilizatori mult mai largă.

Cei trei agenți (Claude, Codex, Copilot) funcționează pe o platformă unificată cu guvernanță centralizată, context partajat și memorie comună. Sunt accesibili de pe github.com, GitHub Mobile și VS Code, fără abonament suplimentar necesar.

FuncționalitateDetaliu
Agenți disponibiliClaude (Anthropic), OpenAI Codex, GitHub Copilot
Suprafețegithub.com, GitHub Mobile, VS Code
GuvernanțăAgent Control Plane (GA) — audit logs, politici centralizate
Abonament necesarNiciunul suplimentar (inclus în Business/Pro)
SesiuniAsincrone cu loguri detaliate

Activare pentru Copilot Business: un admin trebuie să activeze agenții la nivel enterprise (Enterprise AI Controls → Agents → Partner Agents) ȘI la nivel organizație (Settings → Copilot → Coding agent → Partner Agents).

Fiecare sesiune de agent consumă o “premium request” pe perioada previzualizării publice. Sesiunile se folosesc din fila Agents a unui repository, atribuind o issue către @claude sau @codex, sau menționându-i în comentariile PR.

🔗 Claude și Codex acum disponibile pentru utilizatorii Copilot Business & Pro


NVIDIA + Eli Lilly — LillyPod DGX SuperPOD

26 februarie — Eli Lilly inaugurează LillyPod, primul NVIDIA DGX SuperPOD echipat cu sisteme DGX B300, construit în patru luni. Este cea mai puternică AI factory deținută și operată integral de o companie farmaceutică.

MetricăValoare
GPUs1 016 NVIDIA Blackwell Ultra (DGX B300)
Performanță>9 000 petaflops IA
Timp de construcție4 luni
Conexiuni rețea~5 000

LillyPod suportă antrenarea de modele de difuzie pentru proteine, rețele grafice neurale pentru molecule mici și modele fundamentale în genomică. Arhitectura se bazează pe NVIDIA DGX SuperPOD cu Spectrum-X Ethernet networking și NVIDIA Mission Control pentru orchestrare.

🔗 Blog NVIDIA — LillyPod


Codex CLI v0.106.0

26 februarie — OpenAI lansează Codex CLI v0.106.0, o versiune stabilă cu mai multe adăugiri notabile.

FuncționalitateDetaliu
Script de instalare directScript nou pentru macOS și Linux, distribuit ca asset în GitHub Release
App-server v2 Realtime APIEndpoint-uri realtime thread-scoped și flux thread/unsubscribe
js_repl promovat la /experimentalVerificări de compatibilitate Node (minim 22.22.0) la pornire
request_user_input în modul DefaultNu mai este disponibil doar în modul Plan
gpt-5.3-codex vizibil în CLIModelul afișat acum în listă pentru utilizatorii API
Memorie bazată pe diffUitare bazată pe diffs și selecție în funcție de utilizare

Printre corectările de bug-uri: un fix de securitate pe calea de execuție zsh-fork care putea ocoli wrappers sandbox, și o limitare la 1 milion de caractere pentru input-urile TUI/app-server pentru a evita crash-urile la paste masiv.

🔗 Release v0.106.0


Claude Code v2.1.59 + v2.1.61

26 februarie — Claude Code publică versiunile v2.1.59 și v2.1.61 cu funcționalități notabile.

v2.1.59 — Funcționalități noi:

FuncționalitateDescriere
Auto-memoryClaude salvează automat contextul util în memorie persistentă. Gestionabil prin /memory
Comandă /copyPicker interactiv când sunt prezente blocuri de cod — permite selectarea blocurilor individuale sau a răspunsului complet
Sugestii “always allow”Sugestii îmbunătățite pentru comenzi bash compuse (ex: cd /tmp && git fetch && git push)
Ordine pentru taskuri scurteÎmbunătățiri la planificare în sesiunile multi-agent
Fix MCP OAuthCorectare a unei condiții de curse la rularea mai multor instanțe Claude Code simultan

v2.1.61: corectare a scrierilor concurente care corupeau fișierul de config pe Windows.

🔗 CHANGELOG Claude Code


Noutăți Anthropic: Open Source și Connectors

26 februarie — Anthropic anunță două deschideri complementare:

Claude for Open Source — Maintainerii și contributorii principali ai proiectelor open source populare primesc 6 luni de acces gratuit la planul Claude Max 20x. Boris Cherny (@bcherny), responsabil pentru Claude Code, subliniază că “o mare parte din ceea ce face Claude Code excelent vine din feedback-ul dezvoltatorilor OSS.”

Connectors pe plan gratuit — Connectors de Claude sunt acum accesibile utilizatorilor planului gratuit. Catalogul numără peste 150 de connectori în categoriile coding, data, design, finance, sales și altele.

🔗 Tweet Lydia Hallie — Claude for Open Source 🔗 claude.com/connectors


GitHub Enterprise: guvernanță IA în GA

26 februarie — GitHub anunță disponibilitatea generală (GA) a Enterprise AI Controls și a Agent Control Plane, suita de guvernanță IA pentru administratori GitHub Enterprise.

Funcționalitățile GA includ: căutare și filtrare a activității sesiunilor de agenți (inclusiv agenți terți), eliminarea limitei de 1 000 de înregistrări pentru sesiunile din ultimele 24 de ore, API pentru aplicarea definițiilor de agenți personalizați la nivel de companie.

Rămâne în previzualizare publică: gestionarea allowlists MCP la scară enterprise.

🔗 Enterprise AI Controls & agent control plane now generally available


GitHub Mobile: selector de model pentru Copilot

26 februarie — GitHub Mobile lansează un selector de model pentru sesiunile de agent Copilot. Utilizatorul poate acum alege între Auto, Claude (Anthropic), OpenAI Codex și alte modele la pornirea unei sesiuni.

🔗 Tweet @github


Codex + Figma: flux code→design→code

26 februarie — OpenAI Developers anunță o integrare între Codex și Figma care permite un flux bidirecțional code→design→code. Funcționalitatea permite generarea de fișiere de design direct din cod, colaborarea în Figma și apoi implementarea actualizărilor în Codex fără a întrerupe fluxul de lucru.

🔗 Tweet @OpenAIDevs


pplx-embed: embeddings SOTA de la Perplexity

26 februarie — Perplexity lansează două familii de modele de embedding text: pplx-embed-v1 și pplx-embed-context-v1, disponibile în dimensiuni 0,6B și 4B parametri. Modelele sunt accesibile prin API-ul Perplexity și pe Hugging Face sub licență MIT.

BenchmarkScorReferință
ConTEB (contextual retrieval)81,96%Nou SOTA (vs voyage-context-3 79,45%)
MTEB Multilingual v2 (4B INT8)69,66% nDCG@10vs Gemini-embedding-001 67,71%
PPLXQuery2Query Recall@1073,5%vs Qwen3-Embedding-4B 67,9% (+5,6 pct)

Modelele suportă cuantizare INT8 (de 4x mai puțin spațiu decât FP32) și BINARY (de 32x mai puțin). Nu este necesar un instruction prefix.

🔗 Article de recherche Perplexity


Gemini CLI v0.30.0 și Qwen 3.5 FP8

25 februarie — Gemini CLI publică versiunea v0.30.0 cu trei direcții de schimbare: introducerea unui SDK inițial (@google/gemini-cli-sdk), un nou Policy Engine înlocuind --allowed-tools cu un sistem de politici granulare, și îmbunătățiri de interfață (teme Solarized, suport Vim îmbunătățit, suspendare Ctrl-Z).

🔗 Gemini CLI Changelog

25 februarie — Alibaba publică greutățile cuantizate FP8 ale seriei Qwen 3.5 Medium (35B-A3B, 122B-A10B, 27B), disponibile pe Hugging Face și ModelScope cu suport nativ vLLM și SGLang din prima zi. Cuantizarea FP8 reduce semnificativ amprenta de memorie în timp ce păstrează performanța.

🔗 Tweet @Alibaba_Qwen


În scurt

  • Responses API câmp phase (24 feb) — OpenAI adaugă câmpul phase la Responses API, permițând etichetarea mesajelor assistant ca commentary sau final_answer pentru a diferenția etapele de raționament intermediar de răspunsul final. 🔗 Changelog OpenAI API

  • GPT-5.3-Codex GA în Copilot Chat (25 feb) — Disponibil pe github.com, GitHub Mobile, VS Code și Visual Studio pentru toate abonamentele Copilot plătite. Administratorii Business/Enterprise trebuie să activeze politica în setări. 🔗 Changelog GitHub

  • NVIDIA AI Cybersecurity OT/ICS (23 feb) — Parteneriate cu Akamai, Forescout, Palo Alto Networks, Siemens și Xage Security pentru a implementa IA în securitatea cibernetică a tehnologiilor operaționale și a sistemelor de control industrial. 🔗 Blog NVIDIA


Ce înseamnă toate acestea

Declarația lui Dario Amodei privind Departamentul Războiului este fără precedent în industrie. Este pentru prima dată când un CEO de lab frontier documentează public o presiune guvernamentală de a elimina măsuri etice și refuză explicit. Eticheta “risc în lanțul de aprovizionare” menționată de DoW este, de obicei, rezervată companiilor chineze — aplicarea ei potențială asupra unei companii americane ar reprezenta o escaladare fără precedent.

Pe plan comercial, ziua de 26 februarie ilustrează consolidarea în jurul câtorva platforme dominante. GitHub unifică Claude, Codex și Copilot pe o singură suprafață cu guvernanță centralizată — este modelul de “agent marketplace” care prinde formă concretă. Integrarea Perplexity în Samsung urmează aceeași logică: mai puține dispozitive noi de cucerit, mai multe integrări profunde în platformele existente.

LillyPod la Eli Lilly semnalează că IA în pharma trece la scară industrială: construirea propriei AI factory în 4 luni cu 1 016 GPU-uri Blackwell Ultra arată că marile companii nu mai așteaptă doar cloud-ul pentru workload-urile cele mai sensibile.


Surse - Declarație Dario Amodei — Departamentul Războiului

Acest document a fost tradus din versiunea fr în limba ro folosind modelul gpt-5-mini. Pentru mai multe informații despre procesul de traducere, consultați https://gitlab.com/jls42/ai-powered-markdown-translator