खोजें

Anthropic Institute, Perplexity Everything is Computer, OpenAI Responses API : 11 मार्च 2026

Anthropic Institute, Perplexity Everything is Computer, OpenAI Responses API : 11 मार्च 2026

Le 11 mars 2026 est une journée dense : Anthropic crée un institut interdisciplinaire pour le débat public sur l’IA, Perplexity déploie sa vision “Computer” avec quatre API simultanées, OpenAI publie les nouvelles primitives agentiques de la Responses API, et Meta détaille quatre générations de puces IA custom développées en deux ans.


Anthropic Institute : Jack Clark à la tête du bénéfice public

11 mars 2026 — Anthropic lance The Anthropic Institute, un nouvel effort pour faire avancer le débat public sur les défis posés par l’IA puissante. L’initiative est dirigée par le co-fondateur Jack Clark, qui prend un nouveau rôle de “Head of Public Benefit” (responsable du bénéfice public) chez Anthropic.

L’Institut rassemblera une équipe interdisciplinaire — chercheurs, économistes, juristes, spécialistes des politiques publiques — avec un accès unique aux modèles de pointe d’Anthropic. Sa mission : analyser et communiquer les impacts sociétaux, économiques et de sécurité de l’IA à mesure qu’ils se développent.

Trois premières recrues ont été annoncées :

RecrueParcours
Matt BotvinickResident Fellow, Yale Law School ; ex-Senior Director of Research, Google DeepMind
Anton KorinekProfesseur d’économie (en congé sabbatique), équipe Economic Research
Zoë HitzigEx-OpenAI, spécialisée dans les impacts sociaux et économiques de l’IA

L’Institut s’appuie sur les équipes existantes d’Anthropic : Frontier Red Team, Societal Impacts, Economic Research. En parallèle, Anthropic annonce l’expansion de son équipe Public Policy, axée sur la transparence des modèles, la protection des consommateurs d’énergie, les contrôles à l’export, et la gouvernance mondiale de l’IA.

La création de cet Institut marque une étape notable : Anthropic structure formellement son engagement public et lui donne un visage avec l’un de ses co-fondateurs.

🔗 Introducing The Anthropic Institute


Perplexity : lancement coordonné de la vision “Everything is Computer”

11 mars 2026 — Perplexity publie simultanément quatre annonces qui forment un lancement coordonné autour de sa vision “Computer” : l’IA comme ordinateur personnel et professionnel.

Personal Computer et Enterprise

Le Personal Computer est un Mac mini dédié qui tourne 24h/24, connecté aux applications locales et aux serveurs Perplexity. Il agit comme un proxy digital de l’utilisateur — les actions sensibles nécessitent une approbation explicite. Liste d’attente ouverte.

Le Computer for Enterprise se connecte à Snowflake, Salesforce, HubSpot et des centaines de plateformes. Les compétences (skills) sont personnalisables, et l’intégration Slack permet de travailler dans les DM ou les canaux partagés. Il repose sur SOC 2 Type II, SAML SSO et des journaux d’audit (audit logs). Perplexity avance un chiffre issu d’une étude interne de 16 000 requêtes : économie de 1,6 million de dollars en coûts de main-d’œuvre et 3,25 années de travail accompli en 4 semaines.

Comet Enterprise est un navigateur IA natif avec contrôles administrateur (permissions par domaine, journaux d’action, MDM) et un partenariat CrowdStrike pour des protections au niveau du navigateur.

Perplexity Finance reçoit 40+ outils finance en direct (SEC filings, FactSet, S&P Global, Coinbase, LSEG, Quartr, Polymarket), avec connexion courtier via Plaid pour l’analyse d’un portefeuille réel.

Premium Sources offre l’accès à Statista, CB Insights et PitchBook directement dans les flux de recherche — les sources payantes sont citées automatiquement.

🔗 Everything is Computer

Agent API : runtime orchestration complet

L’Agent API est un runtime managé pour construire des workflows agentiques avec recherche intégrée, exécution d’outils et orchestration multi-modèles. Elle remplace en un seul point d’intégration un routeur de modèles, une couche de recherche, un fournisseur d’embeddings, un service sandbox et une pile de surveillance (monitoring stack).

Outil intégréCapacités
web_searchFiltrage par domaine, récence, plage de dates, langue, budget de contenu
fetch_urlRécupération directe d’URL
Fonctions personnaliséesSupport complet

Quatre profils optimisés (presets) couvrent les cas d’usage : recherche factuelle rapide, recherche équilibrée, analyse multi-sources approfondie, et recherche institutionnelle. Deep Research 2.0 est disponible via le profil advanced-deep-research — il lance des dizaines de recherches par requête et traite des centaines de documents.

L’Agent API est agnostique aux modèles, supporte les chaînes de repli (fallback chains) multi-modèles pour une disponibilité proche de 100%, et est disponible aujourd’hui sur docs.perplexity.ai.

🔗 Agent API

Search API : snippets améliorés et benchmark SEAL

La mise à jour de la Search API porte sur la qualité des extraits (snippets) et l’infrastructure d’évaluation.

Le nouveau pipeline de balisage au niveau des fragments (span-level labeling) identifie quels segments d’un document source sont pertinents pour une requête. Résultat : des extraits plus petits et plus précis, ce qui réduit les coûts en tokens et améliore la gestion du contexte pour les modèles en aval.

Le benchmark SEAL teste si un système de récupération peut répondre à des questions dont la réponse change dans le temps. Perplexity progresse sur SEAL-Hard pendant que d’autres fournisseurs déclinent. Le framework search_evals est mis à jour en open source sur GitHub.

Autres améliorations : support multi-requêtes (jusqu’à 5 en une seule requête API), filtrage par langue (code ISO 639-1) et par pays, et SDK Python (pip install perplexityai) avec support natif des trois API.

🔗 Search API update

Sandbox API : exécution de code isolée pour agents

Perplexity ouvre son environnement d’exécution de code interne en tant que service autonome. Chaque session s’exécute dans un pod Kubernetes isolé, avec un système de fichiers persistant monté. Langages supportés : Python, JavaScript, SQL. L’installation de packages au moment de l’exécution (at runtime) est possible.

Les sessions ont un état persistant (stateful) : les fichiers créés à une étape sont disponibles aux étapes suivantes, et les workflows longs peuvent faire une pause puis reprendre des heures plus tard. La sécurité repose sur un modèle zéro confiance (zero-trust) : pas d’accès réseau direct, trafic sortant via proxy, le code n’a jamais accès aux clés API brutes.

La Sandbox API sera intégrable dans l’Agent API avec la même clé API et les mêmes crédits. Statut : bêta privée prochainement.

🔗 Sandbox API


OpenAI : la Responses API reçoit un environnement informatique pour agents

11 mars 2026 — OpenAI publie un article d’ingénierie détaillant les nouvelles primitives de la Responses API pour construire des agents autonomes fiables : shell tool Unix, conteneurs hébergés, compaction native du contexte et agent skills réutilisables.

Le shell tool

Le shell tool permet au modèle d’interagir avec un ordinateur via la ligne de commande, avec accès aux utilitaires Unix classiques (grep, curl, awk). Contrairement à l’interpréteur de code existant qui n’exécutait que du Python, le shell tool prend en charge Go, Java, Node.js et d’autres environnements. Les modèles GPT-5.2 et ultérieurs sont entraînés pour proposer des commandes shell.

La Responses API peut exécuter plusieurs commandes shell en parallèle via des sessions de conteneur séparées, et applique un plafond de sortie par commande pour éviter de saturer la fenêtre de contexte.

Conteneurs hébergés

Le conteneur constitue l’espace de travail du modèle :

ComposantDescription
Système de fichiersUpload, organisation et gestion des ressources via APIs container et file
Bases de donnéesStockage structuré (SQLite) — le modèle interroge les tables plutôt que de charger tout le contenu
Accès réseauProxy egress centralisé avec liste d’autorisations, injection de secrets par domaine

Compaction native du contexte

Pour les tâches longue durée, la Responses API intègre un mécanisme de compaction native : les modèles sont entraînés pour produire une représentation compacte et chiffrée de l’état conversationnel. Disponible côté serveur (seuil configurable) ou via un endpoint /compact. Codex utilise ce mécanisme pour maintenir des sessions de codage longues durée sans dégradation.

Agent skills

Les skills (compétences d’agent) conditionnent des modèles de flux de travail répétitifs (workflow patterns) en bundles réutilisables : un dossier avec un fichier SKILL.md et les ressources associées. La Responses API charge automatiquement la skill dans le contexte avant d’envoyer le prompt au modèle. Les skills sont gérées via API et versionnées.

En parallèle, un billet de blog développeurs célèbre un an de la Responses API avec cinq études de cas clients. Les deux publications forment un tableau cohérent de l’évolution de la plateforme vers l’agentique.

🔗 Responses API + environnement informatique 🔗 1 an de la Responses API


OpenAI : stratégie de défense contre le prompt injection

11 mars 2026 — OpenAI publie un article de sécurité sur la résistance des agents IA aux attaques par injection de prompt (prompt injection).

Les premières attaques consistaient à insérer des instructions directes dans des contenus externes (pages Wikipedia, emails). Avec l’amélioration des modèles, ces attaques ont évolué vers l’ingénierie sociale (social engineering) : contexte professionnel convaincant, urgence simulée, autorisation prétendue. Un exemple de 2025 décrit dans l’article montrait une attaque réussie dans 50 % des cas sur une ancienne version de ChatGPT.

OpenAI aborde le problème sous le prisme du système tripartite (employeur / agent / tiers malveillant), analogue à un agent de service client humain exposé à des tentatives de manipulation. L’objectif n’est pas d’identifier parfaitement chaque attaque, mais de limiter l’impact d’une manipulation réussie.

Contre-mesureDescription
Analyse source-sinkDétection des combinaisons contenu non fiable + action dangereuse
Safe UrlDétecte si des informations de la conversation seraient transmises à un tiers — demande confirmation ou bloque
Sandbox applicatifCanvas et ChatGPT Apps détectent les communications inattendues et demandent le consentement

Safe Url s’applique également aux navigations dans Atlas ainsi qu’aux recherches et navigations dans Deep Research.

🔗 Designing AI agents to resist prompt injection


Meta MTIA : quatre générations de puces IA en deux ans

11 mars 2026 — Meta publie un article technique détaillé sur sa famille de puces IA custom MTIA (Meta Training and Inference Accelerator). En deux ans, Meta a développé quatre générations successives pour servir des milliards d’utilisateurs à moindre coût.

“AI models are evolving faster than traditional chip development cycles.”

🇮🇳 आर्टिफिशियल इंटेलिजेंस मॉडल पारंपरिक चिप विकास चक्रों से तेज़ी से विकसित हो रहे हैं।

GénérationInnovation principale
MTIA 300Première puce optimisée pour les modèles de classement et recommandation (Ranking & Recommendation), base modulaire réutilisable
MTIA 400Évolution vers les workloads GenAI, rack de 72 puces dans un domaine scale-up unique
MTIA 450Doublement de la bande passante HBM, +75 % de FLOPS MX4, accélération matérielle attention et FFN
MTIA 500+50 % de bande passante HBM vs MTIA 450, focus inference GenAI

La progression entre MTIA 300 et MTIA 500 : bande passante HBM multipliée par 4,5 et FLOPS multipliés par 25. La stratégie de Meta repose sur un développement haute vélocité (une nouvelle puce par an), un focus inference plutôt que pré-entraînement, et une intégration native PyTorch.

“Mainstream GPUs are typically built for the most demanding workload — large-scale GenAI pre-training — while Meta’s primary need is inference.”

🇮🇳 मुख्यधारा के GPU सामान्यतः सबसे अधिक माँग वाले वर्कलोड — बड़े पैमाने पर GenAI प्री-ट्रेनिंग — के लिए बनाए जाते हैं, जबकि Meta की प्राथमिक आवश्यकता इन्फ़रेंस है।

L’architecture du processeur élémentaire (Processing Element) combine deux cœurs RISC-V vectoriels, un moteur produit scalaire (Dot Product Engine), une unité de fonctions spéciales (Special Function Unit), un moteur de réduction et un DMA. La pile logicielle repose sur PyTorch, vLLM, Triton et des compilateurs MTIA dédiés, avec une intégration vLLM via architecture de plugin.

🔗 Meta MTIA : scale AI chips for billions


Gemini CLI v0.33.0 : Plan Mode enrichi et authentification A2A

11 mars 2026 — Gemini CLI publie la version v0.33.0, deux semaines après la v0.32.0 qui avait introduit le Plan Mode.

CatégorieNouveautés
Architecture agentAuthentification HTTP pour agents A2A distants, découverte de cartes d’agents A2A authentifiés
Plan ModeSous-agents de recherche intégrés, support des annotations pour retours utilisateurs, nouvelle sous-commande copy
Interface CLIHeader compact avec icône ASCII, affichage inversé de la fenêtre de contexte, rétention 30 jours par défaut pour l’historique de chat

L’ajout de l’authentification HTTP pour le protocole A2A (Agent-to-Agent) est la principale nouveauté technique : Gemini CLI peut désormais découvrir et s’authentifier auprès d’agents distants, posant les bases d’une orchestration multi-agents sécurisée.

🔗 Changelog Gemini CLI


Gemini dans Chrome : expansion vers l’Inde, la Nouvelle-Zélande et le Canada

11 mars 2026 — Google étend les fonctionnalités IA de Chrome à trois nouveaux marchés : l’Inde, la Nouvelle-Zélande et le Canada.

Gemini in Chrome — l’assistant IA dans le panneau latéral, basé sur Gemini 3.1 — est désormais disponible sur Mac, Windows et Chromebook Plus dans ces régions. Parmi les fonctionnalités déployées : accès à Gmail, Maps, Calendar et YouTube depuis Chrome, analyse croisée de plusieurs onglets ouverts, et transformation d’images directement dans le navigateur via Nano Banana 2. La mise à jour ajoute 50+ langues supplémentaires, dont le hindi, le français et l’espagnol.

🔗 Chrome s’étend à l’Inde, Nouvelle-Zélande et Canada

--- ## AlphaEvolve : रैमसे के 5 क्लासिक संख्याओं के लिए नई निचली सीमाएँ

11 मार्च 2026 — Pushmeet Kohli (Google DeepMind) ने घोषणा की कि AlphaEvolve ने संयोजनात्मक चरमशास्त्र में 5 क्लासिक रैमसे संख्याओं के लिए नई निचली सीमाएँ स्थापित की हैं — ऐसे समस्याएँ जिनकी जटिलता पर Erdős स्वयं ने टिप्पणी की थी, और जिनके पूर्व के सर्वश्रेष्ठ परिणाम कम-से-कम एक दशक पुराने थे।

AlphaEvolve एक मेटा-एल्गोरिद्म के रूप में कार्य करता है जो आवश्यक खोज प्रक्रियाओं को स्वचालित रूप से खोजता है, जहाँ ऐतिहासिक रूप से विशिष्ट एल्गोरिद्म हाथ से डिजाइन करने पड़ते थे। यह परिणाम AlphaEvolve की उन क्षमताओं को दर्शाता है जो Google के कर्नल ऑप्टिमाइज़ेशन्स से परे हैं जिनके लिए यह पहले से जाना जाता था।

🔗 Pushmeet Kohli का ट्वीट


Gemini Embedding 2 : Google का पहला मल्टीमॉडल एम्बेडिंग मॉडल

10 मार्च 2026 — Google ने Gemini Embedding 2 की घोषणा की, जिसे “our most capable and first fully multimodal embedding model” के रूप में वर्णित किया गया है। यह Google का पहला नेटिवली मल्टीमॉडल एम्बेडिंग मॉडल है, जो डेवलपर्स के लिए Gemini API और AI Studio के माध्यम से उपलब्ध है।

🔗 @googleaidevs का ट्वीट


GitHub Copilot : टर्मिनल से कोड समीक्षा और JetBrains में आगे की क्षमताएँ

11 मार्च 2026 — GitHub Copilot के लिए दो महत्वपूर्ण अपडेट्स।

GitHub CLI v2.88.0 से कोड समीक्षा

अब Copilot को सीधे टर्मिनल से कोड समीक्षा के लिए बुलाया जा सकता है। कमांड gh pr edit --add-reviewer @copilot (नॉन-इंटरऐक्टिव मोड) और gh pr create (इंटरऐक्टिव मोड) Copilot को सहकर्मियों के साथ एकीकृत करती हैं। रिव्यूअर्स के चयन में डायनामिक सर्च शामिल है, जो बड़े संगठनों में प्रदर्शन में सुधार करता है और पहुंचयोग्यता के मुद्दों को ठीक करता है। Copilot code review शामिल सभी प्लान्स पर उपलब्ध — GitHub CLI v2.88.0 में अपग्रेड आवश्यक।

🔗 GitHub CLI से कोड समीक्षा

JetBrains IDEs के लिए एजेंटिक सुधार

JetBrains प्लगइन का अपडेट सामान्य उपलब्धता (GA) में लाता है: कस्टम एजेंट (custom agents), सब-एजेंट और प्लान एजेंट (plan agent), साथ ही सभी प्लान्स के लिए मॉडल का ऑटो-चयन। सार्वजनिक पूर्वदर्शन (public preview) में: एजेंट हुक्स (userPromptSubmitted, preToolUse, postToolUse, errorOccurred) एक hooks.json फ़ाइल के माध्यम से .github/hooks/ में, और AGENTS.md तथा CLAUDE.md फाइलों का सपोर्ट।

अन्य सुधारों में शामिल हैं: MCP द्वारा कॉन्फ़िगर करने योग्य auto-approve, विस्तारित तर्कशक्ति वाले मॉडलों के लिए थिंक-पैनल, संदर्भ विंडो उपयोग सूचक, और मेनू में Edit मोड का डिप्रिकेट होना।

🔗 JetBrains सुधार

Copilot वेब पर रिपॉज़िटरी ब्राउज़ करना

पब्लिक प्रीव्यू में: Copilot की वेब इंटरफ़ेस से सीधे किसी GitHub रिपॉज़िटरी की फ़ोल्डर-स्ट्रक्चर ब्राउज़ करना संभव है। चुनी हुई फ़ाइलें स्वचालित रूप से अस्थायी संदर्भ के रूप में चैट में जोड़ दी जाती हैं और उन्हें स्थायी बनाया जा सकता है।

🔗 वेब में Copilot से रिपॉज़िटरी एक्सप्लोर करें


Anthropic Sydney और Claude for Office

सिडनी, एशिया-प्रशांत में चौथा कार्यालय

10 मार्च 2026 — Anthropic ने घोषणा की कि वह शीघ्र ही Sydney में एक कार्यालय खोलेगा, जो एशिया-प्रशांत में उनका चौथा कार्यालय होगा (Tokyo, Seoul और Singapore के बाद)। ऑस्ट्रेलिया प्रति व्यक्ति Claude.ai उपयोग में दुनिया में चौथा स्थान है; न्यूज़ीलैंड उसी सूचकांक में आठवाँ है (Anthropic Economic Index)। यह कार्यालय प्रारंभ में एंटरप्राइज़ क्लाइंट्स, स्टार्टअप्स और रिसर्च पर ध्यान देगा।

🔗 सिडनी, एशिया-प्रशांत में चौथा कार्यालय

Claude for Excel और PowerPoint : साझा संदर्भ और Skills Office

11 मार्च 2026 — Claude for Excel और Claude for PowerPoint add-ins दो महत्त्वपूर्ण अपडेट पा रहे हैं: दोनों एप्स के बीच संदर्भ साझा करना (एक विश्लेषक एक Excel वर्कबुक से डेटा निकालकर उसी बातचीत में PowerPoint प्रस्तुति में उपयोग कर सकता है), और दोनों add-ins में Skills (एक-क्लिक पुन:प्रयोग योग्य वर्कफ़्लो) का आगमन।

प्री-लोडेड Skills सबसे सामान्य उपयोग मामलों को कवर करते हैं: फ़ॉर्मूला ऑडिट, LBO/DCF मॉडल का निर्माण, प्रतिस्पर्धी परिदृश्य के डेक, नई डेटा के साथ प्रस्तुति अद्यतन, और इनवेस्टमेंट बैंकिंग डेक की समीक्षा। ये add-ins अब Amazon Bedrock, Google Cloud Vertex AI और Microsoft Foundry के माध्यम से अनुपालन-संगत डिप्लॉयमेंट्स के लिए उपलब्ध हैं। उपलब्धता: Mac और Windows पर भुगतान योजनाओं (Pro, Max, Team, Enterprise) में।

🔗 Claude for Excel और PowerPoint


NVIDIA Nemotron 3 Super, ComfyUI और GTC 2026

11 मार्च 2026 — NVIDIA GTC 2026 के आस-पास काफ़ी सक्रिय है।

Nemotron 3 Super एजेंटिक AI के लिए पिछली पीढ़ी की तुलना में 5 गुना अधिक थ्रूपुट प्रदान करता है। यह 120 बिलियन पैरामीटर वाला एक MoE (Mixture of Experts) मॉडल है, जो हाई-फ्रीक्वेंसी इन्फरेंस कार्यभारों के लिए ओपन सोर्स में ऑप्टिमाइज़्ड है।

NVIDIA और ComfyUI ने GDC 2026 पर एक इंटीग्रेशन की घोषणा की जिसने स्थानीय AI वीडियो जनरेशन को गेम डेवलपर्स और क्रिएटर्स के लिए सरल बनाया है, FLUX और LTX-Video मॉडल्स का सपोर्ट के साथ।

NVIDIA ब्लॉग GTC 2026 Live Updates सम्मेलन से लाइव घोषणाओं को एकत्र करता है — Mistral AI भी यहाँ अपने frontier मॉडल्स प्रस्तुत कर रहा है।

🔗 Nemotron 3 Super 🔗 ComfyUI GDC 🔗 GTC 2026 Live


संक्षेप में

Runway Labs — Runway ने Alejandro Matamala Ortiz (को-फाउंडर, निदेशक नवाचार) द्वारा संचालित एक इन-हाउस इन्क्यूबेटर लॉन्च किया। Runway Labs वीडियो जनरेटिव और General World Models जैसी विश्वसनीय सिमुलेशन मॉडल्स के लिए radially नए अनुप्रयोगों का प्रोटोटाइप बनाएगा, जिनका उपयोग सिनेमा, हेल्थकेयर, शिक्षा, वीडियो गेम, विज्ञापन और रियल एस्टेट जैसे क्षेत्रों में हो सकता है। अभी भर्ती चल रही है।

🔗 Runway Labs का परिचय

Claude Code /btw — एक नया कमांड /btw साइड चैन वार्तालापों (side chain conversations) की अनुमति देता है जबकि एक टास्क चल रहा होता है, बिना चल रहे काम को बाधित किए।

🔗 @bcherny का ट्वीट

NotebookLM Flashcards — क्विज़ और फ्लैशकार्ड्स का अपडेट: जहाँ छोड़ा था वहीं से जारी रखना, सही/गलत फ्लैशकार्ड्स का ट्रैक रखना, फ्लैशकार्ड्स को हटाने या मिक्स करने की क्षमता।

🔗 NotebookLM का ट्वीट

Meta Canopy Height Maps v2 — Meta और World Resources Institute ने CHMv2 प्रकाशित किया, जो वैश्विक फॉरेस्ट कैनोपी हाइट मैप्स का नया संस्करण है। Meta का DINOv3 (self-supervised विज़न) सटीकता और वैश्विक कवरेज सुधारता है। अनुप्रयोग: जलवायु प्रवास, वन पुनर्स्थापन, शहरी नियोजन। मॉडल्स ओपन सोर्स में उपलब्ध हैं।

🔗 Canopy Height Maps v2

Z.ai GLM-5 — GLM-5 अब Lite (फ्री लेवल) उपयोगकर्ताओं के लिए उपलब्ध है, जो फरवरी 2026 में लॉन्च के बाद पहले Pro उपयोगकर्ताओं के लिए आरक्षित था।

🔗 @ZixuanLi_ का ट्वीट


इसका क्या मतलब है

11 मार्च 2026 दो मिली-जुली दीर्घकालिक प्रवृत्तियों को उद्घाटित करता है जो एक-दूसरे की ओर बढ़ रही हैं।

पहली है एजेंटिकता की प्लेटफ़ॉर्मिकरण (platformization) : OpenAI, Perplexity और GitHub ने उसी दिन पूरक प्रिमिटिव्स जारी किए (shell tools, sandboxes, agent hooks, code review)। पारिस्थितिकी तंत्र पुन:प्रयोग योग्य ब्लॉक्स — skills, कंटेनर, सब-एजेंट — के इर्द-गिर्द संरचित हो रहा है, जो डेवलपर्स को अवसंरचना को फिर से आविष्कार किए बिना विश्वसनीय एजेंट बनाने की अनुमति देता है।

दूसरी है कस्टम सिलिकॉन की दौड़ : Meta ने दो वर्षों में अपनी चार पीढ़ियों MTIA पर जो विवरण प्रकाशित किया है वह उपभोक्ता GPU से स्वतंत्रता की एक स्पष्ट रणनीति दर्शाता है, जो बड़े पैमाने पर इन्फरेंस के लिए कॅलिब्रेट की गई है। यही लॉजिक NVIDIA को उसी दिन Nemotron 3 Super प्रकाशित करने की प्रेरणा देता है, जहाँ GTC पर घोषणाएँ भरमार हैं।

Anthropic Institute का निर्माण एक अधिक सूक्ष्म परन्तु स्थायी आंदोलन का हिस्सा है: क्षमताओं के प्रगति के साथ, बड़े AI कंपनी सार्वजनिक प्रभाव टीमों का ढांचा बना रही हैं — अब केवल सामरिक संचार के रूप में नहीं, बल्कि एक स्वतंत्र अनुसंधान प्रयास के रूप में।


स्रोत

यह दस्तावेज़ fr संस्करण से hi भाषा में gpt-5-mini मॉडल का उपयोग करके अनुवादित किया गया है। अनुवाद प्रक्रिया के बारे में अधिक जानकारी के लिए, देखें https://gitlab.com/jls42/ai-powered-markdown-translator