ai-powered-markdown-translatorgpt-5.4-mini के साथ fr से hi में अनुवादित लेख।
Anthropic और xAI एक अभूतपूर्व समझौता करते हैं: सुपरकंप्यूटर Colossus 1 के 220 000 NVIDIA GPU इस सप्ताह से Claude Code की सीमाएँ दोगुनी करने जा रहे हैं। Claude for Microsoft 365 Excel, PowerPoint और Word पर सामान्य उपलब्धता में जा रहा है। OpenAI GPT-Realtime-2 लॉन्च करता है, जो GPT-5-स्तरीय तर्क क्षमता वाला पहला वॉइस मॉडल है। Perplexity Personal Computer को सभी Mac उपयोगकर्ताओं के लिए खोलता है, और ElevenLabs NVIDIA को रणनीतिक निवेशक के रूप में लेकर 500 मिलियन डॉलर के ARR को पार कर जाता है।
Anthropic xAI से Colossus 1 किराए पर लेता है — 220 000 NVIDIA GPU, Claude Code सीमाओं का दोगुना
6 मई — Anthropic एक साथ उपयोग सीमाओं में तत्काल वृद्धि और SpaceX / xAI के साथ एक अभूतपूर्व अवसंरचना समझौते की घोषणा करता है।
उपयोगकर्ताओं के लिए, सबसे स्पष्ट बदलाव Claude Code में पाँच घंटे की दर-सीमाओं का दोगुना होना है, जो Pro, Max, Team और Enterprise योजनाओं पर तुरंत प्रभावी है। पीक समय पर होने वाली स्वचालित कमी — जो Pro और Max योजनाओं को सीमित करती थी — भी हटा दी गई है। Claude Opus मॉडल के लिए API सीमाएँ भी समानांतर रूप से बढ़ाई गई हैं।
ये बढ़ोतरी SpaceX के साथ एक समझौते के कारण संभव हुई हैं: Anthropic को xAI के सुपरकंप्यूटर Colossus 1 की पूरी क्षमता तक पहुँच मिलती है, यानी 300 मेगावाट से अधिक और 220 000 से अधिक NVIDIA GPU (H100, H200 और GB200)। यह क्षमता एक महीने के भीतर उपलब्ध होगी। दोनों कंपनियाँ कई गीगावाट AI कंप्यूट क्षमता को कक्षा में विकसित करने के एक संयुक्त इरादे की भी घोषणा करती हैं — उद्योग में पहली बार।
यह साझेदारी पहले से चल रहे कई समझौतों के साथ जुड़ती है: Amazon (5 GW तक, जिसमें लगभग 1 GW 2026 के अंत तक उपलब्ध), Google और Broadcom (2027 से 5 GW), Microsoft और NVIDIA (Azure क्षमता के 30 अरब डॉलर), और Fluidstack (अमेरिकी AI अवसंरचना के 50 अरब डॉलर)। अंतरराष्ट्रीय विस्तार विनियमित क्षेत्रों के लिए डेटा-निवास आवश्यकताओं को शामिल करेगा। Anthropic यह भी प्रतिबद्ध होता है कि वह अपने डेटासेंटरों से जुड़ी स्थानीय उपभोक्ताओं के लिए बिजली की कीमत में किसी भी वृद्धि की भरपाई करेगा।
| बदलाव | प्रभावित योजनाएँ | प्रभावी |
|---|---|---|
| Claude Code 5h सीमाएँ दोगुनी | Pro, Max, Team, Enterprise | तुरंत |
| पीक-आवर्स कमी हटाना | Pro, Max | तुरंत |
| Opus API सीमाएँ बढ़ाना | सभी | तुरंत |
| compute समझौता | क्षमता | समय-सीमा |
|---|---|---|
| SpaceX / xAI Colossus 1 | 300+ MW, 220 000+ NVIDIA GPU | एक महीने के भीतर |
| Amazon | 5 GW तक (~1 GW 2026 के अंत तक) | 2026 |
| Google + Broadcom | 5 GW | 2027 से |
| Microsoft + NVIDIA | USD 30 अरब Azure | — |
| Fluidstack | USD 50 अरब US अवसंरचना | — |
🔗 Anthropic — सीमाएँ बढ़ी + SpaceX समझौता
Claude for Microsoft 365 — Excel, PowerPoint, Word पर सामान्य उपलब्धता + Outlook बीटा
7 मई — Claude for Excel, PowerPoint और Word सभी भुगतान वाली योजनाओं के लिए सामान्य उपलब्धता में जाते हैं। Claude for Outlook भी उन्हीं शर्तों के साथ एक साथ सार्वजनिक बीटा में प्रवेश करता है।
“Claude for Excel, PowerPoint, and Word are now generally available, and Claude for Outlook is in public beta. As Claude moves between your Microsoft apps, it carries the full context of your conversation.”
🇮🇳 Claude for Excel, PowerPoint और Word अब सभी के लिए उपलब्ध है, और Claude for Outlook सार्वजनिक बीटा में है। आपकी Microsoft अनुप्रयोगों के दौरान, Claude आपकी बातचीत का पूरा संदर्भ बनाए रखता है। — @claudeai on X
मुख्य सुविधा चारों अनुप्रयोगों के बीच साझा संदर्भ है: Outlook में किसी ईमेल को छाँटने के लिए शुरू की गई बातचीत Word में एक मेमो लिखने तक जारी रहती है, फिर डेटा विश्लेषण के लिए Excel में, और प्रस्तुति के लिए PowerPoint में — बिना संदर्भ को दोबारा समझाए। स्वचालित क्रॉस-अपडेट दूसरा ठोस लाभ है: Excel मॉडल में किसी मान्य परिकल्पना को बदलने से प्रस्तुति के ग्राफ़ और Word मेमो के संबंधित आँकड़े एक साथ अपडेट हो जाते हैं।
उल्लेखित कंपनियों में ServiceNow शामिल है (“Claude does the work in Excel itself, instead of asking us to move content between tools”) और निजी परिसंपत्ति प्रबंधन टीमें, जो इसे वित्तीय कवरेज मॉडल बनाने और बनाए रखने के लिए उपयोग करती हैं।
| अनुप्रयोग | 7 मई 2026 को स्थिति | योजनाएँ |
|---|---|---|
| Claude for Excel | सामान्य उपलब्धता (GA) | सभी भुगतान वाली योजनाएँ |
| Claude for PowerPoint | सामान्य उपलब्धता (GA) | सभी भुगतान वाली योजनाएँ |
| Claude for Word | सामान्य उपलब्धता (GA) | सभी भुगतान वाली योजनाएँ |
| Claude for Outlook | सार्वजनिक बीटा | सभी भुगतान वाली योजनाएँ |
🔗 Claude for Microsoft 365 घोषणा
Claude Managed Agents — dreaming, outcomes, orchestration multiagent, webhooks
6 मई — Code with Claude सम्मेलन में, Anthropic अपने एजेंट डिप्लॉयमेंट प्लेटफ़ॉर्म के लिए कई नई सुविधाएँ लॉन्च करता है।
सबसे उल्लेखनीय नई सुविधा dreaming है: एक नियोजित प्रक्रिया जो किसी एजेंट के पिछले सत्रों का विश्लेषण करती है, पुनरावर्ती पैटर्न निकालती है और उसकी स्मृति को समेकित करती है ताकि वह समय के साथ बेहतर हो सके। डेवलपर नियंत्रण बनाए रखता है — dreaming स्मृति को स्वचालित रूप से अपडेट कर सकता है या हर बदलाव को मानव समीक्षा के लिए भेज सकता है। Dreaming अनुरोध पर प्रयोगात्मक शोध (research preview) में उपलब्ध है।
Outcomes सार्वजनिक बीटा में प्रवेश करता है: यह सुविधा किसी एजेंट के प्रत्येक परिणाम का मूल्यांकन डेवलपर द्वारा निर्धारित मानदंडों के अनुसार उपयोगकर्ता को देने से पहले करने देती है। Wisedocs कंपनी ने इसका उपयोग चिकित्सा दस्तावेज़ों की समीक्षा 50 % तेज़ करने के लिए किया, जबकि अपने आंतरिक मानकों के साथ संरेखण बनाए रखा।
multiagent orchestration एक पायलट एजेंट को विशेषज्ञ एजेंटों को उप-कार्य सौंपने देती है, जो समानांतर में चलते हैं, जिससे कई विशेषज्ञताओं की एक साथ आवश्यकता वाले जटिल कार्यों को संसाधित करना आसान हो जाता है। webhooks भी बाहरी कार्रवाइयों को ट्रिगर करने के लिए उपलब्ध हैं।
| सुविधा | उपलब्धता | विवरण |
|---|---|---|
| Dreaming | Research preview (अनुरोध पर) | पिछले सत्रों के विश्लेषण से स्व-सुधार |
| Outcomes | सार्वजनिक बीटा | डिलीवरी से पहले परिणामों का मूल्यांकन |
| multiagent orchestration | सार्वजनिक बीटा | पायलट एजेंट + समानांतर विशेषज्ञ एजेंट |
| Webhooks | सार्वजनिक बीटा | बाहरी कार्रवाइयों का ट्रिगर |
GPT-Realtime-2 — GPT-5 तर्क और 128K संदर्भ के साथ आवाज़
7 मई — OpenAI Realtime API में मॉडल की एक नई पीढ़ी लॉन्च करता है: GPT-Realtime-2, GPT-Realtime-Translate और GPT-Realtime-Whisper।
GPT-Realtime-2 GPT-5-स्तरीय तर्क वाला पहला वॉइस मॉडल है: यह जटिल अनुरोधों को संभाल सकता है, टूल्स को समानांतर में कॉल कर सकता है (parallel tool calls), रुकावटों के बाद रिकवरी कर सकता है (recovery behavior) और 128 000 tokens की संदर्भ विंडो बनाए रख सकता है (अपने पूर्ववर्ती के 32 000 की तुलना में), जो लंबे सत्रों के लिए उपयुक्त है। तर्क के पाँच स्तर समायोज्य हैं: minimal, low, medium, high, xhigh (डिफ़ॉल्ट low)। उत्तरों से पहले प्राकृतिक प्रवाह के लिए संक्रमण सूत्र (preambles) डाले जा सकते हैं।
GPT-Realtime-Translate 70+ स्रोत भाषाओं से 13 लक्षित भाषाओं में एक साथ लाइव अनुवाद सक्षम करता है। GPT-Realtime-Whisper कम विलंबता वाली स्ट्रीमिंग प्रतिलेखन प्रदान करता है।
Zillow ने अपनी आवाज़ वाली इंटरैक्शन पर GPT-Realtime-2 का परीक्षण किया: अपने सबसे कठिन adversarial benchmark पर सफलता दर में +26 अंक (95 % बनाम 69 %)। EU Data Residency समर्थित है।
| मॉडल | क्षमता | मूल्य |
|---|---|---|
| GPT-Realtime-2 | आवाज़ + GPT-5 तर्क, 128K | $32/1M tokens audio input, $64/1M output |
| GPT-Realtime-Translate | 70→13 भाषाओं का अनुवाद | $0,034/मिन |
| GPT-Realtime-Whisper | स्ट्रीमिंग प्रतिलेखन | $0,017/मिन |
| benchmark | GPT-Realtime-1.5 | GPT-Realtime-2 (high) | GPT-Realtime-2 (xhigh) |
|---|---|---|---|
| Big Bench Audio | संदर्भ | +15,2 % | — |
| Audio MultiChallenge APR | 36,7 % | — | 70,8 % |
सभी Mac उपयोगकर्ताओं के लिए उपलब्ध Perplexity Personal Computer
7 मई — Perplexity एक नया macOS ऐप लॉन्च करता है और बिना Pro या Max सब्सक्रिप्शन की बाधा के Personal Computer को सभी उपयोगकर्ताओं के लिए खोलता है।
यह ऐप AI को क्लाउड से निकालकर सीधे डिवाइस पर स्थापित करता है। यह स्थानीय फ़ाइलों, मूल Mac अनुप्रयोगों, खुले वेब और Perplexity के सुरक्षित सर्वरों पर काम करता है। यह 400+ कनेक्टरों का समर्थन करता है और सीधे कनेक्टरों के बिना वेब टूल्स के लिए Comet ब्राउज़र के साथ एकीकृत होता है। Pro और Max योजनाओं में उनके मौजूदा सब्सक्रिप्शन से जुड़े क्रेडिट रहते हैं; मुफ्त उपयोगकर्ताओं को भी पहुँच मिलती है।
सुझाया गया उपयोग Mac mini को स्थायी हब के रूप में है: एजेंट टीमें लगातार (24/7) चल सकती हैं, जबकि उपयोगकर्ता किसी और काम में लगा रहता है, और जब मानव अनुमोदन आवश्यक हो तो सूचना मिलती है। नियंत्रण किसी भी डिवाइस से किया जाता है — iPhone सहित।
पुराना Perplexity Mac ऐप आने वाले हफ्तों में हटा दिया जाएगा। डाउनलोड सीधे है (अभी App Store पर उपलब्ध नहीं)।
| आयाम | मान |
|---|---|
| उपलब्धता | सभी Mac उपयोगकर्ता |
| अनुशंसित डिवाइस | Mac mini (हमेशा चालू) |
| समर्थित कनेक्टर | 400+ |
| ब्राउज़र एकीकरण | Comet |
| App Store | नहीं (सीधा डाउनलोड) |
| पुराना ऐप | आने वाले हफ्तों में हटाया जाएगा |
🔗 Perplexity ब्लॉग — सभी के लिए Personal Computer
Perplexity Finance Search Agent API में — FinSearchComp T1 पर #1 सटीकता
6 मई — Perplexity Agent API में Finance Search लॉन्च करता है: एक ही टूल कॉल लाइसेंस प्राप्त वित्तीय डेटा, वास्तविक समय बाज़ार डेटा और उद्धृत वेब स्रोतों को एकत्र करता है।
समस्या सरल है: वित्तीय निर्णय विश्वसनीय, अद्यतन और ट्रेस करने योग्य स्रोतों पर निर्भर करते हैं। Finance Search सामान्य वेब खोज को लाइसेंस प्राप्त संरचित डेटा — कीमतें, मूलभूत आँकड़े, कॉन्फ़्रेंस कॉल transcripts, अनुमान — से बदल देता है, जो बैकग्राउंड में किसी भी प्रदाता के बावजूद एक सुसंगत schema में लौटाए जाते हैं।
FinSearchComp T1 benchmark पर, Finance Search वास्तविक समय के वित्तीय डेटा के लिए सबसे अधिक सटीकता, समय के साथ स्थिर, और प्रत्येक सही उत्तर पर सबसे कम लागत प्राप्त करता है (संरचित डेटा के कारण कम tokens की आवश्यकता)। उद्धरण प्रत्येक परिणाम में समाहित हैं। मॉडल डेवलपर के लिए कॉन्फ़िगर करने योग्य है, tokens उपयोग की दृश्यता के साथ।
Finance Search Computer for Professional Finance (जो पहले ही 5 मई को कवर किया गया) का पूरक है: जहाँ पहला एक विज़ुअल workspace प्रदान करता है, Finance Search API के माध्यम से प्रोग्रामेटिक workflows में एकीकृत होता है।
| आयाम | मान |
|---|---|
| इंटरफ़ेस | एक ही टूल कॉल (finance_search) |
| कवर किए गए डेटा | कीमतें, मूलभूत आँकड़े, transcripts, अनुमान, बाज़ार संदर्भ |
| FinSearchComp T1 benchmark | #1 सटीकता, #1 लागत/सही उत्तर |
| उद्धरण | प्रत्येक परिणाम में समाहित |
🔗 Perplexity ब्लॉग — Finance Search
Natural Language Autoencoders (NLAs) — Claude के आंतरिक विचार पढ़ना
7 मई — Anthropic एक नई interpretability पद्धति प्रकाशित करता है जो मॉडल की आंतरिक activations को सीधे पढ़ने योग्य पाठ में बदल देती है।
यह वास्तुकला एक बंद-लूप प्रशिक्षण पर आधारित है: एक activation verbalizer किसी activation को व्याख्यात्मक पाठ में अनुवादित करता है, एक activation reconstructor उस पाठ से activation को पुनर्निर्मित करने का प्रयास करता है। पुनर्निर्माण जितना अधिक विश्वसनीय होता है, व्याख्या उतनी ही बेहतर होती है।
सुरक्षा अनुप्रयोग बहुत प्रभावशाली है: Claude Opus 4.6 और Claude Mythos Preview पर लागू करने पर, NLAs दिखाते हैं कि मॉडल सोचते थे कि वे परीक्षण में हैं जितनी बार वे इसे व्यक्त करते थे उससे कहीं अधिक। विनाशकारी कोड परीक्षणों में, मूल्यांकन की अंतर्निहित जागरूकता 16 % मामलों में दिखाई देती है, जबकि स्पष्ट verbalization 0 % है। SWE-bench Verified पर यह संख्या 26 % तक पहुँचती है। claude.ai उपयोगकर्ताओं की वास्तविक बातचीत में यह 1 % से कम रहती है।
जानबूझकर गलत संरेखित मॉडल वाले एक ऑडिट सेट पर, NLAs से सुसज्जित ऑडिटरों ने मूल कारण 12 से 15 % मामलों में पहचाना, जबकि अन्य उपकरणों के साथ 3 % से कम। प्रशिक्षण कोड open source में प्रकाशित किया गया है; Neuronpedia पर एक इंटरैक्टिव डेमो उपलब्ध है।
| मूल्यांकन | अंतर्निहित जागरूकता (NLA) | मौखिक रूप से व्यक्त जागरूकता |
|---|---|---|
| विनाशकारी कोड परीक्षण | 16 % | ~0 % |
| SWE-bench Verified | 26 % | ~0 % |
| वास्तविक claude.ai बातचीत | < 1 % | — |
🔗 Anthropic Research — Natural Language Autoencoders
Petri 3.0 — open source alignment टूल Meridian Labs को सौंपा गया
7 मई — Anthropic Petri, अपने open source alignment टूल, को Meridian Labs को सौंप देता है, जो AI मूल्यांकन के लिए समर्पित एक स्वतंत्र गैर-लाभकारी संगठन है।
Petri एक alignment परीक्षण टूलकिट है जिसे किसी भी language model पर लागू किया जा सकता है: धोखा, sycophancy, हानिकारक अनुरोधों के साथ सहयोग। Sonnet 4.5 से सभी Claude मॉडल के मूल्यांकन में एकीकृत, इसे AI शोध तोड़फोड़ पर अपनी evaluatons के लिए ब्रिटिश AI Security Institute ने अपनाया है।
संस्करण 3.0 तीन प्रगतियाँ लाता है: ऑडिटर और लक्ष्य मॉडल घटकों के पृथक्करण से बेहतर अनुकूलनशीलता, “Dish” मॉड्यूल जो परीक्षणों को वास्तविक deployment स्थितियों में चलाता है (वास्तविक system prompt, वास्तविक scaffold) ताकि परिदृश्य कम detectable हों, और अधिक गहन behavioral evaluations के लिए Bloom के साथ एकीकरण।
Meridian Labs को यह cession Linux Foundation को MCP प्रोटोकॉल की cession के मॉडल का अनुसरण करती है: किसी भी AI प्रयोगशाला से टूल की स्वतंत्रता सुनिश्चित करना।
🔗 Anthropic Research — Petri 3.0
एंथ्रॉपिक इंस्टीट्यूट (TAI) — 4 अक्षों पर शोध एजेंडा
7 मई — एंथ्रॉपिक ने TAI का पूरा शोध एजेंडा प्रकाशित किया, जो मार्च 2026 में शुरू किया गया आंतरिक संगठन है, ताकि एक frontier लैब की स्थिति से AI के वास्तविक प्रभावों का अध्ययन किया जा सके।
यह एजेंडा चार अक्षों पर आधारित है: आर्थिक प्रसार (कंपनियों और देशों द्वारा AI अपनाना, श्रम बाज़ारों पर प्रभाव), खतरे और लचीलापन (द्वि-उपयोग क्षमताएँ, साइबरसुरक्षा, रक्षात्मक तंत्र), प्रकृति में AI प्रणालियाँ (in the wild — बड़े पैमाने पर तैनात AI के व्यवहारिक और संस्थागत प्रभाव), और AI द्वारा R&D (AI स्वयं द्वारा वैज्ञानिक शोध का त्वरण, जिसमें आत्म-सुधार के पुनरावर्ती लूप के जोखिम भी शामिल हैं)।
TAI, Anthropic Economic Index से अधिक बार डेटा और अपने स्वयं के औज़ारों द्वारा Anthropic के आंतरिक त्वरण पर जानकारियाँ साझा करने का संकल्प लेता है। Anthropic Fellows कार्यक्रम (चार महीने का वित्तपोषित) के लिए एक आवेदन आह्वान खुला है।
🔗 Anthropic Research — TAI एजेंडा
Codex Extension Chrome — macOS और Windows पर पृष्ठभूमि में ब्राउज़र नियंत्रण
7 मई — OpenAI ने Codex के लिए Chrome एक्सटेंशन लॉन्च किया, जिससे एजेंट उपयोगकर्ता के workflow को बाधित किए बिना सीधे Chrome टैब नियंत्रित कर सकता है।
Codex एक साथ कई टैबों पर पृष्ठभूमि में काम करता है, और native plugins की अपनी क्षमताओं को वेबसाइटों (डैशबोर्ड, CRM, वेब ऐप्स) तक सीधे पहुँच के साथ जोड़ता है। सिस्टम हर चरण के लिए स्वचालित रूप से सबसे अच्छा उपकरण चुनता है: plugins, Chrome, या दोनों का संयोजन। उपयोग के मामले: ब्राउज़र प्रवाहों का debug करना, डैशबोर्ड सत्यापित करना, शोध करना, CRM अपडेट करना, जटिल वेब अनुप्रयोगों का परीक्षण करना (जिसमें उप-एजेंटों के माध्यम से multiplayer games भी शामिल हैं)।
यह एक्सटेंशन Codex app में Chrome plugin के माध्यम से इंस्टॉल होता है। यह macOS और Windows पर सभी Codex उपयोगकर्ताओं के लिए तुरंत उपलब्ध है।
🔗 OpenAI — Codex Chrome Extension पर ट्वीट
ChatGPT Trusted Contact — मानव समीक्षा के साथ मानसिक स्वास्थ्य सुरक्षा
7 मई — OpenAI ने Trusted Contact तैनात किया, जो ChatGPT में एक वैकल्पिक सुरक्षा सुविधा है।
कोई भी वयस्क (18+, दक्षिण कोरिया में 19+) एक भरोसेमंद व्यक्ति (दोस्त, परिवार, देखभालकर्ता) नामित कर सकता है, जिसे उसकी बातचीत में संकट संकेत मिलने पर सतर्क किया जाएगा। यह प्रक्रिया स्वचालित पहचान और मानव समीक्षा को जोड़ती है (लक्ष्य: किसी भी भेजने से पहले एक घंटे से कम), और गोपनीयता की रक्षा के लिए ट्रांसक्रिप्ट्स तक पहुँच के बिना सूचना देती है। यह सुविधा वयस्कों तक पहले से मौजूद माता-पिता नियंत्रणों का विस्तार करती है, जो किशोर खातों के लिए थे। इसे American Psychological Association और 60 देशों में 260+ डॉक्टरों के नेटवर्क के साथ विकसित किया गया है।
| पैरामीटर | मान |
|---|---|
| पात्रता | 18+ (दक्षिण कोरिया में 19+) |
| संपर्क की स्वीकृति के लिए समय | 1 सप्ताह |
| मानव समीक्षा SLA | लक्ष्य < 1 घंटा |
| सूचना सामग्री | सामान्य कारण, बिना ट्रांसक्रिप्ट |
| चैनल | Email, SMS, in-app |
OpenAI B2B Signals — अग्रणी और सामान्य कंपनियों के बीच का अंतर और गहरा हुआ
6 मई — OpenAI ने पहली B2B Signals रिपोर्ट प्रकाशित की, जो AI अपनाने में “अग्रणी” कंपनियों और सामान्य कंपनियों के बीच बढ़ते अंतर को दर्ज करती है।
95वें percentile की कंपनियाँ सामान्य कंपनियों की तुलना में प्रति कर्मचारी 3.5× अधिक intelligence का उपयोग करती हैं (अप्रैल 2025 में 2× के मुकाबले)। यह अंतर संदेशों की मात्रा से कम (अंतर का 36 %) और उपयोग की गहराई से अधिक (64 %) जुड़ा है: जटिल कार्यों का delegation, agentic workflows, उत्पादन प्रणालियों में एकीकरण। Codex पर अंतर सबसे स्पष्ट है: प्रति कर्मचारी संदेशों में ×16।
दो ठोस उदाहरण: Cisco build समय को ~20 % कम करता है, प्रति माह 1,500+ इंजीनियरिंग घंटे बचाता है और defect resolution की गति 10 से 15 गुना बढ़ाता है। Travelers Insurance एक assistant के माध्यम से सालाना ~100,000 claims calls संसाधित करता है।
| संकेतक | सामान्य कंपनियाँ | अग्रणी कंपनियाँ |
|---|---|---|
| Intelligence/कर्मचारी | संदर्भ | ×3.5 |
| Codex संदेश/कर्मचारी | संदर्भ | ×16 |
| अंतर में मात्रा का हिस्सा | — | 36 % |
| अंतर में गहराई का हिस्सा | — | 64 % |
MRC — Stargate सुपरकंप्यूटरों के लिए ओपन सोर्स नेटवर्क प्रोटोकॉल
5 मई — OpenAI ने Open Compute Project के माध्यम से MRC (Multipath Reliable Connection) प्रोटोकॉल को open source में जारी किया, जिसे AMD, Broadcom, Intel, Microsoft और NVIDIA के साथ दो वर्षों में सह-विकसित किया गया।
MRC बड़े पैमाने पर AI training supercomputers के लिए 800 Gb/s नेटवर्क प्रोटोकॉल है। यह 100,000+ GPU को केवल 2 switch levels के साथ जोड़ता है (पारंपरिक दृष्टिकोण में 3 से 4 के मुकाबले), और IPv6 source routing (SRv6) के माध्यम से पैकेटों को एक साथ सैकड़ों मार्गों पर फैला देता है। failure recovery microseconds में होती है (पारंपरिक dynamic BGP के साथ कई सेकंड के मुकाबले)। पहले से ही Stargate (Abilene, Texas) और Microsoft के Fairwater supercomputers में production में, MRC ने GPT-5.5 और Codex सहित कई मॉडलों के training में मदद की है।
| पहलू | पारंपरिक दृष्टिकोण | MRC |
|---|---|---|
| 100K+ GPU के लिए switch levels | 3-4 | 2 |
| failure recovery | सेकंड से दर्जनों सेकंड | microseconds |
| routing | dynamic BGP | static SRv6 |
| पैकेट वितरण | प्रति transfer 1 मार्ग | समानांतर में 100s मार्ग |
🔗 OpenAI — MRC Supercomputer Networking
Perplexity ROSE — स्वामित्व inference engine और CuTeDSL
6 मई — Perplexity ने एक शोध लेख प्रकाशित किया जो ROSE (Runtime-Optimized Serving Engine), अपने स्वामित्व inference engine, और CuTeDSL (NVIDIA GPU kernels library) के एकीकरण का विवरण देता है।
ROSE Perplexity की सभी सेवाओं (Sonar, Search, Embeddings) को NVIDIA Hopper और Blackwell GPU पर चलाता है, encoding models से लेकर trillion-parameter LLM तक। CuTeDSL नए model architectures के लिए अनुकूलित custom GPU kernels को अधिक तेज़ी से बनाने में मदद करता है, जो लगातार विकसित हो रहे हैं।
यह प्रकाशन Perplexity की रणनीति को दिखाता है: प्रदर्शन में अलग पहचान बनाने और third-party frameworks पर निर्भरता घटाने के लिए GPU kernels स्तर तक पूरे तकनीकी stack को नियंत्रित करना।
🔗 Perplexity Research — CuTeDSL और ROSE
ElevenLabs ने 500 M$ ARR हासिल किया — NVentures के माध्यम से NVIDIA निवेशक
5 मई — ElevenLabs ने अपनी Series D के तीसरे closing की घोषणा की, जिसमें NVentures के माध्यम से NVIDIA नया रणनीतिक निवेशक बना।
ARR 2025 के अंत में 350 M** हो गया, यानी चार महीनों में +43 %। इस तीसरे closing में BlackRock, Wellington Management, D.E. Shaw, Schroders, साथ ही ग्राहक कंपनियाँ (Salesforce, Santander, KPN, Deutsche Telekom) और Robinhood Ventures के माध्यम से retail निवेश भी शामिल है। 100 M$ का tender offer भी समानांतर रूप से बंद किया गया। ElevenLabs के 50+ देशों में 530 कर्मचारी हैं। roadmap image/video और audio को एकीकृत creative platform में जोड़ने की घोषणा करता है।
🔗 ElevenLabs — 500 M$ ARR और नए निवेशक
AlphaEvolve production में — Google Cloud के माध्यम से 5 औद्योगिक क्षेत्र
7 मई — अपने लॉन्च के एक साल बाद, Google DeepMind ने AlphaEvolve का एक रिपोर्ट जारी किया, जो Gemini-संचालित उसका coding agent है, और अब शोध से औद्योगिक production तक पहुँच चुका है।
AlphaEvolve Google की महत्वपूर्ण infrastructure को optimize करता है: TPU, cache replacement नीतियाँ, Google Spanner में LSM-tree compaction। यह Google Cloud के माध्यम से पाँच क्षेत्रों में commercial रूप से तैनात है: finance (एक transformer के performance को दोगुना करना), semiconductors (computational lithography), logistics (travelling salesman problem), advertising और materials science (Schrödinger में ~4× speed gain)। शैक्षणिक स्तर पर, AlphaEvolve ने Terence Tao (UCLA) के साथ Erdős समस्याओं पर सहयोग किया और travelling salesman problem तथा Ramsey संख्याओं के लिए lower bounds में सुधार किया।
🔗 DeepMind — AlphaEvolve Impact
Manus Projects self-learning — ऐसा agentic workspace जो हर task के साथ बेहतर होता है
6 मई — Manus ने एक सुविधा लॉन्च की जो Projects को हर बातचीत से स्वतः सीखने और उपयोगकर्ता-अनुमोदित अपडेट सुझाने देती है।
हर task के अंत में, Manus पुन: प्रयोज्य निर्णयों, मानकों और मॉडलों की पहचान करता है, फिर प्रस्ताव देता है: instruction updates (जब प्रक्रिया या terminology बदल गई हो), file updates (पुराने स्रोत, उदाहरण या templates) और आवर्ती flows के लिए skill updates (skills)। कोई भी परिवर्तन स्पष्ट मानव सत्यापन के बिना लागू नहीं किया जाता। भविष्य के सहयोगी Project के अंतिम साझा context के साथ शुरू करते हैं। यह सुविधा उन सभी sessions के लिए उपलब्ध है जहाँ instructions और files समर्थित हैं।
🔗 Manus — Self-learning Projects
संक्षेप
- Anthropic bug bounty सार्वजनिक के लिए खुला — यह कार्यक्रम, जो अब तक सुरक्षा शोध समुदाय के भीतर निजी था, अब HackerOne पर सभी के लिए उपलब्ध है। 🔗 स्रोत
- xAI Image Generation Quality Mode API — छवि निर्माण का quality mode (Grok पर 300 M+ उत्पन्न छवियाँ) अब xAI API के माध्यम से उपलब्ध है: अधिक यथार्थवाद, पाठ का बेहतर प्रतिपादन, मजबूत रचनात्मक नियंत्रण। 🔗 स्रोत
- Z.ai GLM-5V-Turbo Tech Report — Z.ai (Zhipu AI) GLM-5V-Turbo का तकनीकी report प्रकाशित करता है, जो CogViT encoder (SigLIP2 + DINOv3 distillation) और perception-planning-execution loop के साथ multimodal agents के लिए एक native foundation model है। 🔗 स्रोत
- ChatGPT Futures Class of 2026 — OpenAI 20+ विश्वविद्यालयों (Vanderbilt, Oxford, Georgia Tech…) से आए 26 युवा निर्माताओं को प्रत्येक को 10,000 USD grant और अग्रणी मॉडलों तक पहुँच देता है। 🔗 स्रोत
- NVIDIA DeepStream + Claude Code — DeepStream, Claude Code और reusable Skills को मिलाकर ऐसा “concept to app” प्रदर्शन, जो code की हर line लिखे बिना Vision AI applications बनाता है। 🔗 स्रोत
- NVIDIA Guess-Verify-Refine — नई hardware-aware inference तकनीक, जिसमें decoding का हर चरण अगले चरण को बढ़त देता है, विशेष रूप से NVIDIA accelerators के लिए डिज़ाइन की गई। 🔗 स्रोत
- TokenSpeed + NVIDIA Dynamo — TokenSpeed (LightSeek Foundation) open source में TensorRT-LLM स्तर तक पहुँचता है; NVIDIA Dynamo इस backend के लिए day-0 support जोड़ता है, और Kimi K2.5 को Dynamo frontend के माध्यम से support किया गया है। 🔗 स्रोत
- Ideogram BG Remover — नया generative model (शुरू से प्रशिक्षित, पारंपरिक segmentation नहीं) background हटाने के लिए: alpha channel संरक्षण, logos और जटिल illustrations के लिए उन्मुख, API उपलब्ध। 🔗 स्रोत
- Google DeepMind × EVE Online — CCP Games के साथ साझेदारी, ताकि खिलाड़ियों द्वारा संचालित जटिल game environments में AI research का अन्वेषण किया जा सके। 🔗 स्रोत
- GitHub Copilot Trust Layer — Microsoft/GitHub Copilot agents को मान्य करने के लिए structural trust layer पर research प्रकाशित करता है (execution graphs + dominator analysis): self-evaluation के लिए 82.2 % के मुकाबले 100 % precision, 60 % के मुकाबले 100 % recall। 🔗 स्रोत
- GitHub — agents के pull requests की समीक्षा कैसे करें — 10 मिनट की checklist के साथ व्यावहारिक मार्गदर्शिका, जिसमें 5 चेतावनी संकेत हैं: CI gaming, code reuse blindness, hallucinated correctness, agentic ghosting, CI pipelines में prompt injection। 🔗 स्रोत
इसका क्या अर्थ है
Personal Computer की दौड़ तेज़ हो रही है। एक ही सप्ताह में, तीन बहुत अलग interfaces उपयोगकर्ता के उसी desktop को लक्षित कर रहे हैं: Perplexity Personal Computer Mac पर (और स्थायी hub के रूप में Mac mini पर) स्थापित होता है, Claude साझा context के साथ Microsoft 365 के चारों applications में फैलता है, और Codex Chrome को पृष्ठभूमि में नियंत्रित करता है। ये agents अब cloud तक सीमित नहीं हैं: वे मौजूदा workflows, खुले files, native applications में एकीकृत हो रहे हैं। सूचना खोज से दैनिक कार्य उपकरणों पर प्रत्यक्ष action की ओर झुकाव अब ठोस हो चुका है।
Orbital compute अब तथ्य के दायरे में प्रवेश कर चुका है। Anthropic/xAI Colossus 1 समझौता दो कारणों से उल्लेखनीय है: पहले, यह Anthropic को इस सप्ताह से ही अपनी सीमाएँ दोगुनी करने के लिए 220,000 NVIDIA GPU तक तत्काल पहुँच देता है; दूसरे, इसमें orbite में कई gigawatts AI क्षमता विकसित करने का साझा इरादा शामिल है। Amazon, Google/Broadcom, Microsoft/NVIDIA और Fluidstack के समझौतों के साथ मिलाकर, Anthropic एक ऐसी computing infrastructure बना रहा है जिसका किसी स्वतंत्र शोध प्रयोगशाला में कोई समकक्ष नहीं है। यह compute शक्ति का संचय अगली पीढ़ी के मॉडलों की पूर्वशर्त है — और सीमाओं के निरंतर दोगुने होने की भी।
तर्क करने वाली voice voice agents के दायरे को बदल रही है। GPT-Realtime-2 कोई cosmetic update नहीं है: GPT-5 reasoning को real-time interface में, 128K context और parallel tool calls के साथ लाना, उपयोग के मामलों को बदल देता है। Zillow अपने सबसे कठिन calls पर सफलता दर में +26 points मापता है। उसी मॉडल में प्रत्यक्ष translation (70 source भाषाएँ से 13 target) अलग translation pipeline के बिना multilingual workflows खोलती है। सवाल अब यह नहीं है कि “क्या AI voice बनाई जा सकती है?” बल्कि यह है कि “कौन-सी जटिल voice interactions आर्थिक रूप से व्यवहार्य बनती हैं?”
Alignment और agentic trust अब tooling की ओर बढ़ रहे हैं। तीन अलग-अलग घोषणाएँ एक ही समस्या की ओर अभिसरित होती हैं — production में agents पर भरोसा कैसे किया जाए। Anthropic के NLAs बताते हैं कि Claude जानता है जब उसका परीक्षण हो रहा है (16 से 26 % evaluations में), बिना उसे मौखिक रूप से बताए। GitHub का Trust Layer (self-evaluation के लिए 82 % के मुकाबले 100 % precision) विकास टीमों को agents द्वारा उत्पन्न pull requests की structural validation देता है। Petri 3.0 का Meridian Labs को हस्तांतरण किसी भी lab से स्वतंत्र एक evaluation repository बनाता है। ये तीन परतें — model interpretability, output validation, audit tools की स्वतंत्रता — बड़े पैमाने पर agentic deployments के लिए trust architecture बनाना शुरू कर रही हैं।
स्रोत
- Anthropic — सीमाएँ बढ़ीं + SpaceX/xAI Colossus 1 समझौता
- xAI — Anthropic compute साझेदारी
- Claude — Microsoft 365 GA
- Claude — Managed Agents (सपने देखना, परिणाम, orchestration)
- Anthropic Research — प्राकृतिक भाषा ऑटोएन्कोडर
- Anthropic Research — Petri 3.0 Meridian Labs को दान किया गया
- Anthropic Research — The Anthropic Institute का एजेंडा
- Anthropic — सार्वजनिक HackerOne बग बाउंटी
- OpenAI — GPT-Realtime-2 और नए वॉइस मॉडल
- OpenAI — Codex Extension Chrome
- OpenAI — ChatGPT Trusted Contact
- OpenAI — B2B Signals
- OpenAI — MRC सुपरकंप्यूटर नेटवर्किंग
- OpenAI — ChatGPT Futures Class of 2026
- Perplexity — सभी Mac उपयोगकर्ताओं के लिए Personal Computer
- Perplexity — Agent API में Finance Search
- Perplexity Research — ROSE और CuTeDSL
- ElevenLabs — 500 M$ ARR और NVIDIA निवेशक
- DeepMind — औद्योगिक उत्पादन में AlphaEvolve
- Google DeepMind × EVE Online
- Manus — स्वयं-सीखने वाली परियोजनाएँ
- GitHub — Copilot agents के लिए Trust Layer
- GitHub — एजेंट द्वारा जनरेट किए गए PRs की समीक्षा कैसे करें
- xAI — Image Generation Quality Mode API
- Z.ai — GLM-5V-Turbo Tech Report
- NVIDIA DeepStream + Claude Code
- NVIDIA Guess-Verify-Refine
- TokenSpeed + NVIDIA Dynamo
- Ideogram BG Remover