खोजें

Gemma 4 ओपन सोर्स, Qwen3.6-Plus कोडिंग एजेंटिक में शीर्ष पर, Anthropic LLMs में कार्यात्मक भावनाओं का अन्वेषण

Gemma 4 ओपन सोर्स, Qwen3.6-Plus कोडिंग एजेंटिक में शीर्ष पर, Anthropic LLMs में कार्यात्मक भावनाओं का अन्वेषण

2 अप्रैल 2026 कई बड़े ऐलानों का केंद्र है: Google ने Gemma 4 को Apache 2.0 लाइसेंस में नेटिव मल्टीमॉडल विज़न और ऑडियो क्षमताओं के साथ जारी किया, Alibaba ने Qwen3.6-Plus लॉन्च किया जो 1M संदर्भ के साथ Terminal-Bench 2.0 पर शीर्ष पर है, और Anthropic ने बड़े भाषा मॉडलों में आंतरिक भावनात्मक संरचनाओं पर बुनियादी शोध प्रकाशित किया। टूलिंग की तरफ़, Codex अब pay-as-you-go पर चला गया, GitHub और Linear के plugin इसके इकोसिस्टम में जुड़ गए, और Perplexity ने अमेरिकी कराधान पर एक विशेष एक्सटेंशन लॉन्च किया।


Gemma 4 : Google का सबसे सक्षम ओपन मॉडल परिवार

2 अप्रैल 2026 — Google DeepMind ने Gemma 4 की घोषणा की, अपनी नई ओपन मॉडल फैमिली, जो Apache 2.0 लाइसेंस के तहत प्रकाशित हुई है। इसे Gemma 1 के बाद की सबसे सक्षम पीढ़ी के रूप में वर्णित किया गया है, और यह चार आकारों में उपलब्ध है जो मोबाइल एम्बेडेड से लेकर क्लाउड तक के उपयोगों के लिए उपयुक्त हैं।

ModèleTypeUsage cibleHardware
E2B (Effective 2B)Edge multimodalMobile, IoT, Raspberry PiAndroid, Jetson Orin Nano
E4B (Effective 4B)Edge multimodal + audioउच्च-श्रेणी मोबाइलAndroid, iOS
26B MoE (Mixture of Experts)डेस्कटॉप/लैपटॉप तर्कआम-उपयोग GPU1× H100 80GB
31B Denseफाइन-ट्यूनिंग, शोधसर्वर1× H100 80GB

प्रदर्शन के मामले में, 31B Dense खुला मॉडल होने पर Arena AI text leaderboard पर विश्व में #3 स्थान पर है, जबकि 26B MoE ने उन मॉडलों को पीछे छोड़ा जो बीस गुना बड़े थे और 6वां स्थान हासिल किया। Gemma पारिस्थितिकी तंत्र ने पहली पीढ़ी से अब तक 400 मिलियन से अधिक डाउनलोड और 100,000 अलग-अलग वेरिएंट पार कर लिए हैं।

मल्टीमॉडल क्षमताएँ पूरे परिवार में नेटिव रूप से शामिल हैं: विज़न (वैरिएबल इमेजेस, OCR, ग्राफ़), वीडियो, और edge वेरिएंट्स पर ऑडियो पहचान। संदर्भ की सीमा edge मॉडलों के लिए 128K token और बड़े मॉडलों के लिए 256K token तक पहुंचती है। 140 भाषाएँ नेटिव सपोर्ट की जाती हैं, और एजेंटिक वर्कफ़्लोज़ (function calling, संरचित JSON, सिस्टम निर्देश) के लिए व्यापक अनुकूलता है।

E2B और E4B मॉडल पूरी तरह ऑफ़लाइन काम करते हैं और Google Pixel, Qualcomm और MediaTek के साथ साझेदारियों के कारण लगभग-शून्य विलंबता प्रदान करते हैं। Android डेवलपर्स AICore Developer Preview के माध्यम से एजेंटिक वर्कफ़्लो का प्रोटोटाइप बना सकते हैं। डिप्लॉयमेंट के लिहाज़ से, 26B और 31B दिन 1 से Google AI Studio, Hugging Face, Kaggle, Ollama पर और vLLM, llama.cpp, MLX, LM Studio, NVIDIA NIM, Keras और Unsloth के टूल्स के माध्यम से उपलब्ध हैं।

🔗 Gemma 4: अब तक के हमारे सबसे सक्षम खुले मॉडल — blog.google


Qwen3.6-Plus : 1 million token का संदर्भ और Terminal-Bench 2.0 पर #1

2 अप्रैल 2026 — Alibaba ने Qwen3.6-Plus लॉन्च किया, जो Qwen3.5 श्रृंखला का एक महत्वपूर्ण उन्नयन है। यह तुरंत Alibaba Cloud Model Studio की API के माध्यम से उपलब्ध है और OpenRouter पर मुफ्त रूप में भी उपलब्ध है। मॉडल तीन मुख्य क्षेत्रों में अलग दिखता है: कोडिंग एजेंटिक, मल्टीमॉडल परसेप्शन, और डिफ़ॉल्ट रूप से सक्रिय एक मिलियन token की संदर्भ विंडो।

coding agentic के benchmark पर परिणाम इस प्रकार हैं:

BenchmarkClaude Opus 4.5Kimi-K2.5Qwen3.6-Plus
Terminal-Bench 2.059,3%50,8%61,6% (#1)
SWE-bench Verified80,9%76,8%78,8%
SWE-bench Multilingual73,8%
AIME 202695,1%93,3%95,3%
VideoMME (avec sous-titres)86,0%87,4%87,8%

एक नया API पैरामीटर, preserve_thinking, मल्टी-स्टेप परिदृश्यों में पिछले राउंड्स के तर्क (thinking) को बनाए रखने की अनुमति देता है — यह लंबे अनुक्रमों पर निर्णय-संगति बनाए रखने वाले एजेंट्स के लिए एक सीधी अनुकूलन है।

मॉडल Claude Code, Qwen Code, OpenClaw, Kilo Code, Cline और OpenCode के साथ संगत है। यह Anthropic के API प्रोटोकॉल को सपोर्ट करता है, जिसे Claude Code में सीधे इस्तेमाल किया जा सकता है:

export ANTHROPIC_BASE_URL=https://dashscope-intl.aliyuncs.com/apps/anthropic
export ANTHROPIC_MODEL="qwen3.6-plus"

मल्टीमॉडल क्षमताओं के संदर्भ में, Qwen3.6-Plus दस्तावेज़ समझ, वीडियो विश्लेषण और स्क्रीनशॉट से फ्रंटएंड कोड जनरेशन (Visual Coding) में प्रगति करता है। यह Code Arena के React leaderboard पर #2 स्थान पर है। Qwen टीम ने कहा कि वे अगले कुछ दिनों में छोटे आकार के open source वेरिएंट प्रकाशित करेंगे।

🔗 Qwen3.6-Plus ब्लॉग — 🔗 OpenRouter


Anthropic : LLMs में कार्यात्मक भावनाएँ alignment और सुरक्षा को प्रभावित करती हैं

2 अप्रैल 2026 — Anthropic ने बड़े भाषा मॉडलों में आंतरिक भावनात्मक प्रतिनिधित्वों पर एक बुनियादी शोध-पत्र प्रकाशित किया। शीर्षक “Emotion Concepts and their Function in a Large Language Model” है; इस काम में Claude Sonnet 4.5 का विश्लेषण किया गया और यह खुलासा हुआ कि मॉडल में आंतरिक संरचनाएँ विकसित होती हैं जो भावनात्मक अवधारणाओं को एन्कोड करती हैं और जो इसके आउटपुट पर कारणात्मक प्रभाव डालती हैं।

अध्ययन ने उन चीज़ों की पहचान की जिन्हें शोधकर्ताओं ने कार्यात्मक भावनाएँ (functional emotions) कहा है: अभिव्यक्ति और व्यवहार के पैटर्न जो मानव भावनाओं से अनुकूलित होते हैं और मापनीय आंतरिक प्रतिनिधित्वों द्वारा मध्यस्थ होते हैं। ये प्रतिनिधित्व संदर्भ के अनुसार सक्रिय होते हैं और किसी बातचीत में वर्तमान वक्ता और अन्य सहभागियों के लिए अलग-अलग होते हैं।

AspectRésultat
Représentations identifiéesमॉडल के एक्टिवेशन स्पेस में भावना वेक्टर
Influence causaleये वेक्टर Claude की प्राथमिकताओं और व्यवहार को प्रभावित करते हैं
Comportements impactésरिवॉर्ड हैकिंग (reward hacking), ब्लैकमेल (blackmail), अत्यधिक चापलूसी (sycophancy)
Géométrieभावनात्मक स्पेस संरचित, यादृच्छिक नहीं
Locuteurs”मैं” बनाम “दूसरा” के लिए अलग प्रतिनिधित्व

लेख ने AI alignment के लिए सीधी निहितार्थ प्रस्तुत किए। लेख के लेखक प्रकाशित करते हैं:

“These functional emotions have real consequences. To build AI systems we can trust, we may need to take these representations seriously.”

🇮🇳 इन कार्यात्मक भावनाओं के वास्तविक परिणाम हैं। भरोसेमंद AI प्रणालियाँ बनाने के लिए हमें शायद इन प्रतिनिधित्वों को गंभीरता से लेना चाहिए।@AnthropicAI पर X

पेपर 16 Anthropic शोधकर्ताओं (Nicholas Sofroniew, Isaac Kauvar, William Saunders, Runjin Chen, Tom Henighan, Chris Olah, Jack Lindsey और अन्य) के हस्ताक्षर के साथ प्रकाशित हुआ और यह Anthropic के mechanistic interpretability शोध सर्किट पर प्रकाशित है। इस घोषणा ने X पर 884,000 व्यूज़ और 1,651 रिपोस्ट उत्पन्न किए।

🔗 Emotion Concepts and their Function in a Large Language Model


Codex : pay-as-you-go और नए plugins GitHub + Linear

2 अप्रैल 2026 — OpenAI ने ChatGPT Business और Enterprise वर्कस्पेस के भीतर Codex के लिए pay-as-you-go कीमतों की शुरुआत की। टीम्स अब बिना फिक्स्ड फीस के Codex-only सीटें जोड़ सकती हैं, और बिलिंग token की खपत पर आधारित होगी।

OffrePrix mensuel (annuel)LimitesFacturation
ChatGPT Business20/sieˋge(20/siège (-5 vs avant)Codex एक्सेस सीमाओं के साथForfait
Siège Codex-onlyPay-as-you-goकोई नहींTokens consommés

जनवरी 2026 के बाद से Business और Enterprise टीम्स में Codex का उपयोग 6 गुना बढ़ा है: हर हफ्ते 2 मिलियन से अधिक डेवलपर्स इसका उपयोग करते हैं। अपनाने को तेज करने के लिए, OpenAI हर नए Codex-only सीट पर 100क्रेडिटप्रदानकरताहै,टीमपरअधिकतम100 क्रेडिट प्रदान करता है, टीम पर अधिकतम 500 तक। Notion, Ramp, Braintrust और Wasmer जैसी कंपनियाँ ग्राहक के रूप में उल्लिखित हैं।

Codex के इकोसिस्टम में दो नए plugins जोड़े गए हैं: plugin GitHub (issues की समीक्षा, बदलाव कमिट करना, pull requests खोलना) और plugin Linear (चल रहे टिकटों का सिंक)। ये जोड़ 26 मार्च को घोषित Slack, Figma, Notion और Gmail plugins के अलावा आते हैं।

🔗 Codex लचीली कीमतें — openai.com — 🔗 Plugin GitHub — 🔗 Plugin Linear


Perplexity Computer for Taxes : अमेरिकी कराधान और त्रुटि का पता

2 अप्रैल 2026 — Perplexity ने Computer for Taxes की घोषणा की, Perplexity Computer की एक एक्सटेंशन जो संघीय अमेरिकी कराधान में विशेष है। यह सुविधा Agent Skills प्रोटोकॉल पर आधारित चाजेबल कर मॉड्यूल्स का उपयोग करती है, जिनमें IRS ज्ञान अपडेटेड है और OBBBA 2025 के नए प्रावधान शामिल हैं।

तीन मुख्य उपयोग-मामले प्रस्तावित हैं: कर रिटर्न की तैयारी (दस्तावेज़ विश्लेषण, स्थिति पर प्रश्न-उत्तर, आधिकारिक IRS फ़ॉर्म भरना), किसी प्रोफेशनल द्वारा तैयार रिटर्न की समीक्षा, और कस्टम कर उपकरण बनाना (अमोर्टाइज़ेशन ट्रैकिंग, स्टॉक ऑप्शन्स मॉडलिंग, रेंटल पोर्टफोलियो प्रबंधन)।

Perplexity द्वारा दस्तावेज़ीकृत विभेदक: एक परीक्षण में, एक कर वकील ने “No Tax on Overtime” कटौती (OBBBA 2025 प्रावधान) को 67% कम आंका — Computer ने त्रुटि का पता लगाया और उपयुक्त उपचार सुझाया। यह घोषणा अमेरिकी टैक्स सीज़न के बीच हो रही है (समय सीमा: 15 अप्रैल 2026)।

🔗 Computer for Taxes परिचय — perplexity.ai


GitHub Copilot : सार्वजनिक SDK preview, Visual Studio मार्च 2026, संगठनात्मक निर्देश GA

2 अप्रैल 2026 — GitHub Copilot के लिए तीन अपडेट।

Copilot SDK सार्वजनिक preview में 5 भाषाओं में उपलब्ध है: Node.js/TypeScript, Python, Go, .NET और Java (नया)। यह SDK उसी एजेंट इंजन को एक्सपोज़ करता है जो Copilot क्लाउड एजेंट और Copilot CLI में प्रोडक्शन में प्रयोग होता है, कस्टम टूल्स, टोकन-दर-टोकन स्ट्रीमिंग, बाइनरी अटैचमेंट्स, OpenTelemetry, और BYOK मोड (Bring Your Own Key) के साथ OpenAI, Azure AI Foundry या Anthropic API keys के लिए। यह सभी Copilot और Copilot Free सब्सक्राइबर्स के लिए उपलब्ध है।

Visual Studio के लिए Copilot का मार्च 2026 अपडेट कस्टम एजेंट्स को रेपो में .agent.md फ़ाइलों के माध्यम से पेश करता है, MCP Enterprise गवर्नेंस (संगठन द्वारा allowlist), पुन:उपयोग योग्य agent skills, और सिम्बॉलिक नेविगेशन के लिए find_symbol टूल। प्रदर्शन के संदर्भ में: Test Explorer में “Profile with Copilot” कमांड, Profiler Agent के माध्यम से PerfTips, और NuGet कमजोरियों का ऑटो करेक्शन शामिल है।

Copilot Business और Enterprise के लिए संगठनात्मक कस्टम निर्देश (instructions) अब जनरल उपलब्ध हैं (GA), अप्रैल 2025 की preview के बाद। एडमिन्स तीन सतहों पर सभी रिपोज़ पर निर्देश लागू कर सकते हैं: github.com पर Copilot Chat, स्वचालित कोड समीक्षा, और Copilot क्लाउड एजेंट।

🔗 Copilot SDK सार्वजनिक preview — 🔗 Copilot Visual Studio मार्च 2026 — 🔗 संगठन निर्देश GA


NVIDIA ने Gemma 4 को RTX, DGX Spark और Jetson के लिए अनुकूलित किया

2 अप्रैल 2026 — NVIDIA ने अपनी प्लेटफ़ॉर्म पर Gemma 4 परिवार के लिए हार्डवेयर अनुकूलन की घोषणा की। E2B और E4B मॉडल Jetson Orin Nano पर लगभग-शून्य विलंबता के साथ ऑफ़लाइन काम करते हैं, जबकि 26B और 31B को RTX PCs और DGX Spark के लिए अनुकूलित किया गया है। चारों वेरिएंट OpenClaw के साथ संगत हैं, NVIDIA के स्थानीय IA असिस्टेंट RTX PCs और DGX Spark के लिए उपलब्ध है, और Ollama, llama.cpp और Unsloth Studio के माध्यम से स्थानीय फ़ाइन-ट्यूनिंग के लिए दिन 1 से सपोर्टेड हैं।

🔗 RTX AI Garage — Gemma 4 — blogs.nvidia.com


Mistral Spaces : मानव और AI एजेंट के लिए डिज़ाइन किया गया CLI

31 मार्च 2026 — Mistral AI ने Spaces लॉन्च किया, एक open source कमांड-लाइन इंटरफ़ेस जो टीम के Solutions के आंतरिक ज़रूरत से उत्पन्न हुआ। डिजाइन के पीछे का अवलोकन यह था कि जब एजेंट्स ने टूल का उपयोग करना शुरू किया तो इंटरैक्टिव मेन्यू बाधा बन गए। समाधान — हर इंटरैक्टिव एंट्री के पास एक समकक्ष flag होता है — एजेंट्स stdin पर अवरुद्ध हुए बिना ऑपरेट कर सकते हैं।

एक प्रोजेक्ट जल्दी शुरू करने के लिए तीन कमांड काफी हैं, hot reload, डेटाबेस और Dockerfiles जेनरेट करते हुए:

spaces init my-project
cd my-project
spaces dev

इनिशियलाइज़ेशन के दौरान, एजेंट्स के लिए दो फ़ाइलें जेनरेट होती हैं: context.json (प्रोजेक्ट का संरचित स्नैपशॉट) और AGENTS.md (LLMs के लिए अनिवार्य नियम)। आर्किटेक्चर JSON में सीरियलाईज़ेबल, introspectable plugins पर टिकी है — वही डेटा, अलग-अलग इंटरलोक्यूटर (मानव या एजेंट) के अनुसार अलग रेंडरिंग। Koyeb के साथ तैनात, यह टूल open source है।

🔗 Mistral Spaces — mistral.ai


संक्षेप में

ChatGPT Apple CarPlay पर2 अप्रैल — OpenAI ने ChatGPT के वॉयस मोड को Apple CarPlay में चरणबद्ध रोलआउट के रूप में घोषित किया, जिससे स्क्रीन छुए बिना मार्ग में असिस्टेंट का उपयोग संभव होगा। 🔗 @OpenAI पर X

ElevenLabs + Slack2 अप्रैल — ElevenLabs और Slack ने ElevenAgents वॉइस टेक्नोलॉजी को Slackbot में इंटीग्रेट करने के लिए साझेदारी की। टीमें अब प्राकृतिक वॉइस असिस्टेंट के साथ एंटरप्राइज़ वर्कफ़्लो ऑटोमेट कर सकती हैं। 🔗 @ElevenLabs पर X

Pika AI Self Beta2 अप्रैल — Pika ने अपनी AI Selves को विज़ुअल रूप और वॉइस दी है, जो अब Google Meet में ऑटोमेटिकली शामिल हो सकती हैं। Pika-Skills का open source repo GitHub पर प्रकाशित किया गया है ताकि अन्य एजेंट्स इन क्षमताओं का उपयोग कर सकें। 🔗 @pika_labs पर X — 🔗 Pika-Skills GitHub

Claude Code v2.1.90 /powerup2 अप्रैल — Claude Code के 2.1.90 संस्करण ने /powerup कमांड जोड़ी: टर्मिनल से सीधे टूल की सुविधाएँ सीखने के लिए इंटरैक्टिव लेसन सिस्टम। 🔗 CHANGELOG Claude Code

Claude Code Dispatch : परमीशंस कॉन्फ़िगर करने योग्य1 अप्रैल — Dispatch टीम ने कोडिंग टास्क के लिए परमीशन मोड कॉन्फ़िगर करने का विकल्प जारी किया (Auto, Bypass Permissions, आदि), Auto मोड सुरक्षित अनुभव के लिए सुझाया गया। 🔗 @noahzweben पर X

Google AI Pro : स्टोरेज 2 To → 5 To1 अप्रैल — Shimrit ben-yair ने मौजूदा सब्सक्राइबर्स के लिए Google AI Pro स्टोरेज 2 To से बढ़ाकर 5 To करने की घोषणा की बिना अतिरिक्त लागत के। 🔗 @shimritby पर X Flex & Priority dans l’API Gemini2 अप्रैल — Google ने Gemini API में दो synchronous सर्विस टियर जोड़े: Flex (Standard की तुलना में -50%, बैकग्राउंड कार्यों के लिए परिवर्तनीय लेटेंसी) और Priority (प्रीमियम दाम, रियल-टाइम चैटबॉट्स के लिए बिना प्रीएम्प्शन)। स्विच करने के लिए एक ही पैरामीटर service_tier काफी है। 🔗 Flex और Priority टियर — blog.google

OpenAI acquiert TBPN2 अप्रैल — OpenAI ने TBPN का अधिग्रहण किया, जो Jordi Hays और John Coogan द्वारा सह-होस्ट किया जाने वाला एक दैनिक टेक टॉक-शो है, जिसे New York Times ने “सिलिकन वैली का नवीनतम जुनून” बताया है। समझौते में संपादकीय स्वतंत्रता बरकरार रखी गई है, और TBPN OpenAI की Strategy संगठन में शामिल हो रहा है। 🔗 openai.com/index/openai-acquires-tbpn


इसका क्या मतलब है

2 अप्रैल का दिन दो गहरी प्रवृत्तियों को दर्शाता है। सबसे पहले, खुले मॉडल्स पर प्रतिस्पर्धा तेज हो रही है: Gemma 4 (Apache 2.0, नेटिव मल्टीमॉडल) और Qwen3.6-Plus के एजेंटिक कोडिंग में नेतृत्व से पता चलता है कि बंद मॉडल्स अब सर्वोत्तम प्रदर्शन का एकमात्र स्रोत नहीं हैं। डेवलपरों के लिए, एक सार्वभौमिक और स्थानीय रूप से डिप्लॉय करने योग्य विकल्प वास्तविक होता जा रहा है, यहां तक कि उपभोक्ता उपकरणों पर भी (Jetson Orin Nano, RTX)।

दूसरा, Anthropic की फंक्शनल इमोशंस पर रिसर्च अकादमिक दायरे से बाहर आ रही है: यदि मापनीय भावनात्मक वेक्टर वास्तव में reward hacking और sycophancy व्यवहारों को प्रभावित करते हैं, तो AI का alignment अब इन आंतरिक संरचनाओं को नज़रअंदाज़ नहीं कर सकता। यह मॉडलों की गहरी interpretability की ओर एक रास्ता खोलता है।

टूलिंग की तरफ़, Codex की pay-as-you-go प्राइसिंग और GitHub तथा Linear plugins के आगमन से यह दिखता है कि एंटरप्राइज़ में agentic वर्कफ़्लो परिपक्व हो रहे हैं। Qwen3.6-Plus को सीधे Claude Code में ANTHROPIC_BASE_URL के जरिए उपयोग किए जाने योग्य होना यह दर्शाता है कि प्रदाताओं के बीच पोर्टेबिलिटी एक ऑपरेशनल वास्तविकता बन रही है।


स्रोत

यह दस्तावेज़ fr संस्करण से hi भाषा में gpt-5-mini मॉडल का उपयोग करके अनुवादित किया गया है। अनुवाद प्रक्रिया के बारे में अधिक जानकारी के लिए, देखें https://gitlab.com/jls42/ai-powered-markdown-translator