13 अप्रैल 2026, GitHub Copilot CLI सत्रों के लिए रिमोट कंट्रोल (remote control) सुविधा लॉन्च करता है, जिससे केवल एक QR code का उपयोग करके web या फोन से एक terminal को नियंत्रित किया जा सकता है। MiniMax M2.7 प्रकाशित करता है, एक agent model जो ModelScope पर उपलब्ध है और पहले ही दिन से एक operational cloud ecosystem के साथ आता है। Alibaba दुनिया भर के developers के लिए Qwen3.5-Omni API उपलब्ध कराता है, और Google DeepMind घोषणा करता है कि Gemini 3.1 Flash Live (Thinking) अब voice agents के लिए τ-Voice ranking में पहले स्थान पर है।
GitHub Copilot CLI — वेब और मोबाइल से रिमोट कंट्रोल
13 अप्रैल — GitHub copilot --remote को public preview में लॉन्च करता है: एक मौजूदा Copilot CLI session अब GitHub.com या GitHub Mobile app से देखा और नियंत्रित किया जा सकता है, बिना machine तक सीधे पहुँच के।
काम करने का तरीका सरल है: remote session शुरू करते समय CLI एक link और QR code दिखाता है। उस link को browser या phone से खोलने पर user को चल रहे session का interface मिल जाता है। synchronization bidirectional है — web या mobile पर की गई actions terminal में दिखाई देती हैं, और उल्टा भी।
| सुविधा | विवरण |
|---|---|
| शुरुआत | मौजूदा session में copilot --remote या /remote |
| पहुँच | CLI द्वारा दिखाया गया link + QR code |
| ऐप्स | GitHub.com + GitHub Mobile (iOS TestFlight, Android Google Play beta) |
| synchronization | real time में bidirectional |
| गोपनीयता | निजी session, केवल उसी user को visible जिसने इसे शुरू किया |
| session बनाए रखना | लंबे tasks के दौरान sleep से बचने के लिए /keep-alive command |
सभी सामान्य CLI सुविधाएँ remote रूप से भी उपलब्ध रहती हैं: session के दौरान steering, plan review और modification, mode बदलना (plan / interactive / autopilot), permissions approve या refuse करना, ask_user के questions का जवाब देना।
Companies के लिए नोट: Copilot Business या Enterprise users को उपयोग से पहले एक administrator से remote control और CLI policies enable करवानी होती हैं।
MiniMax M2.7 — day-0 cloud ecosystem के साथ open-source agent model
12 अप्रैल — MiniMax M2.7 प्रकाशित करता है, एक agent architecture वाला LLM जो ModelScope पर उपलब्ध है, और day one से operational vLLM integration के साथ आता है।
प्रकाशित performance के अनुसार M2.7, उपलब्ध best coding models के स्तर तक पहुँचता है:
| Benchmark | M2.7 स्कोर |
|---|---|
| SWE-Pro | 56,22% (GPT-5.3-Codex के बराबर) |
| Terminal Bench 2 | 57,0% |
यह model multi-agent orchestration (Agent Teams), advanced coding और command line tasks के automation के लिए बनाया गया है। यह Together AI (serverless और dedicated) तथा Fireworks AI के माध्यम से तुरंत उपलब्ध है।
ध्यान दें: प्रकाशन के बाद MiniMax ने स्पष्ट किया कि M2.7 license के सख्त अर्थ में open-source नहीं है — model को संशोधित उपयोग शर्तों के साथ दोबारा प्रकाशित किया गया।
🔗 ModelScope पर open-source घोषणा 🔗 day-0 vLLM support 🔗 Together AI उपलब्धता
Qwen3.5-Omni API — अंतरराष्ट्रीय उपलब्धता
13 अप्रैल — Tongyi Lab (Alibaba) Alibaba Cloud Model Studio के माध्यम से Qwen3.5-Omni API की international availability की घोषणा करता है। qwen3.5-omni-plus model तुरंत एक API key के साथ accessible है।
29 मार्च 2026 को एक research article में प्रस्तुत, Qwen3.5-Omni एक native omnimodal model है: यह text, images, audio और video को एक ही inference में process करता है, multi-step pipeline के बिना। इसके दो operating modes हैं — Thinker (reasoning) और Talker (voice conversation) — एक hybrid architecture के माध्यम से।
“Now our Qwen3.5-Omni API is officially live, and it’s ready to transform how you process video content.”
🇮🇳 Qwen3.5-Omni API अब आधिकारिक रूप से उपलब्ध है, जो video content को संभालने के तरीके को बदलने के लिए तैयार है। — @Ali_TongyiLab on X
🔗 घोषणा थ्रेड 🔗 Alibaba Cloud Model Studio
Gemini 3.1 Flash Live (Thinking) — τ-Voice रैंकिंग में नंबर 1
13 अप्रैल — Tulsee Doshi (Product Manager Google DeepMind) घोषणा करती हैं कि Thinking mode सक्रिय होने के साथ Gemini 3.1 Flash Live ने Sierra Platform के τ-Voice Leaderboard में पहला स्थान हासिल कर लिया है।
यह ranking real-time voice agents बनाने के लिए models के प्रदर्शन को मापती है: speech understanding, multi-turn reasoning, और production-जैसे परिदृश्यों में actions का execution। Gemini 3.1 Flash Live को 26 मार्च 2026 को लॉन्च किया गया था; यह परिणाम voice applications बनाने वाले developers के लिए इसकी क्षमताओं की पुष्टि करता है।
यह model Google AI Studio में Gemini Live API के माध्यम से उपलब्ध है।
🔗 X पर घोषणा 🔗 τ-Voice Leaderboard
Claude के लिए TurboTax और Aiwyn Tax connectors
12 अप्रैल — Henry Shi (Anthropic) Claude के लिए दो नए connectors की घोषणा करते हैं: TurboTax और Aiwyn Tax (पहले Column Tax), जिन्हें 15 अप्रैल की अमेरिकी tax filing deadline से कुछ दिन पहले लॉन्च किया गया।
एक बार connect होने पर, Claude refund या payable amount का अनुमान लगा सकता है, tax forms समझा सकता है और filing process में user का मार्गदर्शन कर सकता है। ये connectors Claude subscription वाले अमेरिकी users के लिए हैं।
इसका क्या मतलब है
GitHub की copilot --remote सुविधा दिन की सबसे महत्वपूर्ण है: यह लंबे CLI tasks के लिए उपयोग का एक नया तरीका खोलती है — एक workstation से session शुरू करना, फिर किसी भी device से उसे monitor या control करना। यह उन autonomous agents के use cases के लिए एक सीधा जवाब है जो घंटों तक चलते हैं।
models के स्तर पर, MiniMax M2.7 और Qwen3.5-Omni दो अलग-अलग रुझानों को दिखाते हैं: M2.7 उन developers को target करता है जो coding agents deploy करते हैं (day one vLLM integration के साथ, जबकि अधिकांश models इस ecosystem में देर से आते हैं); Qwen3.5-Omni native multimodality पर केंद्रित है, जिसमें video मुख्य argument है।
τ-Voice Leaderboard पर Gemini 3.1 Flash Live का परिणाम पुष्टि करता है कि Google production में voice agents के segment में गंभीरता से निवेश कर रहा है — एक ऐसा market जो अभी भी कम संरचित है लेकिन बढ़ रहा है।
स्रोत
- GitHub Changelog — Copilot CLI remote control (13 अप्रैल)
- MiniMax M2.7 — open-source ModelScope
- MiniMax M2.7 — vLLM support
- MiniMax M2.7 — Together AI
- MiniMax M2.7 — Fireworks AI
- Qwen3.5-Omni API उपलब्ध — मुख्य tweet
- Qwen3.5-Omni — Alibaba Cloud Model Studio
- Gemini 3.1 Flash Live Thinking — τ-Voice #1
- τ-Voice Leaderboard — Sierra Platform
- Claude के लिए TurboTax/Aiwyn Tax connectors
यह दस्तावेज़ fr संस्करण से hi भाषा में gpt-5.4-mini मॉडल का उपयोग करके अनुवादित किया गया है। अनुवाद प्रक्रिया के बारे में अधिक जानकारी के लिए, https://gitlab.com/jls42/ai-powered-markdown-translator देखें