खोजें

Copilot CLI रिमोट कंट्रोल, MiniMax M2.7, Qwen3.5-Omni API

Copilot CLI रिमोट कंट्रोल, MiniMax M2.7, Qwen3.5-Omni API

13 अप्रैल 2026, GitHub Copilot CLI सत्रों के लिए रिमोट कंट्रोल (remote control) सुविधा लॉन्च करता है, जिससे केवल एक QR code का उपयोग करके web या फोन से एक terminal को नियंत्रित किया जा सकता है। MiniMax M2.7 प्रकाशित करता है, एक agent model जो ModelScope पर उपलब्ध है और पहले ही दिन से एक operational cloud ecosystem के साथ आता है। Alibaba दुनिया भर के developers के लिए Qwen3.5-Omni API उपलब्ध कराता है, और Google DeepMind घोषणा करता है कि Gemini 3.1 Flash Live (Thinking) अब voice agents के लिए τ-Voice ranking में पहले स्थान पर है।


GitHub Copilot CLI — वेब और मोबाइल से रिमोट कंट्रोल

13 अप्रैल — GitHub copilot --remote को public preview में लॉन्च करता है: एक मौजूदा Copilot CLI session अब GitHub.com या GitHub Mobile app से देखा और नियंत्रित किया जा सकता है, बिना machine तक सीधे पहुँच के।

काम करने का तरीका सरल है: remote session शुरू करते समय CLI एक link और QR code दिखाता है। उस link को browser या phone से खोलने पर user को चल रहे session का interface मिल जाता है। synchronization bidirectional है — web या mobile पर की गई actions terminal में दिखाई देती हैं, और उल्टा भी।

सुविधाविवरण
शुरुआतमौजूदा session में copilot --remote या /remote
पहुँचCLI द्वारा दिखाया गया link + QR code
ऐप्सGitHub.com + GitHub Mobile (iOS TestFlight, Android Google Play beta)
synchronizationreal time में bidirectional
गोपनीयतानिजी session, केवल उसी user को visible जिसने इसे शुरू किया
session बनाए रखनालंबे tasks के दौरान sleep से बचने के लिए /keep-alive command

सभी सामान्य CLI सुविधाएँ remote रूप से भी उपलब्ध रहती हैं: session के दौरान steering, plan review और modification, mode बदलना (plan / interactive / autopilot), permissions approve या refuse करना, ask_user के questions का जवाब देना।

Companies के लिए नोट: Copilot Business या Enterprise users को उपयोग से पहले एक administrator से remote control और CLI policies enable करवानी होती हैं।

🔗 GitHub Changelog घोषणा


MiniMax M2.7 — day-0 cloud ecosystem के साथ open-source agent model

12 अप्रैल — MiniMax M2.7 प्रकाशित करता है, एक agent architecture वाला LLM जो ModelScope पर उपलब्ध है, और day one से operational vLLM integration के साथ आता है।

प्रकाशित performance के अनुसार M2.7, उपलब्ध best coding models के स्तर तक पहुँचता है:

BenchmarkM2.7 स्कोर
SWE-Pro56,22% (GPT-5.3-Codex के बराबर)
Terminal Bench 257,0%

यह model multi-agent orchestration (Agent Teams), advanced coding और command line tasks के automation के लिए बनाया गया है। यह Together AI (serverless और dedicated) तथा Fireworks AI के माध्यम से तुरंत उपलब्ध है।

ध्यान दें: प्रकाशन के बाद MiniMax ने स्पष्ट किया कि M2.7 license के सख्त अर्थ में open-source नहीं है — model को संशोधित उपयोग शर्तों के साथ दोबारा प्रकाशित किया गया।

🔗 ModelScope पर open-source घोषणा 🔗 day-0 vLLM support 🔗 Together AI उपलब्धता


Qwen3.5-Omni API — अंतरराष्ट्रीय उपलब्धता

13 अप्रैल — Tongyi Lab (Alibaba) Alibaba Cloud Model Studio के माध्यम से Qwen3.5-Omni API की international availability की घोषणा करता है। qwen3.5-omni-plus model तुरंत एक API key के साथ accessible है।

29 मार्च 2026 को एक research article में प्रस्तुत, Qwen3.5-Omni एक native omnimodal model है: यह text, images, audio और video को एक ही inference में process करता है, multi-step pipeline के बिना। इसके दो operating modes हैं — Thinker (reasoning) और Talker (voice conversation) — एक hybrid architecture के माध्यम से।

“Now our Qwen3.5-Omni API is officially live, and it’s ready to transform how you process video content.”

🇮🇳 Qwen3.5-Omni API अब आधिकारिक रूप से उपलब्ध है, जो video content को संभालने के तरीके को बदलने के लिए तैयार है।@Ali_TongyiLab on X

🔗 घोषणा थ्रेड 🔗 Alibaba Cloud Model Studio


Gemini 3.1 Flash Live (Thinking) — τ-Voice रैंकिंग में नंबर 1

13 अप्रैल — Tulsee Doshi (Product Manager Google DeepMind) घोषणा करती हैं कि Thinking mode सक्रिय होने के साथ Gemini 3.1 Flash Live ने Sierra Platform के τ-Voice Leaderboard में पहला स्थान हासिल कर लिया है।

यह ranking real-time voice agents बनाने के लिए models के प्रदर्शन को मापती है: speech understanding, multi-turn reasoning, और production-जैसे परिदृश्यों में actions का execution। Gemini 3.1 Flash Live को 26 मार्च 2026 को लॉन्च किया गया था; यह परिणाम voice applications बनाने वाले developers के लिए इसकी क्षमताओं की पुष्टि करता है।

यह model Google AI Studio में Gemini Live API के माध्यम से उपलब्ध है।

🔗 X पर घोषणा 🔗 τ-Voice Leaderboard


Claude के लिए TurboTax और Aiwyn Tax connectors

12 अप्रैल — Henry Shi (Anthropic) Claude के लिए दो नए connectors की घोषणा करते हैं: TurboTax और Aiwyn Tax (पहले Column Tax), जिन्हें 15 अप्रैल की अमेरिकी tax filing deadline से कुछ दिन पहले लॉन्च किया गया।

एक बार connect होने पर, Claude refund या payable amount का अनुमान लगा सकता है, tax forms समझा सकता है और filing process में user का मार्गदर्शन कर सकता है। ये connectors Claude subscription वाले अमेरिकी users के लिए हैं।

🔗 X पर Henry Shi की घोषणा


इसका क्या मतलब है

GitHub की copilot --remote सुविधा दिन की सबसे महत्वपूर्ण है: यह लंबे CLI tasks के लिए उपयोग का एक नया तरीका खोलती है — एक workstation से session शुरू करना, फिर किसी भी device से उसे monitor या control करना। यह उन autonomous agents के use cases के लिए एक सीधा जवाब है जो घंटों तक चलते हैं।

models के स्तर पर, MiniMax M2.7 और Qwen3.5-Omni दो अलग-अलग रुझानों को दिखाते हैं: M2.7 उन developers को target करता है जो coding agents deploy करते हैं (day one vLLM integration के साथ, जबकि अधिकांश models इस ecosystem में देर से आते हैं); Qwen3.5-Omni native multimodality पर केंद्रित है, जिसमें video मुख्य argument है।

τ-Voice Leaderboard पर Gemini 3.1 Flash Live का परिणाम पुष्टि करता है कि Google production में voice agents के segment में गंभीरता से निवेश कर रहा है — एक ऐसा market जो अभी भी कम संरचित है लेकिन बढ़ रहा है।


स्रोत

यह दस्तावेज़ fr संस्करण से hi भाषा में gpt-5.4-mini मॉडल का उपयोग करके अनुवादित किया गया है। अनुवाद प्रक्रिया के बारे में अधिक जानकारी के लिए, https://gitlab.com/jls42/ai-powered-markdown-translator देखें