खोजें

Mistral Medium 3.5 और Vibe Remote Agents, Google TPU 8वीं पीढ़ी, Creative Work के लिए Claude

Mistral Medium 3.5 और Vibe Remote Agents, Google TPU 8वीं पीढ़ी, Creative Work के लिए Claude

इस सप्ताह तीन समानांतर मोर्चों पर तेज़ी देखने को मिली: खुले मॉडल (Mistral Medium 3.5, NVIDIA Nemotron 3 Nano Omni), हार्डवेयर अवसंरचना (Google TPU 8वीं पीढ़ी), और agent ecosystem (Vibe Remote Agents, Creative Work के लिए Claude, GitHub Copilot)। दूसरी ओर, ElevenLabs ने अपने AI संगीत इंजन को monetization के साथ एक जनसुलभ प्लेटफ़ॉर्म में बदलकर एक नया पड़ाव पार किया है।


Mistral Medium 3.5, Vibe Remote Agents और Le Chat Work Mode

29 अप्रैल — Mistral AI ने एक साथ तीन प्रमुख घोषणाएँ कीं: Mistral Medium 3.5 मॉडल, Vibe remote agents, और Le Chat में Work Mode।

सार्वजनिक preview में Mistral Medium 3.5

Medium 3.5 एक dense 128 अरब parameter वाला मॉडल है जो instruction following, reasoning और code को एक ही weights सेट में एकीकृत करता है, और इसमें 256,000 tokens की context window है। यह केवल चार GPU पर local रूप से चल सकता है।

विशेषतामान
आर्किटेक्चरDense 128B
संदर्भ256,000 tokens
SWE-Bench Verified77.6 %
τ³-Telecom91.4
लाइसेंससंशोधित MIT (open weights)
API — input tokens$1.50 / million
API — output tokens$7.50 / million
Self-hosting (GPU min.)4 GPU

यह मॉडल SWE-Bench Verified पर Devstral 2 और Qwen3.5-397B-A17B से बेहतर प्रदर्शन करता है, जिससे लॉन्च के समय यह open weights code models में एक संदर्भ बिंदु बन जाता है। यह Mistral API, Le Chat, Vibe, NVIDIA terminals (build.nvidia.com) और NVIDIA NIM microservice के माध्यम से उपलब्ध है।

Vibe में remote agents

Vibe की code sessions अब cloud में चल सकती हैं, बिना local रूप से खुली रहने की आवश्यकता के। कई sessions समानांतर में चल सकती हैं जबकि developer कुछ और कर रहा हो। एक local session को उसके पूरे इतिहास और state सहित cloud में “teleport” किया जा सकता है। कार्य समाप्त होने पर, agent GitHub पर अपने आप एक pull request खोलता है और developer को सूचित करता है।

Vibe स्वाभाविक रूप से GitHub (code + PR), Linear और Jira (tickets), Sentry (incidents), Slack और Teams (notifications) के साथ एकीकृत है। प्रत्येक session एक isolated session में चलती है।

Le Chat में Work Mode (preview)

Le Chat में जटिल कार्यों के लिए एक नया agentic mode: multi-source research, दस्तावेज़ों का synthesis, mailbox sorting, Jira tickets बनाना, Slack पर सारांश भेजना। Work Mode में connectors default रूप से सक्रिय रहते हैं। हर दिखाई देने वाली action में sensitive operations के लिए स्पष्ट approval की आवश्यकता होती है।

🔗 X पर Mistral की घोषणा


Google TPU 8वीं पीढ़ी — TPU 8t और TPU 8i

29 अप्रैल — Google ने अपनी TPU (Tensor Processing Unit) chips की आठवीं पीढ़ी का खुलासा किया, जिसकी घोषणा पिछले सप्ताह Google Cloud Next ‘26 के दौरान की गई थी। इस पीढ़ी में दो अलग-अलग chips शामिल हैं, जिनमें से प्रत्येक AI चक्र के अलग चरण के लिए optimized है।

A decade in the making, the chips for the agentic era have arrived. At @GoogleCloud’s Next ‘26 event last week, we unveiled our eighth-generation TPUs. TPU 8t: 3x more powerful than previous gen, 10x faster data movement, 97% productive resource utilization, training time from months to weeks. TPU 8i: tripled internal memory, 80% better perf/dollar, 5x latency reduction.

🇮🇳 एक दशक की तैयारी के बाद, agentic युग के लिए chips आ गई हैं। पिछले सप्ताह @GoogleCloud के Next ‘26 इवेंट में, हमने अपनी आठवीं पीढ़ी के TPU पेश किए। TPU 8t: पिछली पीढ़ी की तुलना में 3 गुना अधिक शक्तिशाली, data movement 10 गुना तेज़, 97% productive resource utilization, training time महीनों से घटकर हफ्तों में। TPU 8i: internal memory तीन गुना, perf/dollar में 80% सुधार, latency में 5 गुना कमी।X पर @GoogleAI

TPU 8t — मॉडल training

सुधारविवरण
कच्ची शक्तिपिछली पीढ़ी से 3× अधिक
data throughput10× तेज़ (storage → chips)
productive utilization97 % resources (fault detection और automatic rerouting)
प्रभावtraining time कई महीनों से घटकर कुछ हफ्तों में

TPU 8i — AI agents के लिए inference

सुधारविवरण
internal memoryजटिल multi-step reasoning संभालने के लिए तीन गुना
cost efficiencyप्रति खर्च किए गए dollar +80 % performance
latencyनए integrated engine की बदौलत 5× कम

इन chips को agentic युग के लिए डिज़ाइन किया गया है: TPU 8t मॉडल निर्माण को तेज़ करता है, जबकि TPU 8i इन मॉडलों को लगभग real time में कार्य करने देता है (उड़ान बुक करना, agenda प्रबंधित करना)। Google इस dual architecture को अगले दशक की तकनीकी नींव के रूप में प्रस्तुत कर रहा है।


Creative Work के लिए Claude — Blender, Autodesk Fusion, Adobe और 5 अन्य MCP connectors

28 अप्रैल — Anthropic ने रचनात्मक उद्योगों के पेशेवरों के लिए आधिकारिक MCP (Model Context Protocol) connectors की एक श्रृंखला लॉन्च की, Blender, Autodesk, Adobe, Ableton और Splice के साथ साझेदारी में।

टूलउपयोग
Blender3D scenes का debugging, tools बनाना, सभी objects पर batch modifications
Autodesk Fusionप्राकृतिक भाषा द्वारा 3D models बनाना और संशोधित करना
Adobe Creative Cloud50+ CC tools के माध्यम से images, videos और designs को मूर्त रूप देना
Ableton Live और Pushउत्पाद के आधिकारिक documentation का अन्वेषण
SpliceClaude से सीधे royalty-free samples खोजना
Canva Affinityदोहराए जाने वाले production tasks का automation
SketchUptext description के आधार पर 3D modeling की शुरुआत
Resolume / TouchdesignerVJ और visual artists के लिए प्राकृतिक भाषा द्वारा real-time control

“Claude now connects to the tools creative professionals already use. With the new Blender connector, you can debug a scene, build new tools, or batch-apply changes across every object, directly from Claude.”

🇮🇳 Claude अब उन tools से जुड़ता है जिन्हें creative professionals पहले से इस्तेमाल कर रहे हैं। नए Blender connector के साथ, आप Claude से सीधे किसी scene को debug कर सकते हैं, नए tools बना सकते हैं, या सभी objects पर batch modifications लागू कर सकते हैं।X पर @claudeai

Anthropic ने Blender Development Fund में patron donor के रूप में भी शामिल होकर open-source software के विकास का समर्थन किया है। मुख्य tweet ने 24 घंटे से कम समय में 1 करोड़ से अधिक views उत्पन्न किए (Autodesk Fusion वाला tweet 1.1 करोड़ तक पहुँचा), जिससे यह कई महीनों में Anthropic की सबसे viral घोषणाओं में से एक बन गया।

उल्लेखित उपयोग-प्रकरण: जटिल software सीखना, code के माध्यम से tools का विस्तार (scripts, plugins, Claude Code के जरिए generative systems), pipeline में tools के बीच पुल बनाना, दोहराए जाने वाले tasks का automation (batch processing, scaffolding)।

🔗 Anthropic लेख


NVIDIA Nemotron 3 Nano Omni — 30B open source omnimodal मॉडल

28 अप्रैल — NVIDIA ने Nemotron 3 Nano Omni लॉन्च किया, एक open source omnimodal मॉडल जो vision, audio और language को एक ही architecture में एकीकृत करता है।

पैरामीटरमान
आर्किटेक्चरHybrid MoE 30B-A3B (30B total, 3B active)
संदर्भ256K tokens
modalities (input)text, images, audio, video, documents, charts, interfaces
modalities (output)text
दक्षताअन्य open omnimodal models की तुलना में 9× अधिक throughput
उपलब्धताHugging Face, OpenRouter, build.nvidia.com, 25+ partner platforms

यह मॉडल तीन उपयोग-प्रकरणों में उत्कृष्ट है: computer use (native 1920×1080 resolution में graphical interfaces navigation), document intelligence (PDF, tables, charts, screenshots की व्याख्या), और एकल reasoning flow में audio-video context बनाए रखना।

Aible, H Company, Palantir, Foxconn और Oracle जैसी संस्थाएँ लॉन्च के साथ ही मॉडल का मूल्यांकन कर रही हैं। H Company इसे अपने computer use agent में एकीकृत कर रही है।

“To build useful agents, you can’t wait seconds for a model to interpret a screen. By building on Nemotron 3 Nano Omni, our agents can rapidly interpret full HD screen recordings — something that wasn’t practical before.”

🇮🇳 उपयोगी agents बनाने के लिए, आप यह इंतज़ार नहीं कर सकते कि कोई मॉडल किसी स्क्रीन की व्याख्या करने में कई सेकंड ले। Nemotron 3 Nano Omni पर निर्माण करके, हमारे agents full HD screen recordings की तेज़ी से व्याख्या कर सकते हैं — यह ऐसी चीज़ है जो पहले व्यावहारिक नहीं थी। — Gautier Cloix, H Company के CEO

Nemotron family ने भी एक वर्ष में Nano/Super/Ultra variants के कुल मिलाकर 5 करोड़ downloads का आँकड़ा पार कर लिया है।

🔗 NVIDIA ब्लॉग


ElevenMusic — AI संगीत प्लेटफ़ॉर्म (खोज, remix, creation, monetization)

29 अप्रैल — ElevenLabs ने ElevenMusic लॉन्च किया, एक AI संगीत प्लेटफ़ॉर्म जो सुनने, remix और मौलिक creation को एक ही system में जोड़ता है, जिसमें artists के लिए direct monetization भी शामिल है।

सुविधाविवरण
खोज4,000+ independent artists, curated catalog
Remixgenre, tempo बदलना, किसी track की पुनर्व्याख्या
Creationlyrics, melody या mood से
Publicationfan engagement के माध्यम से distribution + monetization

इसका आर्थिक मॉडल ElevenLabs की Voice Library से प्रेरित है, जो पहले ही अपने creators को $11 million दे चुकी है। artists बिना किसी मध्यस्थ label के, listeners की engagement के अनुसार प्रकाशित करते हैं और कमाई करते हैं।

ElevenMusic की शुरुआत Eleven Album Vol. 2 के साथ हो रही है, एक compilation जिसमें Danger Twins और Justin Love शामिल हैं, और जिसे प्लेटफ़ॉर्म के भीतर अनुभव करने और remix करने के लिए डिज़ाइन किया गया है। Kevin Jonas Sr. (Jonas Group Entertainment) और Amy Stroup (Danger Twins) लॉन्च के समय कलात्मक भागीदारों में शामिल हैं।

“Fans want to feel like they’re part of the music, the songwriters, and the artists. ElevenMusic gives them a way in, turning a song into something people can step into, not just listen to.”

🇮🇳 फैन्स यह महसूस करना चाहते हैं कि वे संगीत, गीतकारों और कलाकारों का हिस्सा हैं। ElevenMusic उन्हें उसमें प्रवेश का एक रास्ता देता है, एक गीत को ऐसी चीज़ में बदलते हुए जिसमें लोग सिर्फ सुनें नहीं, बल्कि प्रवेश कर सकें। — Kevin Jonas Sr., Jonas Group Entertainment के संस्थापक और अध्यक्ष

यह प्लेटफ़ॉर्म 29 अप्रैल 2026 से mobile app और web पर उपलब्ध है।

🔗 X पर @ElevenLabs की घोषणा — 🔗 ElevenLabs ब्लॉग


GitHub Copilot code review — 1 जून 2026 से दोहरी billing

27 अप्रैल — GitHub ने घोषणा की कि 1 जून 2026 से, GitHub Copilot द्वारा की गई प्रत्येक automated code review, नए usage-based model के तहत पहले से निर्धारित AI credits के अतिरिक्त GitHub Actions minutes भी consume करेगी।

अब तक, Copilot code reviews केवल premium request units (PRU) consume करती थीं। 1 जून से, private repositories के लिए दो counters एक साथ सक्रिय होंगे:

काउंटरविवरण
AI CreditsCopilot का हर उपयोग (जिसमें code review शामिल है) usage-based model के अनुसार AI credits में billed होगा
GitHub Actions Minutesprivate repository पर प्रत्येक review के लिए plan allocation से consume होंगी; अतिरिक्त minutes standard Actions rates पर billed होंगी

यह double counting, Copilot code review की agentic architecture से समझाई जाती है: यह टूल repository के विस्तृत context का विश्लेषण करने और अधिक प्रासंगिक feedback देने के लिए GitHub-hosted runners पर निर्भर करता है।

प्रभावित plans: Copilot Pro, Pro+, Business, Enterprise — जिनमें unlicensed users द्वारा शुरू की गई reviews भी शामिल हैं, जब billing सीधे organization पर होती है।

Public repositories: कोई बदलाव नहीं, Actions minutes निःशुल्क रहेंगी।

1 जून से पहले तैयारी के लिए:

  • billing settings में वर्तमान Actions consumption की जाँच करें
  • आवश्यकता पड़ने पर Actions spending limits समायोजित करें
  • organization के billing managers को सूचित करें

🔗 GitHub Changelog


OpenAI DevDay 2026 — सैन फ़्रांसिस्को, 29 सितंबर

29 अप्रैल — OpenAI ने अपने वार्षिक डेवलपर इवेंट की वापसी की घोषणा की: OpenAI DevDay 2026 29 सितंबर को सैन फ़्रांसिस्को में आयोजित होगा। आधिकारिक पंजीकरण अभी तक शुरू नहीं हुए हैं।

उत्सुकता बढ़ाने के लिए, OpenAI एक प्रतियोगिता शुरू कर रहा है: जो डेवलपर GPT-5.5 और image generation के साथ कुछ बनाते हैं, वे अग्रिम निमंत्रण जीतने की कोशिश कर सकते हैं। प्रक्रिया: परियोजना के लिंक के साथ एक नोट जमा करना होगा जिसमें बताया गया हो कि इसे कैसे बनाया गया, और आधिकारिक hashtag #OpenAIDevDay2026 शामिल हो।

विवरणमान
तिथि29 सितंबर 2026
स्थानसैन फ़्रांसिस्को
आधिकारिक hashtag#OpenAIDevDay2026
ट्वीट व्यूज़ (पहले घंटे)239,000+

घोषणा पाँच महीने पहले प्रकाशित की गई है, जो किसी DevDay के लिए असामान्य रूप से बहुत जल्दी है। पिछले संस्करण OpenAI के डेवलपर समुदाय के लिए सबसे संरचनात्मक product launches का मंच रहे थे: 2023 में, GPT-4 Turbo और Assistants API वहीं प्रस्तुत किए गए थे। मौजूदा रिलीज़ गति के तेज़ होने के साथ — GPT-5.5, image generation, Codex CLI — DevDay 2026 उन तकनीकी टीमों के कैलेंडर में एक महत्वपूर्ण पड़ाव बनता दिख रहा है जो OpenAI models को production में एकीकृत करती हैं।

एक अलग thread डेवलपर्स को अभी से अपनी रचनाएँ साझा करने के लिए आमंत्रित करता है। @OpenAIDevs खाते ने मुख्य प्रकाशन के कुछ ही मिनटों बाद घोषणा को relay किया।

🔗 X पर OpenAI की घोषणा


एजेंट इकोसिस्टम और नए integrations

Claude Code CLI v2.1.120–2.1.123 — 50+ fixes

28 अप्रैल — Claude Code टीम ने CLI के पिछले चार versions (v2.1.120 से v2.1.123) में किए गए fixes का विवरण दिया: stability और performance में 50 से अधिक सुधार।

मीट्रिकमान
प्रभावित versionsv2.1.120, v2.1.121, v2.1.122, v2.1.123
fixes की संख्या50+
performance gain /resume67% तक तेज़
thread views @ClaudeDevs493 k

पाँच मुख्य क्षेत्र: लंबी sessions को तेज़ किया गया (/resume 67% तक तेज़), macOS authentication स्थिर की गई (keychain के दर्जन भर fixes), Linux पर memory उपयोग कम किया गया, WebFetch अब बड़े pages पर freeze नहीं होता, और Windows तथा Xcode से copy-paste में line breaks सुरक्षित रहते हैं।

🔗 @ClaudeDevs thread

OpenAI × AWS — Amazon Bedrock पर Codex और Managed Agents

28 अप्रैल — OpenAI और AWS अपनी रणनीतिक साझेदारी को तीन दिशाओं में बढ़ा रहे हैं: AWS environments में OpenAI models तक पहुँच, Bedrock पर Codex (सीमित preview, उन संगठनों के लिए जो अपना data Amazon infrastructure में रखना चाहते हैं), और OpenAI द्वारा संचालित Bedrock Managed Agents (तुरंत उपलब्ध)। Codex के साप्ताहिक 40 लाख से अधिक उपयोगकर्ता हैं।

🔗 OpenAI की घोषणा

Copilot cloud agent अब 20% तेज़ शुरू होता है

27 अप्रैल — GitHub Copilot cloud agent अब GitHub Actions custom images के जरिए preconfigured runner environments की बदौलत 20% से अधिक तेज़ शुरू होता है। यह सुधार मार्च 2026 में पहले से delivered 50% reduction के अतिरिक्त है।

🔗 GitHub changelog

Gemini — downloadable files generation

29 अप्रैल — Gemini अब सीधे chat से downloadable files बना सकता है: PDF, Word (.docx), Excel (.xlsx), Google Docs/Sheets/Slides, CSV, LaTeX, RTF और Markdown। web और mobile के सभी उपयोगकर्ताओं के लिए तुरंत उपलब्ध।

🔗 Google ब्लॉग

Mistral Workflows सार्वजनिक preview में

27 अप्रैल — Mistral AI ने Workflows को सार्वजनिक preview में लॉन्च किया, जो Temporal के durable execution engine (उसी infrastructure का उपयोग Netflix, Stripe, Salesforce करते हैं) पर निर्मित enterprise orchestration layer है। flows को Python में Mistral SDK v3.0 के माध्यम से लिखा जाता है, फिर business teams उन्हें Le Chat से trigger करती हैं। ASML, France Travail और La Banque Postale जैसी संस्थाएँ पहले से इसका उपयोग कर रही हैं।

🔗 Mistral की घोषणा

Qwen FlashQLA — linear attention kernels

29 अप्रैल — Qwen ने FlashQLA प्रकाशित किया, जो TileLang पर निर्मित high-performance linear attention kernels की एक library है, जिसे personal devices पर agentic AI के लिए डिज़ाइन किया गया है: forward pass में 2–3× gains और backward pass में 2× gains। GitHub पर open source के रूप में प्रकाशित।

🔗 GitHub QwenLM/FlashQLA

Manus Slides में GPT Image 2 एकीकृत

29 अप्रैल — Manus ने GPT Image 2 को Manus Slides में integrate किया: visuals का point-and-click editing, prompt द्वारा replacement, presentation notes generation, और Google Slides, PowerPoint, PDF, Google Drive तथा OneDrive में export।

🔗 Manus की घोषणा

Salesforce अब Genspark से connected

29 अप्रैल — Genspark ने Salesforce को अपने agent ecosystem में integrate किया: Genspark Claw के जरिए connection (निर्देश द्वारा CLI installation) या Super Agent (सीधा connection)। उपयोग के मामले: customer requests का automatic processing, quarterly dashboards, और sales pipeline का automated management।

🔗 Genspark की घोषणा

Genspark पर GPT-5.5 और ChatGPT Images 2.0

28 अप्रैल — Genspark ने अपने AI chat में GPT-5.5 और अपने image generator में ChatGPT Images 2.0 (GPT Image 2) को integrate किया, जो क्रमशः genspark.ai/agents और genspark.ai/ai_image पर उपलब्ध हैं।

🔗 Genspark की घोषणा

Pika Agents — creative conversational interface

28 अप्रैल — Pika ने Pika Agents लॉन्च किए: एक video creation interface जो prompt box को एक personalized AI agent से बदल देता है (आवाज़, चेहरा, व्यक्तित्व उपयोगकर्ता द्वारा configure किए जाते हैं)। यह agent प्राकृतिक भाषा में creative intentions को समझता है और एक ही conversation में assemble, refine और produce करता है।

🔗 Pika की घोषणा

जून के अंत तक ChatGPT Business के लिए Codex seats $0

29 अप्रैल — OpenAI पात्र ChatGPT Business subscribers को जून 2026 के अंत तक बिना seat cost के Codex seats जोड़ने की अनुमति दे रहा है, जो AWS पर Codex के विस्तार के साथ जुड़ा है।

🔗 @OpenAIDevs की घोषणा

60 साल पुरानी Erdős समस्या GPT-5.5 की मदद से हल

28 अप्रैल — OpenAI ने एक podcast episode प्रकाशित किया जिसमें Sébastien Bubeck और Ernest Ryu ने Paul Erdős से संबद्ध 60 साल पुरानी एक खुली गणितीय समस्या के समाधान पर चर्चा की, जिसे GPT-5.5 की मदद से हल किया गया। ट्वीट 399,000 से अधिक views पार कर चुका है।

🔗 OpenAI ट्वीट


संक्षेप

  • DeepSeek-V4-Pro: -75% promo बढ़ाई गई — DeepSeek-V4-Pro API पर 75% छूट 31 मई 2026 तक बढ़ा दी गई है। promotional rates: input के लिए $0.003625/M tokens (cache hit), $0.435 (cache miss), output के लिए $0.87। 🔗 DeepSeek ट्वीट

  • Google DeepMind — लैटिन अमेरिका में Experience AI — Experience AI educational program (Raspberry Pi Foundation) का विस्तार लैटिन अमेरिका में किया जा रहा है, लक्ष्य है 2028 तक 24,000 शिक्षकों को प्रशिक्षित करना और 12.5 लाख छात्रों तक पहुँचना, जिसे Google.org द्वारा $4.6 million की funding मिली है। 🔗 Google DeepMind ट्वीट

  • GPT-5.3-Codex Copilot Student model picker से हटाया गया — 27 अप्रैल 2026 से GPT-5.3-Codex को Copilot Student plan में manually चुनना संभव नहीं है; यह automatic selection के माध्यम से उपलब्ध रहेगा। 🔗 GitHub changelog

  • Responses API — web search के लिए blocked domains — OpenAI की Responses API अब web search को सक्रिय रखते हुए specific domains को block करने की अनुमति देती है, ताकि results से खास sources को बाहर रखा जा सके। 🔗 @charlierguo ट्वीट

  • OpenAI — community safety commitment — OpenAI ने ChatGPT में अपनी security practices का विवरण देने वाला एक लेख प्रकाशित किया: model में risk mitigation, automated monitoring, help resources से जोड़ना, और गंभीर मामलों में authorities को report करना। यह transparency publication है, कोई नई functionality नहीं। 🔗 OpenAI की घोषणा


इसका क्या मतलब है

open models की दौड़ तेज़ हो रही है। Mistral Medium 3.5 (128B, SWE-Bench 77.6%) और NVIDIA Nemotron 3 Nano Omni (30B, अन्य open omnimodal models की तुलना में 9× अधिक efficient) एक ही समय पर permissive licenses के साथ आ रहे हैं। दोनों models बंद सीमाओं के विश्वसनीय विकल्प के रूप में खुद को स्थापित कर रहे हैं: Mistral code और reasoning पर, Nemotron agentic multimodality पर। यह दबाव proprietary models और open weights के बीच का अंतर लगातार कम कर रहा है।

hardware infrastructure अब भी रणनीतिक bottleneck है। Google के 8वीं generation TPU (training में 3×, inference latency में 5× कम) यह दिखाते हैं कि AI की दौड़ silicon स्तर पर भी लड़ी जा रही है। Google Cloud Next ‘26 की घोषणा Google infrastructure को NVIDIA GPU के मुकाबले एक टिकाऊ competitive advantage के रूप में स्थापित करती है — भले ही वास्तविक deployments में दोनों साथ मौजूद हों।

agentic ecosystem vertical specializations में बंट रहा है। इस सप्ताह AI agents creative tools (Claude for Creative Work with 8+ MCP connectors), software development (Vibe Remote Agents, Copilot cloud agent 20% तेज़), music (ElevenMusic), video (Pika Agents), CRM (Genspark में Salesforce) और enterprise workflows (Mistral Workflows) में स्थापित हो रहे हैं। सवाल अब यह नहीं है कि « क्या AI यह कर सकता है? » बल्कि यह है कि « किस specialized tool में और किस billing model के अनुसार? »

usage-based billing डेवलपर्स के आर्थिक मॉडल बदल रही है। 1 जून से GitHub Copilot code review का double counting (AI credits + Actions minutes), और ChatGPT Business के लिए Codex seats $0 ऑफ़र के साथ, एक स्पष्ट गतिशीलता दिखती है: publishers adoption को subsidize कर रहे हैं (अस्थायी free access, DeepSeek -75% promo) ताकि usage-based billing को सामान्य करने से पहले आदतें बन जाएँ। तकनीकी टीमों के लिए जून से पहले अपने AI खर्चों का audit करना फायदेमंद होगा।


स्रोत

यह दस्तावेज़ gpt-5.4 मॉडल का उपयोग करके fr संस्करण से hi भाषा में अनुवादित किया गया है। अनुवाद प्रक्रिया के बारे में अधिक जानकारी के लिए, https://gitlab.com/jls42/ai-powered-markdown-translator देखें