بحث

ملحقات GitHub Copilot CLI للمؤسسات، BYOK في VS Code + /chronicle، وإصلاحات Claude Code لأكثر من 60 مشكلة

ملحقات GitHub Copilot CLI للمؤسسات، BYOK في VS Code + /chronicle، وإصلاحات Claude Code لأكثر من 60 مشكلة

ai-powered-markdown-translator

مقال مترجم من الفرنسية إلى العربية باستخدام gpt-5.4-mini.

عرض المشروع على GitHub ↗

يخطو GitHub Copilot خطوة جديدة في تبنّي enterprise مع الإدارة المركزية لملحقات CLI، بينما تجلب تحديثات أبريل لـ VS Code ميزة BYOK، والبحث الدلالي في جميع مساحات العمل، وتاريخ دردشة قابل للاستعلام. ويواصل Claude Code وتيرته المكثفة مع 60 إصلاحًا إضافيًا هذا الأسبوع. وفي الوقت نفسه، تفتح Luma AI واجهة API لنموذجها Uni-1.1 المتصدر في تصنيف Human Preference Elo، ويسجل Qwen3.6-35B-A3B زيادة قدرها +8.2 نقطة على معيار ODinW.


GitHub Copilot CLI — ملحقات تُدار من قبل المؤسسة في المعاينة العامة

6 مايو — يطلق GitHub في المعاينة العامة الإدارة المركزية لملحقات Copilot CLI للمؤسسات. يمكن للمسؤولين الآن تحديد ملحقات وتوزيعها (وكلاء مخصصون، مهارات، hooks، تكوينات MCP) على جميع مستخدمي مؤسستهم من ملف settings.json واحد.

آلية العمل عمليًا:

المعلمةالقيمة
ملف التكوين.github-private/.github/copilot/settings.json
الخطط المطلوبةCopilot Business, Copilot Enterprise
الحالةمعاينة عامة (Public Preview)
التثبيتتلقائي عند المصادقة

يقوم Copilot CLI بسحب هذه الإعدادات وتطبيقها على جميع المستخدمين المرخّصين. يمكن أن تتضمن الملحقات وكلاء مخصصين، وhooks لسير العمل، وتكوينات MCP على مستوى المؤسسة. وإذا كانت المؤسسة قد أعدّت بالفعل مصدرًا للوكلاء المخصصين عبر .github-private، فسيُعاد استخدام المستودع نفسه. ويمكن للمسؤولين التحقق من التكوين من صفحة Agents في إعدادات enterprise، ضمن AI controls.

تسد هذه الميزة فجوة مهمة بين التبني الفردي لـ Copilot CLI ونشره على مستوى مؤسسة كاملة: حتى الآن، كان على كل مطوّر إعداد ملحقاته يدويًا.

🔗 إعلان GitHub Changelog


GitHub Copilot في VS Code — تحديثات أبريل 2026 (v1.116–v1.119)

6 مايو — ينشر GitHub ملخص تحديثات Copilot لـ VS Code التي تغطي الإصدارات v1.116 إلى v1.119 (من أبريل إلى أوائل مايو 2026)، بعد انتقال VS Code إلى الإصدارات المستقرة الأسبوعية.

سياق أذكى:

الميزةالحالة
البحث الدلالي (جميع مساحات العمل)متاح
githubTextSearch (grep على مستودعات GitHub)متاح
/chronicle (سجل دردشة محلي)تجريبي
ذاكرة التخزين المؤقت للمحفزات + التحميل المؤجل للأدواتمتاح

أصبح البحث الدلالي نشطًا الآن في جميع مساحات العمل، وليس فقط في المستودعات المفهرسة. تتيح أداة githubTextSearch تنفيذ استعلامات من نوع grep على مستودعات ومنظمات GitHub كاملة. وتنشئ الأوامر التجريبية /chronicle قاعدة بيانات محلية لسجل الدردشة من أجل استرجاع الجلسات السابقة، والملفات المتأثرة، وطلبات السحب المشار إليها.

تجربة وكيل أكثر ثراءً:

الميزةالحالة
BYOK (Business + Enterprise)متاح
Integrated Browserمتاح
مراقبة CLI عن بُعدتجريبي
الوصول إلى الطرفيات المفتوحةمتاح

تسمح ميزة BYOK (Bring Your Own Key) لمؤسسات Copilot Business وEnterprise بربط مفاتيح API الخاصة بها مباشرة داخل VS Code: OpenRouter، Microsoft Foundry، Google، Anthropic، OpenAI، Ollama، وFoundry Local مدعومة. يمكن للوكلاء القراءة والكتابة في الطرفيات المفتوحة (REPLs، البرامج النصية التفاعلية). وتتيح ميزة Integrated Browser مشاركة علامات تبويب المتصفح في الوقت الفعلي كسياق للوكلاء. ويمكن التحكم في جلسات Copilot CLI عن بُعد من GitHub.com أو من التطبيق المحمول (تجريبي).

🔗 إعلان GitHub Changelog


Claude Code — أكثر من 60 إصلاحًا للموثوقية (أسبوع 8 مايو)

8 مايو — ينشر فريق Claude Code سلسلة منشورات تسرد أكثر من 60 إصلاحًا تم طرحها هذا الأسبوع، تضاف إلى أكثر من 50 إصلاحًا في الأسبوع السابق.

“Last week we shipped 50+ Claude Code reliability fixes. This week it’s 60+ more. Smoother long-running sessions, a more efficient agent loop, auth that works in more environments, and terminal fixes.”

🇸🇦 “في الأسبوع الماضي، قمنا بإصدار أكثر من 50 إصلاحًا للموثوقية في Claude Code. هذا الأسبوع، أكثر من 60 إصلاحًا إضافيًا. جلسات أطول أكثر سلاسة، وحلقة وكيل أكثر كفاءة، ومصادقة تعمل في عدد أكبر من البيئات، وإصلاحات للطرفية.”@ClaudeDevs على X

المجالأبرز الإصلاحات
الاستقرارclaude -p يقبل أكثر من 10 ميغابايت عبر stdin، واستئناف بعد السكون
حلقة الوكيلPrompt cache للوكالات الفرعية، وتفعيل اختياري لذاكرة تخزين مؤقت لمدة ساعة عبر ENABLE_PROMPT_CACHING_1H
المصادقةلصق رمز OAuth مباشرة في الطرفية (WSL، SSH، الحاويات)
MCPإعادة اتصال تلقائية + حالة واضحة في /mcp، وإصلاح ذاكرة محدودة
عرض الطرفيةإصلاح تمرير Cursor وVS Code وJetBrains؛ وإصلاح الأحرف اليابانية

لتطبيق هذه الإصلاحات: claude update.

🔗 Changelog Claude Code


GitHub Copilot — إيقاف Grok Code Fast 1 عن الدعم (15 مايو)

8 مايو — يعلن GitHub إيقاف دعم Grok Code Fast 1 في جميع بيئات Copilot في 15 مايو 2026، أي بعد أسبوع من الإعلان. والسبب: النموذج نفسه تم إيقاف دعمه من قبل xAI.

النموذجتاريخ إيقاف الدعمالبديل المقترح
Grok Code Fast 115 مايو 2026GPT-5 mini, Claude Haiku 4.5

يجب على مسؤولي Copilot Enterprise التحقق من تفعيل النماذج البديلة في سياسات النماذج لديهم قبل هذا التاريخ. ويتم الانتقال بعد إيقاف الدعم تلقائيًا — ولا يلزم أي إجراء إضافي لإزالة النموذج.

🔗 إعلان إيقاف الدعم


تطبيق Google Health — يتحول Fitbit إلى Google Health مع مدرب Gemini

8 مايو — يتطور تطبيق Fitbit ليصبح تطبيق Google Health الجديد. يحتفظ هذا التصميم الجديد بجميع ميزات Fitbit الحالية، ويضيف مدربًا صحيًا مخصصًا مدعومًا بـ Gemini. يحلل هذا المدرب بيانات الأجهزة القابلة للارتداء (wearables)، وتطبيقات الصحة المفضلة، والسجلات الطبية لتقديم نصائح صحية استباقية مخصصة لكل مستخدم.

التطبيق متوافق مع ساعات Fitbit وPixel Watch، ويتكامل مع مئات التطبيقات والأجهزة التابعة لجهات خارجية.

🔗 إعلان @GoogleAI


Gemini API — File Search متعدد الوسائط، Webhooks، وGemma 4 MTP أسرع 3 مرات

8 مايو — يسرد الملخص الأسبوعي @GoogleAI ثلاثة إصدارات للمطورين هذا الأسبوع، قبل 11 يومًا من Google I/O:

الميزةالتاريخالأثر
File Search متعدد الوسائط5 مايوRAG متعدد الوسائط قابل للتحقق مع اقتباسات الصفحات
Webhooks Gemini API4 مايواستبدال polling بإشعارات push
Gemma 4 MTP drafters5 مايوحتى 3x أسرع في الاستدلال

تدعم أداة File Search الآن البيانات الوصفية المخصصة واقتباسات الصفحات، مما يتيح بناء أنظمة RAG (Retrieval-Augmented Generation) قابلة للتحقق على مصادر متعددة الوسائط. وتلغي webhooks الحاجة إلى الاستعلام المستمر عن المهام الطويلة. وتوفر مسرعات MTP (Multi-Token Prediction) الخاصة بـ Gemma 4 ما يصل إلى 3x من سرعة الاستدلال في تدفقات النشر.

🔗 مدونة Google Developers


واجهة API لـ Luma AI Uni-1.1 — فتح عام

5 مايو — تفتح Luma AI واجهة API الخاصة بـ Uni-1.1، مما يجعل نموذجها للذكاء الموحد (Unified Intelligence model) متاحًا للمطورين عبر واجهة REST. يدمج هذا النموذج الاستدلال وتوليد الصور في بنية واحدة — بخلاف النهج القياسي الذي يجمع عدة نماذج منفصلة عند الاستدلال.

المقياسالقيمة
Human Preference Elo#1 (التوليد العام، الأسلوب، المرجع الموجّه)
Image ArenaTop 3 (Text-to-Image + Image Edit)
RISEBench للاستدلال المكانيفي الصدارة
المراجع لكل طلبحتى 9 صور
وقت التوليد~31 ثانية لكل صورة
الشركاء في الإنتاجEnvato, Comfy, Runware, Flora, Krea, Magnific, Fal, LovArt

توفر واجهة API نقطتي نهاية رئيسيتين: Generate Image (تحويل النص إلى صورة مع ما يصل إلى 9 صور مرجعية للحفاظ على الهوية أو التركيب أو الأسلوب) وModify Image (التحرير باللغة الطبيعية). تتوفر حزم SDK لـ Python وJavaScript/TypeScript. وهناك مستويان للتسعير: Build (الفوترة حسب الاستخدام) وScale (حدود معدل أعلى، ودعم مخصص).

🔗 إعلان Luma AI


NVIDIA + SakanaAI — ورقة ICML 2026 حول نوى TwELL المتناثرة

8 مايو — تنشر NVIDIA AI وSakanaAI Labs بشكل مشترك ورقة بحثية قُبلت في ICML 2026، تتناول نوى المحولات المتناثرة (sparse transformer kernels) وصيغ البيانات المحسّنة للتنفيذ على وحدات معالجة الرسوميات الحديثة من NVIDIA. ويُطلق على المشروع اسم TwELL.

الفكرة الأساسية: لا يفعّل الدماغ البشري إلا العصبونات اللازمة لفكرة معينة. وعند تطبيق ذلك على نماذج اللغة، يتجسد في حساب انتقائي للأوزان النشطة عبر الندرة المنظمة، ما يقلل عبء الحساب من دون التضحية بالأداء. يتماشى هذا البحث مع توجه NVIDIA نحو استدلال أكثر كفاءة، لا سيما في معماريات Mixture-of-Experts (MoE). وقد حصل المنشور على 50,000 مشاهدة و66 إعادة نشر داخل مجتمع ML.

🔗 تغريدة @NVIDIAAI


Qwen3.6-35B-A3B — +8.2 نقطة على معيار ODinW

9 مايو — يعلن Tongyi Lab (Alibaba) عن تقدم في كشف الأجسام الموجّه بالتعليمات (Instruction-Oriented Object Detection) بفضل نموذج Qwen3.6-35B-A3B. وعلى عكس الكشف التقليدي الذي يكتفي بتحديد المواقع البصرية للعناصر، يهدف هذا النهج إلى فهم التعليمات المكتوبة بلغة طبيعية دلاليًا لتوجيه عملية الكشف.

المقياسQwen3.5Qwen3.6-35B-A3Bالزيادة
درجة ODinW42.650.8+8.2 pts

تتوفر نسخة عرض تفاعلية على ModelScope.

🔗 تغريدة @Ali_TongyiLab


Tongyi Lab — أكثر من 1,200 لغة من أجل شمول عالمي

9 مايو — ينشر Tongyi Lab (Alibaba) فيديو بعنوان “1,200+ Languages. One Vision for AI Inclusion”، ويطرح سؤالًا حول الوصول العادل إلى الذكاء الاصطناعي للمجتمعات اللغوية غير الممثلة تمثيلًا كافيًا. تهدف المبادرة إلى تغطية أكثر من 1,200 لغة — أي أبعد بكثير من اللغات الـ92 في Qwen-MT الذي أُعلن عنه في يوليو 2025 — استجابةً للفجوة بين التكنولوجيا العالمية والمجتمعات التي يفترض أن تخدمها.

🔗 تغريدة @Ali_TongyiLab


OpenAI Codex Switch — صفحة ترحيل ChatGPT إلى Codex

8 مايو — ينشر OpenAI تغريدة minimalistic تشير إلى chatgpt.com/codex/switch-to-codex/، مع الرسالة الوحيدة “Just gonna leave this here.” وتحصد التغريدة 517,000 مشاهدة. يندرج هذا التلميح ضمن استراتيجية تموضع Codex كمساعد تطوير مركزي لمنصة ChatGPT. لم تكن صفحة الوصول متاحة أثناء الفحص.

🔗 تغريدة @OpenAI


أخبار قصيرة

  • OpenAI supply.openai.com — ينشر @OpenAIDevs تغريدة غامضة: “Available until the goblins notice.” 🧌، مع الإشارة إلى رابط نحو supply.openai.com. لم تكن الصفحة متاحة أثناء الفحص (274,000 مشاهدة). 🔗 تغريدة

ما الذي يعنيه هذا

أصبحت enterprise ساحة المعركة الأساسية في Copilot. يضع GitHub الأسس لنشر Copilot مُدار على مستوى المؤسسات: ملحقات مركزية عبر .github-private، وBYOK لربط نماذجك الخاصة، ومراقبة CLI عن بُعد، وIntegrated Browser كسياق حي للوكلاء. تستجيب هذه الميزات لطلب حقيقي من مسؤولي الأنظمة الذين يريدون توحيد أدوات الذكاء الاصطناعي دون ترك كل مطوّر يضبط مكدسه الخاص. كما أن الإيقاف المتزامن لـ Grok Code Fast 1 (واستبداله بـ GPT-5 mini أو Claude Haiku 4.5) يوضح أيضًا مدى السرعة التي تُدمج بها النماذج الخارجية ثم تُزال من هذه المنظومة.

Claude Code يراهن على الموثوقية. إن أكثر من 110 إصلاحات خلال أسبوعين متتاليين في موضوعات محددة — الجلسات الطويلة، ومصادقة OAuth في البيئات المقيدة، وMCP، وعرض الطرفية — يشير إلى أن فريق Anthropic قد حدّد الموثوقية كالعائق الرئيسي أمام التبني في الإنتاج. كما أن الإصلاحات على WSL وSSH والحاويات تستهدف صراحة بيئات enterprise التي لا يستطيع المتصفح فيها الوصول إلى localhost. إن التفعيل الاختياري لذاكرة تخزين مؤقت لمدة ساعة للمحفزات على الوكلاء الفرعيين هو أيضًا إشارة: تدفقات العمل متعددة الوكلاء طويلة المدة تصبح حالة استخدام ذات أولوية.

Luma AI وواجهة API الموحدة: رهان معماري. بينما تجمع معظم خطوط توليد الصور بين عدة نماذج متخصصة، يدمج Uni-1 التفكير والتوليد في بنية واحدة. إن القدرة على استخدام ما يصل إلى 9 صور مرجعية لكل طلب — ونتائج #1 Human Preference Elo — تشير إلى أن هذا النهج الموحد يوفر اتساقًا في الأسلوب يصعب تحقيقه عبر خطوط التجميع. ويؤكد وجود 8 شركاء بالفعل في الإنتاج أن واجهة API جاهزة لأعباء العمل الحقيقية.

Alibaba/Qwen يستهدفان التعدد الوسائطي والتعدد اللغوي. إن الزيادة البالغة +8.2 نقطة على ODinW لـ Qwen3.6-35B-A3B في كشف الأجسام الموجّه باللغة الطبيعية، مقترنة بالطموح لتغطية أكثر من 1,200 لغة، ترسم استراتيجية Tongyi Lab موجهة نحو الاستخدامات ذات الأثر الاجتماعي الكبير: رؤية صناعية يمكن الوصول إليها عبر التعليمات النصية، وذكاء اصطناعي قابل للاستخدام من قبل مجتمعات لغوية لا تخدمها الأنظمة الحالية. ويتقاطع هذان المحوران ضمن منطق واحد يقوم على توسيع نطاق الإتاحة.


المصادر