ai-powered-markdown-translatorمقال مترجم من الفرنسية إلى العربية باستخدام gpt-5.4-mini.
يخطو GitHub Copilot خطوة جديدة في تبنّي enterprise مع الإدارة المركزية لملحقات CLI، بينما تجلب تحديثات أبريل لـ VS Code ميزة BYOK، والبحث الدلالي في جميع مساحات العمل، وتاريخ دردشة قابل للاستعلام. ويواصل Claude Code وتيرته المكثفة مع 60 إصلاحًا إضافيًا هذا الأسبوع. وفي الوقت نفسه، تفتح Luma AI واجهة API لنموذجها Uni-1.1 المتصدر في تصنيف Human Preference Elo، ويسجل Qwen3.6-35B-A3B زيادة قدرها +8.2 نقطة على معيار ODinW.
GitHub Copilot CLI — ملحقات تُدار من قبل المؤسسة في المعاينة العامة
6 مايو — يطلق GitHub في المعاينة العامة الإدارة المركزية لملحقات Copilot CLI للمؤسسات. يمكن للمسؤولين الآن تحديد ملحقات وتوزيعها (وكلاء مخصصون، مهارات، hooks، تكوينات MCP) على جميع مستخدمي مؤسستهم من ملف settings.json واحد.
آلية العمل عمليًا:
| المعلمة | القيمة |
|---|---|
| ملف التكوين | .github-private/.github/copilot/settings.json |
| الخطط المطلوبة | Copilot Business, Copilot Enterprise |
| الحالة | معاينة عامة (Public Preview) |
| التثبيت | تلقائي عند المصادقة |
يقوم Copilot CLI بسحب هذه الإعدادات وتطبيقها على جميع المستخدمين المرخّصين. يمكن أن تتضمن الملحقات وكلاء مخصصين، وhooks لسير العمل، وتكوينات MCP على مستوى المؤسسة. وإذا كانت المؤسسة قد أعدّت بالفعل مصدرًا للوكلاء المخصصين عبر .github-private، فسيُعاد استخدام المستودع نفسه. ويمكن للمسؤولين التحقق من التكوين من صفحة Agents في إعدادات enterprise، ضمن AI controls.
تسد هذه الميزة فجوة مهمة بين التبني الفردي لـ Copilot CLI ونشره على مستوى مؤسسة كاملة: حتى الآن، كان على كل مطوّر إعداد ملحقاته يدويًا.
GitHub Copilot في VS Code — تحديثات أبريل 2026 (v1.116–v1.119)
6 مايو — ينشر GitHub ملخص تحديثات Copilot لـ VS Code التي تغطي الإصدارات v1.116 إلى v1.119 (من أبريل إلى أوائل مايو 2026)، بعد انتقال VS Code إلى الإصدارات المستقرة الأسبوعية.
سياق أذكى:
| الميزة | الحالة |
|---|---|
| البحث الدلالي (جميع مساحات العمل) | متاح |
githubTextSearch (grep على مستودعات GitHub) | متاح |
/chronicle (سجل دردشة محلي) | تجريبي |
| ذاكرة التخزين المؤقت للمحفزات + التحميل المؤجل للأدوات | متاح |
أصبح البحث الدلالي نشطًا الآن في جميع مساحات العمل، وليس فقط في المستودعات المفهرسة. تتيح أداة githubTextSearch تنفيذ استعلامات من نوع grep على مستودعات ومنظمات GitHub كاملة. وتنشئ الأوامر التجريبية /chronicle قاعدة بيانات محلية لسجل الدردشة من أجل استرجاع الجلسات السابقة، والملفات المتأثرة، وطلبات السحب المشار إليها.
تجربة وكيل أكثر ثراءً:
| الميزة | الحالة |
|---|---|
| BYOK (Business + Enterprise) | متاح |
| Integrated Browser | متاح |
| مراقبة CLI عن بُعد | تجريبي |
| الوصول إلى الطرفيات المفتوحة | متاح |
تسمح ميزة BYOK (Bring Your Own Key) لمؤسسات Copilot Business وEnterprise بربط مفاتيح API الخاصة بها مباشرة داخل VS Code: OpenRouter، Microsoft Foundry، Google، Anthropic، OpenAI، Ollama، وFoundry Local مدعومة. يمكن للوكلاء القراءة والكتابة في الطرفيات المفتوحة (REPLs، البرامج النصية التفاعلية). وتتيح ميزة Integrated Browser مشاركة علامات تبويب المتصفح في الوقت الفعلي كسياق للوكلاء. ويمكن التحكم في جلسات Copilot CLI عن بُعد من GitHub.com أو من التطبيق المحمول (تجريبي).
Claude Code — أكثر من 60 إصلاحًا للموثوقية (أسبوع 8 مايو)
8 مايو — ينشر فريق Claude Code سلسلة منشورات تسرد أكثر من 60 إصلاحًا تم طرحها هذا الأسبوع، تضاف إلى أكثر من 50 إصلاحًا في الأسبوع السابق.
“Last week we shipped 50+ Claude Code reliability fixes. This week it’s 60+ more. Smoother long-running sessions, a more efficient agent loop, auth that works in more environments, and terminal fixes.”
🇸🇦 “في الأسبوع الماضي، قمنا بإصدار أكثر من 50 إصلاحًا للموثوقية في Claude Code. هذا الأسبوع، أكثر من 60 إصلاحًا إضافيًا. جلسات أطول أكثر سلاسة، وحلقة وكيل أكثر كفاءة، ومصادقة تعمل في عدد أكبر من البيئات، وإصلاحات للطرفية.” — @ClaudeDevs على X
| المجال | أبرز الإصلاحات |
|---|---|
| الاستقرار | claude -p يقبل أكثر من 10 ميغابايت عبر stdin، واستئناف بعد السكون |
| حلقة الوكيل | Prompt cache للوكالات الفرعية، وتفعيل اختياري لذاكرة تخزين مؤقت لمدة ساعة عبر ENABLE_PROMPT_CACHING_1H |
| المصادقة | لصق رمز OAuth مباشرة في الطرفية (WSL، SSH، الحاويات) |
| MCP | إعادة اتصال تلقائية + حالة واضحة في /mcp، وإصلاح ذاكرة محدودة |
| عرض الطرفية | إصلاح تمرير Cursor وVS Code وJetBrains؛ وإصلاح الأحرف اليابانية |
لتطبيق هذه الإصلاحات: claude update.
GitHub Copilot — إيقاف Grok Code Fast 1 عن الدعم (15 مايو)
8 مايو — يعلن GitHub إيقاف دعم Grok Code Fast 1 في جميع بيئات Copilot في 15 مايو 2026، أي بعد أسبوع من الإعلان. والسبب: النموذج نفسه تم إيقاف دعمه من قبل xAI.
| النموذج | تاريخ إيقاف الدعم | البديل المقترح |
|---|---|---|
| Grok Code Fast 1 | 15 مايو 2026 | GPT-5 mini, Claude Haiku 4.5 |
يجب على مسؤولي Copilot Enterprise التحقق من تفعيل النماذج البديلة في سياسات النماذج لديهم قبل هذا التاريخ. ويتم الانتقال بعد إيقاف الدعم تلقائيًا — ولا يلزم أي إجراء إضافي لإزالة النموذج.
تطبيق Google Health — يتحول Fitbit إلى Google Health مع مدرب Gemini
8 مايو — يتطور تطبيق Fitbit ليصبح تطبيق Google Health الجديد. يحتفظ هذا التصميم الجديد بجميع ميزات Fitbit الحالية، ويضيف مدربًا صحيًا مخصصًا مدعومًا بـ Gemini. يحلل هذا المدرب بيانات الأجهزة القابلة للارتداء (wearables)، وتطبيقات الصحة المفضلة، والسجلات الطبية لتقديم نصائح صحية استباقية مخصصة لكل مستخدم.
التطبيق متوافق مع ساعات Fitbit وPixel Watch، ويتكامل مع مئات التطبيقات والأجهزة التابعة لجهات خارجية.
Gemini API — File Search متعدد الوسائط، Webhooks، وGemma 4 MTP أسرع 3 مرات
8 مايو — يسرد الملخص الأسبوعي @GoogleAI ثلاثة إصدارات للمطورين هذا الأسبوع، قبل 11 يومًا من Google I/O:
| الميزة | التاريخ | الأثر |
|---|---|---|
| File Search متعدد الوسائط | 5 مايو | RAG متعدد الوسائط قابل للتحقق مع اقتباسات الصفحات |
| Webhooks Gemini API | 4 مايو | استبدال polling بإشعارات push |
| Gemma 4 MTP drafters | 5 مايو | حتى 3x أسرع في الاستدلال |
تدعم أداة File Search الآن البيانات الوصفية المخصصة واقتباسات الصفحات، مما يتيح بناء أنظمة RAG (Retrieval-Augmented Generation) قابلة للتحقق على مصادر متعددة الوسائط. وتلغي webhooks الحاجة إلى الاستعلام المستمر عن المهام الطويلة. وتوفر مسرعات MTP (Multi-Token Prediction) الخاصة بـ Gemma 4 ما يصل إلى 3x من سرعة الاستدلال في تدفقات النشر.
واجهة API لـ Luma AI Uni-1.1 — فتح عام
5 مايو — تفتح Luma AI واجهة API الخاصة بـ Uni-1.1، مما يجعل نموذجها للذكاء الموحد (Unified Intelligence model) متاحًا للمطورين عبر واجهة REST. يدمج هذا النموذج الاستدلال وتوليد الصور في بنية واحدة — بخلاف النهج القياسي الذي يجمع عدة نماذج منفصلة عند الاستدلال.
| المقياس | القيمة |
|---|---|
| Human Preference Elo | #1 (التوليد العام، الأسلوب، المرجع الموجّه) |
| Image Arena | Top 3 (Text-to-Image + Image Edit) |
| RISEBench للاستدلال المكاني | في الصدارة |
| المراجع لكل طلب | حتى 9 صور |
| وقت التوليد | ~31 ثانية لكل صورة |
| الشركاء في الإنتاج | Envato, Comfy, Runware, Flora, Krea, Magnific, Fal, LovArt |
توفر واجهة API نقطتي نهاية رئيسيتين: Generate Image (تحويل النص إلى صورة مع ما يصل إلى 9 صور مرجعية للحفاظ على الهوية أو التركيب أو الأسلوب) وModify Image (التحرير باللغة الطبيعية). تتوفر حزم SDK لـ Python وJavaScript/TypeScript. وهناك مستويان للتسعير: Build (الفوترة حسب الاستخدام) وScale (حدود معدل أعلى، ودعم مخصص).
NVIDIA + SakanaAI — ورقة ICML 2026 حول نوى TwELL المتناثرة
8 مايو — تنشر NVIDIA AI وSakanaAI Labs بشكل مشترك ورقة بحثية قُبلت في ICML 2026، تتناول نوى المحولات المتناثرة (sparse transformer kernels) وصيغ البيانات المحسّنة للتنفيذ على وحدات معالجة الرسوميات الحديثة من NVIDIA. ويُطلق على المشروع اسم TwELL.
الفكرة الأساسية: لا يفعّل الدماغ البشري إلا العصبونات اللازمة لفكرة معينة. وعند تطبيق ذلك على نماذج اللغة، يتجسد في حساب انتقائي للأوزان النشطة عبر الندرة المنظمة، ما يقلل عبء الحساب من دون التضحية بالأداء. يتماشى هذا البحث مع توجه NVIDIA نحو استدلال أكثر كفاءة، لا سيما في معماريات Mixture-of-Experts (MoE). وقد حصل المنشور على 50,000 مشاهدة و66 إعادة نشر داخل مجتمع ML.
Qwen3.6-35B-A3B — +8.2 نقطة على معيار ODinW
9 مايو — يعلن Tongyi Lab (Alibaba) عن تقدم في كشف الأجسام الموجّه بالتعليمات (Instruction-Oriented Object Detection) بفضل نموذج Qwen3.6-35B-A3B. وعلى عكس الكشف التقليدي الذي يكتفي بتحديد المواقع البصرية للعناصر، يهدف هذا النهج إلى فهم التعليمات المكتوبة بلغة طبيعية دلاليًا لتوجيه عملية الكشف.
| المقياس | Qwen3.5 | Qwen3.6-35B-A3B | الزيادة |
|---|---|---|---|
| درجة ODinW | 42.6 | 50.8 | +8.2 pts |
تتوفر نسخة عرض تفاعلية على ModelScope.
Tongyi Lab — أكثر من 1,200 لغة من أجل شمول عالمي
9 مايو — ينشر Tongyi Lab (Alibaba) فيديو بعنوان “1,200+ Languages. One Vision for AI Inclusion”، ويطرح سؤالًا حول الوصول العادل إلى الذكاء الاصطناعي للمجتمعات اللغوية غير الممثلة تمثيلًا كافيًا. تهدف المبادرة إلى تغطية أكثر من 1,200 لغة — أي أبعد بكثير من اللغات الـ92 في Qwen-MT الذي أُعلن عنه في يوليو 2025 — استجابةً للفجوة بين التكنولوجيا العالمية والمجتمعات التي يفترض أن تخدمها.
OpenAI Codex Switch — صفحة ترحيل ChatGPT إلى Codex
8 مايو — ينشر OpenAI تغريدة minimalistic تشير إلى chatgpt.com/codex/switch-to-codex/، مع الرسالة الوحيدة “Just gonna leave this here.” وتحصد التغريدة 517,000 مشاهدة. يندرج هذا التلميح ضمن استراتيجية تموضع Codex كمساعد تطوير مركزي لمنصة ChatGPT. لم تكن صفحة الوصول متاحة أثناء الفحص.
أخبار قصيرة
- OpenAI supply.openai.com — ينشر @OpenAIDevs تغريدة غامضة: “Available until the goblins notice.” 🧌، مع الإشارة إلى رابط نحو
supply.openai.com. لم تكن الصفحة متاحة أثناء الفحص (274,000 مشاهدة). 🔗 تغريدة
ما الذي يعنيه هذا
أصبحت enterprise ساحة المعركة الأساسية في Copilot. يضع GitHub الأسس لنشر Copilot مُدار على مستوى المؤسسات: ملحقات مركزية عبر .github-private، وBYOK لربط نماذجك الخاصة، ومراقبة CLI عن بُعد، وIntegrated Browser كسياق حي للوكلاء. تستجيب هذه الميزات لطلب حقيقي من مسؤولي الأنظمة الذين يريدون توحيد أدوات الذكاء الاصطناعي دون ترك كل مطوّر يضبط مكدسه الخاص. كما أن الإيقاف المتزامن لـ Grok Code Fast 1 (واستبداله بـ GPT-5 mini أو Claude Haiku 4.5) يوضح أيضًا مدى السرعة التي تُدمج بها النماذج الخارجية ثم تُزال من هذه المنظومة.
Claude Code يراهن على الموثوقية. إن أكثر من 110 إصلاحات خلال أسبوعين متتاليين في موضوعات محددة — الجلسات الطويلة، ومصادقة OAuth في البيئات المقيدة، وMCP، وعرض الطرفية — يشير إلى أن فريق Anthropic قد حدّد الموثوقية كالعائق الرئيسي أمام التبني في الإنتاج. كما أن الإصلاحات على WSL وSSH والحاويات تستهدف صراحة بيئات enterprise التي لا يستطيع المتصفح فيها الوصول إلى localhost. إن التفعيل الاختياري لذاكرة تخزين مؤقت لمدة ساعة للمحفزات على الوكلاء الفرعيين هو أيضًا إشارة: تدفقات العمل متعددة الوكلاء طويلة المدة تصبح حالة استخدام ذات أولوية.
Luma AI وواجهة API الموحدة: رهان معماري. بينما تجمع معظم خطوط توليد الصور بين عدة نماذج متخصصة، يدمج Uni-1 التفكير والتوليد في بنية واحدة. إن القدرة على استخدام ما يصل إلى 9 صور مرجعية لكل طلب — ونتائج #1 Human Preference Elo — تشير إلى أن هذا النهج الموحد يوفر اتساقًا في الأسلوب يصعب تحقيقه عبر خطوط التجميع. ويؤكد وجود 8 شركاء بالفعل في الإنتاج أن واجهة API جاهزة لأعباء العمل الحقيقية.
Alibaba/Qwen يستهدفان التعدد الوسائطي والتعدد اللغوي. إن الزيادة البالغة +8.2 نقطة على ODinW لـ Qwen3.6-35B-A3B في كشف الأجسام الموجّه باللغة الطبيعية، مقترنة بالطموح لتغطية أكثر من 1,200 لغة، ترسم استراتيجية Tongyi Lab موجهة نحو الاستخدامات ذات الأثر الاجتماعي الكبير: رؤية صناعية يمكن الوصول إليها عبر التعليمات النصية، وذكاء اصطناعي قابل للاستخدام من قبل مجتمعات لغوية لا تخدمها الأنظمة الحالية. ويتقاطع هذان المحوران ضمن منطق واحد يقوم على توسيع نطاق الإتاحة.
المصادر
- GitHub Copilot CLI — ملحقات مُدارة من المؤسسة (معاينة عامة)
- GitHub Copilot VS Code — إصدارات أبريل 2026
- GitHub Copilot — إيقاف Grok Code Fast 1 عن الدعم
- Claude Code — سلسلة 60+ إصلاحًا للموثوقية (@ClaudeDevs)
- Claude Code — Changelog الرسمي
- تطبيق Google Health — إعلان @GoogleAI
- Gemini API — مدونة Google Developers Tools
- Luma AI Uni-1.1 API
- NVIDIA + SakanaAI — ورقة TwELL ICML26
- Qwen3.6-35B-A3B — ODinW +8.2 pts (@Ali_TongyiLab)
- ModelScope — عرض توضيحي لاكتشاف الأجسام Qwen
- Tongyi Lab — 1200+ Languages (@Ali_TongyiLab)
- OpenAI Codex Switch
- OpenAI supply.openai.com — تلميح (@OpenAIDevs)