في 25 و26 مارس وردت عدة إعلانات مهمة من Anthropic: Claude يدمج Figma وCanva وAmplitude كأدوات عمل متاحة مباشرة من تطبيق الجوال، وClaude Code رأى تسريعًا في بدء التشغيل بمقدار 2,8× بفضل 60 يومًا من تحسينات Bun. GitHub Copilot يغيّر سياسة استخدام بيانات التفاعل مع خيار إلغاء الاشتراك الذي يجب تفعيله قبل 24 أبريل. أطلقت Google DeepMind Lyria 3 Pro لإنتاج مقاطع موسيقية بطول يصل إلى 3 دقائق، وأعلنت NVIDIA إنشاء NVIDIA Nemotron Coalition في GTC 2026.
Claude: أدوات عمل على الجوال (Figma، Canva، Amplitude)
25 مارس — أصبح بإمكان Claude الآن دمج ثلاثة أدوات عمل يمكن الوصول إليها مباشرة من تطبيق الجوال: Figma وCanva وAmplitude. يمكن للمستخدمين التحكم في سير عمل التصميم، والإبداع والتحليل من هواتفهم، دون الخروج من واجهة Claude.
أدى الإعلان على X، المرفق بفيديو توضيحي، إلى تحقيق 1.9 مليون مشاهدة في غضون ساعات — دليل على أن دمج أدوات مهنية في واجهة الجوال يلبي حاجة قوية.
Claude Code: بدء أسرع بمقدار 2,8×، Agent SDK أسرع 5,1×
24 مارس — بعد 60 يومًا من تحسينات قادها Jarred Sumner (مؤسس Bun، الذي استحوذت عليه Anthropic في ديسمبر 2025)، يبدأ الآن Claude Code بمعدل أسرع بمقدار 2,8×، ويظهر Agent SDK أداءً محسنًا بمعدل 5,1×.
تأتي هذه المكاسب نتيجة عمل منخفض المستوى على runtime Bun المدمج في Claude Code — تحسينات في بدء التشغيل، وإدارة الذاكرة، وزمن الاستجابة الأولي. أعاد نشر ذلك Brian Cherny (@bcherny، فريق Claude Code) سلسلة تقنية تبيّن فعليًا ما الذي تضيفه إدماج Bun في صلب أدوات Claude.
🔗 سلسلة تغريدات @jarredsumner على X
GitHub Copilot: خيار إلغاء المشاركة لبيانات التفاعل قبل 24 أبريل
25 مارس — أعلن Mario Rodriguez، مدير المنتج في GitHub، عن تحديث في سياسة استخدام بيانات تفاعل Copilot. بدءًا من 24 أبريل 2026، ستستخدم GitHub بيانات تفاعل مستخدمي Copilot Free وCopilot Pro وCopilot Pro+ — المدخلات، المخرجات، مقتطفات الكود والسياق المرتبط — لتدريب وتحسين نماذجها الذكية.
يمكن للمستخدمين المتأثرين تعطيل مشاركة هذه البيانات عبر إعدادات حسابهم قبل هذا التاريخ. مشتركو Copilot Business وCopilot Enterprise غير متأثرين بهذا التغيير — تظل بياناتهم خاضعة للاتفاقيات التعاقدية القائمة التي تستبعد الاستخدام للتدريب.
| الخطة | متأثرة بهذا التغيير | خيار إلغاء المشاركة متاح |
|---|---|---|
| Copilot Free | نعم | نعم |
| Copilot Pro | نعم | نعم |
| Copilot Pro+ | نعم | نعم |
| Copilot Business | لا | — |
| Copilot Enterprise | لا | — |
نقطة التحول هي 24 أبريل: المستخدمون الذين لم يعطلوا المشاركة قبل هذا التاريخ سيبدأون بالمساهمة في بيانات التدريب.
🔗 تحديث سياسة بيانات GitHub Copilot 🔗 إعلان على X
Lyria 3 Pro: مقاطع موسيقية حتى 3 دقائق مع بنية موسيقية
25 مارس — أطلقت Google DeepMind Lyria 3 Pro، نسخة متقدمة من نموذج توليد الموسيقى Lyria 3 الصادر الشهر السابق. الميزة الرئيسية: القدرة على توليد مقاطع تصل إلى 3 دقائق، مقابل 30 ثانية للتوليد السابق — أي عامل تحسين مقداره 6.
يضم النموذج الآن البنية الموسيقية (musical architecture) — المداخل، والمقاطع، والكورس، والجسور — مما يمكّن من إنتاج قطع ذات انتقالات متسقة وهياكل موسيقية متقنة. تقبل المطالبات (prompts) النص والصور والفيديو كنقطة انطلاق.
| المنصة | الوصول | الحالة |
|---|---|---|
| تطبيق Gemini | مشتركون مدفوعون | متاح |
| Google AI Studio + API Gemini | المطورون | متاح مع Lyria RealTime |
| Vertex AI | الشركات | معاينة عامة |
| Google Vids | Workspace + AI Pro/Ultra | نشر خلال أسبوع 25 مارس |
| ProducerAI | مجاني ومدفوع | تجربة عاملية للموسيقيين |
استخدم المنتج Yung Spielburg Lyria 3 Pro لفيلم قصير من Google DeepMind بعنوان “Dear Upstairs Neighbors”، وأُعلن عن تعاون مع الدي جي François K لأغنية قادمة.
🔗 مدونة Google الرسمية — Lyria 3 Pro 🔗 إعلان على X
NVIDIA Nemotron Coalition: نماذج أساس مفتوحة بمستوى frontier
25 مارس — بمناسبة NVIDIA GTC 2026، أعلن Jensen Huang عن تأسيس NVIDIA Nemotron Coalition، تحالف عالمي لمطوري النماذج مكرّس لتطوير نماذج أساس مفتوحة بمستوى frontier (frontier open foundation models).
سيكون المشروع الأولي للتحالف نموذجًا أساسيًا مطوَّرًا بشكل مشترك بين Mistral AI وNVIDIA، مع أعضاء يساهمون في البيانات والتقييمات والخبرة المجال. تضمنت لجنة المتحدثين في جلسة GTC كلًا من Mira Murati (Thinking Machines Lab)، Aravind Srinivas (Perplexity)، Arthur Mensch (Mistral)، Robin Rombach (Black Forest Labs)، بالإضافة إلى ممثلين عن Cursor وAi2.
بعض الأرقام التي تم إبرازها خلال الحدث:
- أصبحت NVIDIA الآن أكبر منظمة على Hugging Face، مع نحو 4,000 عضو
- تم تنزيل نماذج Nemotron أكثر من 45 مليون مرة
“Proprietary versus open is not a thing. It’s proprietary and open.”
🇸🇦 التمييز بين المملوك والمفتوح ليس حقيقيًا بالمعنى العملي. إنه مملوك ومفتوح في آنٍ واحد. — جن-سن هوانغ، NVIDIA GTC 2026
🔗 مدونة NVIDIA — The Future of AI Is Open and Proprietary
OpenAI: كواليس Model Spec والتقييمات المرتبطة
25 مارس — نشرت OpenAI شرحًا مفصلًا لمنهجيتها حول Model Spec — الإطار العام الذي يحدد كيف يُفترض أن تتصرف نماذجها. يشرح هذا المقال، الذي وقعه Jason Wolfe (باحث في OpenAI)، الفلسفة والبنية وآليات التطور.
يتوزع Model Spec على عدة مستويات مميزة:
| المستوى | الوصف |
|---|---|
| النوايا والالتزامات العامة | أهداف عالية المستوى: النشر التكراري، تجنب الأضرار الجسيمة |
| سلسلة القيادة (Chain of Command) | قواعد حل التعارض بين تعليمات OpenAI والمطورين والمستخدمين |
| قواعد صارمة (Hard rules) | حدود غير قابلة للتعديل: مخاطر كارثية، أذى جسدي، محتوى غير قانوني |
| السلوكيات الافتراضية | نقاط انطلاق قابلة للتعديل من قبل المطورين والمستخدمين |
| مساعدات التفسير | قواعد اتخاذ القرار وأمثلة للحالات الغامضة |
التمييز المركزي: القواعد الصارمة غير قابلة للتجاوز (مستوى “root”)، بينما السلوكيات الافتراضية قابلة للتكوين — ما يسمح بتوسيع حرية المستخدمين ضمن حدود الأمان.
تargues OpenAI أن ذكاءً اصطناعيًا متقدمًا بما فيه الكفاية لا يمكنه استنتاج السلوك الصحيح فقط من أهداف عامة مثل “أن تكون مفيدًا وآمنًا”: هذه العبارات تعتمد كثيرًا على السياق وتنطوي على مقايضات قيمية. يعمل Model Spec كهدف داخلي وأداة شفافية وآلية تنسيق بين الفرق.
بالتوازي، تنشر OpenAI Model Spec Evals — مجموعة تقييمات لسيناريوهات تحاول تغطية ادعاءات Model Spec بأمثلة تمثيلية، لقياس الفجوات بين سلوك النموذج الفعلي والمواصفة.
🔗 Inside our approach to the Model Spec 🔗 إعلان على X
Genspark Realtime Voice: مساعد صوتي بدون استخدام اليدين
25 مارس — أطلقت Genspark Realtime Voice، مساعدًا صوتيًا في الوقت الحقيقي يعمل بالكامل بدون استخدام اليدين. حالة الاستخدام التي تم تسليط الضوء عليها عند الإطلاق: الاستخدام أثناء القيادة خلال التنقل اليومي.
تشمل الميزات المعلنة التحقق من التقويم، وإرسال رسائل وبريد إلكتروني، والبحث عن المعلومات وإنشاء قوائم تشغيل للرحلات. يمكن للمساعد أيضًا توليد عروض تقديمية (slides)، وإجراء أبحاث معمقة (deep research)، وتحليل البيانات — كلها صوتيًا.
OpenAI Safety Bug Bounty: الإبلاغ عن مخاطر الذكاء الاصطناعي
25 مارس — أطلقت OpenAI برنامج مكافآت أخطاء مخصصًا لأمن الذكاء الاصطناعي، منفصلًا عن برنامج أمن المعلومات التقليدي القائم. يقبل هذا البرنامج الجديد الإبلاغ عن مخاطر إساءة الاستخدام التي لا تتوافق بالضرورة مع الثغرات البرمجية التقليدية.
| فئة ضمن النطاق | أمثلة |
|---|---|
| مخاطر العاملات (بما في ذلك MCP) | حقن برومبت طرف ثالث، استخراج معلومات عبر العامل، إجراءات غير مصرح بها على نطاق واسع |
| معلومات ملكية خاصة بـOpenAI | توليد يكشف عن معلومات استدلالية ملكية |
| تكامل الحسابات والمنصات | التحايل على ضوابط مكافحة الأتمتة، التلاعب بإشارات الثقة |
تبقى الـjailbreaks الكلاسيكية خارج النطاق. توضح OpenAI أيضًا أنها تنفذ حملات خاصة متقطعة حول أنواع أضرار محددة — مثل المحتوى ذي المخاطر البيولوجية في ChatGPT Agent وGPT-5.
🔗 Introducing the OpenAI Safety Bug Bounty program
Codex Creator Challenge: مسابقة طلابية مع 10,000$ من الاعتمادات
25 مارس — أطلقت OpenAI وHandshake مسابقة Codex Creator Challenge، موجهة للطلاب لإنشاء مشاريع حقيقية باستخدام Codex. الجائزة: 10,000$ من اعتمادات API لـOpenAI. التحدي يدعو الطلاب لتجربة أدوات Codex وبناء تطبيقات ملموسة.
ElevenLabs: Guardrails 2.0 في ElevenAgents، معتمد AIUC-1
24 مارس — طرحت ElevenLabs Guardrails 2.0 في منصة ElevenAgents. تتيح هذه الطبقة الأمنية التحكم في سلوك الوكلاء في الإنتاج عبر سياسات أعمال مخصصة أو حماية معدّة مسبقًا: البقاء ضمن الموضوع (on-topic), اتساق العلامة التجارية (on-brand), والمقاومة ضد التلاعب.
حصلت Guardrails 2.0 على شهادة AIUC-1 (AI Use Case standard) وتشمل ميزات حماية البيانات، وتدوين تاريخ المحادثات، والمراقبة بعد النشر.
PrismAudio: نموذج فيديو-إلى-صوت مفتوح المصدر من Tongyi Lab (Alibaba)
24 مارس — نشر Tongyi Lab التابع لـAlibaba نموذج PrismAudio، وهو نموذج تحويل فيديو إلى صوت (Video-to-Audio). على خلاف مقاربات V2A التقليدية التي تُحسّن الكل عبر دالة خسارة واحدة، يتبنى PrismAudio بنية “Decomposed Multi-CoT” مع ثلاث رؤوس متخصصة منفصلة — كل واحدة مكرّسة لجانب مختلف من التوليد الصوتي.
تُدرّب النموذج باستخدام Multi-Dimensional RL وFast-GRPO لمواءمة التوليد الصوتي مع تفضيلات البشر. نُشرت الموارد (النموذج، العرض التوضيحي، ورقة arXiv) عبر HuggingFace وModelScope وصفحة مشروع مخصصة.
Claude Code v2.1.83: إدارة مركزية لإعدادات Enterprise
25 مارس — تقدم النسخة 2.1.83 من Claude Code الدليل drop-in managed-settings.d/ الموجّه لمسؤولي Enterprise. يتيح هذا الدليل للمنظمات إدارة إعدادات Claude Code مركزيًا عبر وضع ملفات التكوين التي تُطبَّق على جميع محطات النشر.
Kling AI Team Plan: تعاون حتى 15 عضوًا
24 مارس — أطلقت Kling AI خطة Team Plan، خطة تعاونية تتيح للفرق التي تصل إلى 15 عضوًا العمل معًا على المنصة. تتضمن الخطة موارد مشتركة واستخدام تجاري للإبداعات.
Manus Desktop: اعتمادات مقسومة على النصف حتى 30 مارس
24 مارس — تقدم Manus عرضًا ترويجيًا مؤقتًا على تطبيق Desktop: من 24 إلى 30 مارس 2026، كل مهمة تنفذ تستهلك 50% أقل من الاعتمادات. تعني هذه الحملة أن الاعتمادات الحالية تساوي مرتين لكل المهام المنفذة عبر Manus Desktop خلال هذه الفترة.
NVIDIA تتبرع بـDRA GPU driver لمجتمع Kubernetes
24 مارس — على هامش NVIDIA GTC 2026، أعلنت NVIDIA تبرعها لمجتمع Kubernetes بسائق Dynamic Resource Allocation (DRA) لوحدات GPU. تندرج هذه المساهمة ضمن التزام NVIDIA بالـopen source وتسهّل تخصيص موارد GPU ديناميكيًا في بيئات Kubernetes.
🔗 مدونة NVIDIA — AI Future Open and Proprietary
ماذا يعني هذا
الإعلانان الرئيسيان من Anthropic في هذه الفترة مكملان لبعضهما: دمج Figma وCanva وAmplitude على الهاتف يقرب Claude من سلاسل عمل مهنية يومية، بينما تحسينات بدء تشغيل Claude Code (2,8×) وAgent SDK (5,1×) تحسن فعليًا تجربة المطورين الذين يستخدمونه باستمرار. هذان الاتجاهان — الاستخدام العام عبر الجوال وأداء المطور — يجسدان المسارين المتوازيين لـAnthropic.
قرار GitHub Copilot بشأن بيانات التفاعل هو الأكثر تأثيرًا على المطورين الأفراد: للمرة الأولى، قد تُستخدم تفاعلات مستخدمي الخطط العامة (Free، Pro، Pro+) لتدريب النماذج. خيار إلغاء المشاركة موجود لكنه يجب تفعيله قبل 24 أبريل — وهذا الموعد القصير يستحق الملاحظة.
تعد Nemotron Coalition من NVIDIA إشارة قوية لاستراتيجية الصناعة تجاه الـopen source. بجمع Mistral وBlack Forest Labs وCursor وآخرين تحت تحالف رسمي لتطوير نماذج بمستوى frontier، تضع NVIDIA الـopen source ليس بديلاً للنماذج المملوكة فحسب، بل فئة متممة لها. تلخّص عبارة جن-سن هوانغ — «مملوك ومفتوح»، وليس “مقابل” — هذا التحوّل في الموقف. Lyria 3 Pro تؤكد أن توليد الموسيقى يتقدم نحو صيغ قابلة للاستخدام في الإنتاج: ثلاث دقائق مع بنية متماسكة (المقدمات، المقاطع، واللازمات) يغيّر طبيعة حالة الاستخدام، من مقتطفات تجريبية إلى مقطوعات كاملة. التوفر على عدة منصات من Google ابتداءً من أسبوع الإطلاق يسرّع التبني.
نشر Model Spec Evals بواسطة OpenAI — مجموعة من التقييمات تقيس الفجوات بين سلوك النموذج والمواصفة المكتوبة — جدير بالملاحظة: إنها إحدى المحاولات العامة الأولى لقياس مدى توافق النموذج مع قواعد سلوكه بشكل موضوعي.
المصادر
- تحديث سياسة بيانات GitHub Copilot
- تغريدة @github — سياسة البيانات
- مدونة Google — Lyria 3 Pro
- تغريدة @GoogleAI — Lyria 3 Pro
- مدونة NVIDIA — مستقبل الذكاء الاصطناعي: بين الانفتاح والملكية
- تغريدة @NVIDIAAI — Cohere + الذكاء الاصطناعي السيادي GTC
- OpenAI — داخل نهجنا تجاه Model Spec
- تغريدة @OpenAI — Model Spec
- OpenAI — برنامج مكافآت الثغرات الأمنية للسلامة
- تغريدة @OpenAIDevs — Codex Creator Challenge
- تغريدة @genspark_ai — الصوت في الوقت الحقيقي
- تغريدة @ElevenLabs — ضوابط الأمان 2.0
- تغريدة @Ali_TongyiLab — PrismAudio
- تغريدة @ManusAI — عرض ترويجي لـ Manus Desktop
- تغريدة @claudeai — Claude: أدوات العمل المتنقلة
- سلسلة تغريدات @jarredsumner — Claude Code startup 2,8x / Agent SDK 5,1x
- سجل التغييرات Claude Code — v2.1.83
- تغريدة @Kling_ai — خطة الفريق
تمت ترجمة هذا المستند من النسخة fr إلى اللغة ar باستخدام نموذج gpt-5-mini. لمزيد من المعلومات حول عملية الترجمة، راجع https://gitlab.com/jls42/ai-powered-markdown-translator