بحث

GPT-5.4 mini وnano أُطلقا من قبل OpenAI، Mistral تنضم إلى ائتلاف Nemotron من NVIDIA، وPerplexity Comet Enterprise متاحة

GPT-5.4 mini وnano أُطلقا من قبل OpenAI، Mistral تنضم إلى ائتلاف Nemotron من NVIDIA، وPerplexity Comet Enterprise متاحة

يأتي 17 مارس 2026 تحت راية GTC من NVIDIA وعدة إطلاقات كبرى. تُصدر OpenAI نموذجَي GPT-5.4 mini وnano، وهما أقوى نماذجها المدمجة حتى الآن، ويقتربان من النموذج الكامل في عدة معايير. يزداد نطاق NVIDIA Nemotron Coalition بانضمام Mistral AI وPerplexity. وتفتح Perplexity في الوقت نفسه Comet Enterprise مع حوكمة MDM كاملة، وتضاعف Claude Code v2.1.77 حدّ التوليد لـ Opus 4.6، وتتوحد GitHub وAnthropic وGoogle وOpenAI لتمويل أمن المصادر المفتوحة بمبلغ 12.5 مليون دولار.


GPT-5.4 mini وnano: النماذج المدمجة من OpenAI

17 مارس — تطلق OpenAI GPT-5.4 mini وGPT-5.4 nano، وهما أقوى نماذجها المدمجة حتى الآن. يقدّم هذان المتغيران قدرات GPT-5.4 ضمن صيغ محسّنة لأحمال العمل ذات الحجم الكبير، مع زمن استجابة أقل وتكلفة أدنى.

يرفع GPT-5.4 mini بشكل ملحوظ أداء GPT-5 mini في الكود، والاستدلال، والفهم متعدد الوسائط، واستخدام الأدوات، مع عمله بسرعة تزيد على الضعف. وهو يقترب من أداء نموذج GPT-5.4 الكامل في عدة تقييمات رئيسية، بما في ذلك SWE-Bench Pro وOSWorld-Verified.

أما GPT-5.4 nano فهو أصغر نسخة وأقلها تكلفة ضمن عائلة GPT-5.4، ومصمم للمهام التي تتقدم فيها السرعة والتكلفة: التصنيف، واستخراج البيانات، والترتيب، والوكلاء الفرعيين البسيطين للكود.

التقييمGPT-5.4GPT-5.4 miniGPT-5.4 nanoGPT-5 mini
SWE-Bench Pro (public)57,7 %54,4 %52,4 %45,7 %
Terminal-Bench 2.075,1 %60,0 %46,3 %38,2 %
Toolathlon54,6 %42,9 %35,5 %26,9 %
GPQA Diamond93,0 %88,0 %82,8 %81,6 %
OSWorld-Verified75,0 %72,1 %39,0 %42,0 %

تتوزع حالات الاستخدام على ثلاثة أنماط: مساعدو الكود (يتفوق GPT-5.4 mini في سير عمل البرمجة السريعة، وحلقات تصحيح الأخطاء، وتوليد الواجهة الأمامية)، والوكلاء الفرعيون (في Codex، يمكن لـ GPT-5.4 تفويض مهام فرعية إلى GPT-5.4 mini باستخدام 30 % فقط من حصة GPT-5.4)، والتحكم في الواجهة (computer use)، حيث يفسر GPT-5.4 mini بسرعة لقطات الشاشة للواجهات الكثيفة.

النموذجالتوفرسعر الإدخالسعر الإخراجالسياق
GPT-5.4 miniAPI، Codex، ChatGPT Free/Go0,75 $/مليون token4,50 $/مليون token400 000 token
GPT-5.4 nanoAPI فقط0,20 $/مليون token1,25 $/مليون token

في ChatGPT، يتاح GPT-5.4 mini لمستخدمي Free وGo عبر ميزة “Thinking” في قائمة +. أما بالنسبة للخطط المدفوعة، فيعمل كنموذج احتياطي عند الوصول إلى حد معدل GPT-5.4 Thinking.

🔗 Introducing GPT-5.4 mini and nano


NVIDIA GTC 2026: ائتلاف Nemotron وDynamo 1.0

شكّلت قمة GTC التابعة لـ NVIDIA، التي انطلقت في 16 مارس، محفزًا لعدة إعلانات كبرى في القطاع: تشكيل ائتلاف مفتوح حول نماذج frontier المفتوحة المصدر، وإطلاق نظام تشغيل للاستدلال في الإنتاج، والإعلان عن مخطط بيانات للذكاء الاصطناعي الفيزيائي.

Mistral تنضم إلى NVIDIA Nemotron Coalition

16 مارس — تعلن Mistral AI شراكة استراتيجية مع NVIDIA للتطوير المشترك لنماذج ذكاء اصطناعي frontier مفتوحة المصدر. تصبح Mistral عضوًا مؤسسًا في NVIDIA Nemotron Coalition، جامعَةً بين بنيتها frontier وبنية NVIDIA الحاسوبية وأدوات التطوير الخاصة بها.

الجانبالتفاصيل
دور Mistralعضو مؤسس، بنية frontier + عرض ذكاء اصطناعي متكامل stack
مساهمة NVIDIAبنية تحتية GPU + أدوات تطوير
الهدفالتطوير المشترك لنماذج مفتوحة بمستوى frontier

🔗 Annonce Mistral sur X

Perplexity تنضم أيضًا إلى الائتلاف

16 مارس — تعلن Perplexity انضمامها إلى ائتلاف NVIDIA Nemotron نفسه. النقاط الأساسية: تقوم Perplexity بتهيئة نماذج مفتوحة مختلفة لكل مرحلة من مراحل خط أنابيب الإجابة لديها (تحليل الاستعلام، الاستدلال، الإجابة النهائية). أصبح نموذج Nemotron 3 Super (120 مليار معلمة، معمارية MoE) متاحًا الآن في شريط بحث Perplexity، وAgent API، وPerplexity Computer.

🔗 Blog Perplexity – Nemotron Coalition 🔗 Annonce NVIDIA

Dynamo 1.0: نظام تشغيل الاستدلال يدخل الإنتاج

16 مارس — تعلن NVIDIA في GTC عن إدخال Dynamo 1.0 إلى الإنتاج، ويُقدَّم بوصفه “نظام تشغيل الاستدلال” (inference operating system) لمصانع الذكاء الاصطناعي (AI factories). يعزز Dynamo أداء الاستدلال على معالجات Blackwell GPU بما يصل إلى 7x مقارنةً بالنشرات غير المحسنة. ويمثل الانتقال إلى v1.0 دخوله من المرحلة التجريبية إلى الإنتاج الصناعي.

🔗 Annonce NVIDIA Dynamo 1.0

Physical AI Data Factory Blueprint

16 مارس — تكشف NVIDIA عن Physical AI Data Factory Blueprint: بنية مرجعية لتحويل الحوسبة المسرّعة إلى بيانات تدريب عالية الجودة مخصصة للروبوتات، ووكلاء الرؤية بالذكاء الاصطناعي، والمركبات ذاتية القيادة. يمكّن هذا المخطط الشركات من توليد بيانات تدريب اصطناعية للذكاء الاصطناعي الفيزيائي على نطاق واسع.

🔗 Annonce NVIDIA Physical AI

Cohere + NVIDIA: ذكاء اصطناعي سيادي على DGX Spark

16 مارس — تتعاون Cohere وNVIDIA لتطوير ذكاء اصطناعي سيادي وآمن وفعّال، كما أُعلن عنه أيضًا في GTC. هناك محوران رئيسيان: نماذج NVIDIA ecosystem-native (نماذج مخصصة ومحسنة لأحدث بنية NVIDIA، تستهدف workloads enterprise المتخصصة) وNorth على DGX Spark (ستتوفر منصة North الوكالية من Cohere على NVIDIA DGX Spark، محليًا وبزمن استجابة منخفض للبيانات الحساسة). القطاعات المستهدفة هي المالية، والرعاية الصحية، والقطاع العام.

🔗 Blog Cohere – IA souveraine NVIDIA


Perplexity Comet Enterprise: حوكمة MDM وتكامل CrowdStrike

17 مارس — تطلق Perplexity Comet Enterprise لجميع المشتركين في Enterprise. ينتقل متصفح الذكاء الاصطناعي إلى نسخة مؤسسية مع حوكمة نشر كاملة.

الميزةالوصف
نشر MDMمثبّت صامت، نشر على آلاف الأجهزة، سجلات تدقيق
قياس عن بُعد دقيقتتبع حسب المستخدم
CrowdStrike Falconحماية ضد التصيّد، كشف التسريب (لقطات شاشة، تنزيلات)
تدخل في الوقت الحقيقيممكن عبر تكامل CrowdStrike
الخصوصيةPerplexity لا تدرب نماذجها أبدًا على بيانات enterprise

من بين المستخدمين الأوائل: شركات ضمن قائمة Fortune، وAWS، وAlixPartners، وGunderson Dettmer، وBessemer Venture Partners. تشمل حالات الاستخدام الموثقة إعداد اجتماعات العملاء (أخبار في الوقت الحقيقي)، وتحليل عقود SOW، والحسابات المالية، والبحث القطاعي.

🔗 Blog Perplexity – Comet Enterprise


Claude Code v2.1.77: حد افتراضي 64k token لـ Opus 4.6

17 مارس — تصدر Claude Code v2.1.77 مع زيادة كبيرة في حدود التوليد وعدة إصلاحات لأخطاء حرجة.

النموذجالحد الافتراضيالحد الأقصى
Claude Opus 4.664 000 token128 000 token
Claude Sonnet 4.6128 000 token

يتضاعف الحد الافتراضي لـ Opus 4.6 (من 32k إلى 64k token)، مما يتيح ردودًا أطول بكثير دون إعدادات إضافية.

الميزات الجديدة:

  • allowRead في sandboxes: معلمة إعداد جديدة لنظام الملفات تتيح إعادة السماح بالقراءة ضمن المناطق المشمولة بقاعدة denyRead. مفيد لإعدادات الأمان الدقيقة.
  • /copy N: تقبل الآن الأمر /copy فهرسًا اختياريًا — يقوم /copy 2 بنسخ الرد السابق الثاني للمساعد دون التنقل في السجل.

إصلاحات بارزة:

  • “Always Allow” على أوامر bash المركبة: كانت القاعدة تُحفظ للسلسلة الكاملة (cd src && npm test) بدلًا من كل أمر فرعي على حدة. تم الإصلاح.
  • Auto-updater: كان يبدأ تنزيلات متوازية عند الفتح والإغلاق المتكرر للنافذة، ما قد يراكم عشرات الغيغابايت في الذاكرة. تم الإصلاح.
  • --resume الذي يقتطع السجل: كانت حالة سباق (race condition) بين عمليات كتابة استخراج الذاكرة والنص الرئيسي قد تؤدي إلى اقتطاع صامت. تم الإصلاح.
  • Hooks PreToolUse التي تتجاوز قواعد deny: كان hook يعيد "allow" يتجاوز قواعد الإذن deny، بما في ذلك الإعدادات التي تديرها المؤسسة. إصلاح أمني مهم.

🔗 CHANGELOG Claude Code


مقال تقني: كيف يستخدم فريق Claude Code Skills

17 مارس — ينشر Thariq (@trq212)، مهندس فريق Claude Code لدى Anthropic، مقالًا بعنوان “Lessons from Building Claude Code: How We Use Skills”، وهو المقال الثاني في السلسلة بعد “Seeing like an Agent” (27 فبراير، 3.6 مليون مشاهدة).

يوثّق المقال كيف أصبحت Skills واحدة من أكثر نقاط التوسعة استخدامًا في Claude Code — مرنة، وسهلة الصيانة، وتمكّن الفرق من تحديد workflows قابلة لإعادة الاستخدام مباشرة داخل بيئة التطوير الخاصة بها. نقل Boris Cherny (@bcherny)، المسؤول عن Claude Code، المقال واصفًا إياه بأنه “Really great writeup”. كما يعلن المؤلف أيضًا عن النشر الوشيك لـ skill iMessage مفتوح المصدر كمثال عملي.

“Using Skills well is a skill issue. I didn’t quite realize how much until I wrote this.”

🇸🇦 الاستخدام الجيد لـ Skills مسألة كفاءة. لم أكن أدرك مدى ذلك قبل أن أكتب هذا المقال.@trq212 sur X

🔗 Tweet de publication


Codex Security: لماذا لا يوجد تقرير SAST

16 مارس — تنشر OpenAI مقالًا تقنيًا يشرح قرار التصميم وراء Codex Security: لماذا لا يعتمد النظام على التحليل الساكن (SAST) كنقطة انطلاق.

يرتكز النهج على أربعة أعمدة: القراءة السياقية (تحليل مسار الكود الكامل مع سياق المستودع)، والتنقيح الموجّه المصغّر (تقليصه إلى أصغر جزء قابل للاختبار لكتابة micro-fuzzers)، والاستدلال على القيود (استخدام بيئة Python مع z3-solver لصياغة المشكلات المعقدة بشكل رسمي)، والتحقق في sandbox (التمييز بين “قد تكون هذه مشكلة” و”هذه مشكلة” باستخدام PoC مُترجم). ويُبرز المقال هذه المبادئ عبر CVE-2024-29041 (Express)، وهو توجيه مفتوح حيث كانت الروابط غير الصالحة تتجاوز تطبيقات allowlist.

🔗 Why Codex Security Doesn’t Include a SAST Report


Gemini Personal Intelligence: توسع مجاني في الولايات المتحدة

17 مارس — توسّع Google Personal Intelligence ليصبح متاحًا مجانًا لعدد أكبر من المستخدمين في الولايات المتحدة. كانت هذه الميزة حصرًا على المشتركين المدفوعين، وأصبحت الآن متاحة للحسابات المجانية (free-tier) عبر ثلاث واجهات: AI Mode في Google Search، وتطبيق Gemini (iOS/Android)، وامتداد Gemini in Chrome.

تربط Personal Intelligence بشكل آمن تطبيقات Google الخاصة بالمستخدم (Gmail، Google Photos، YouTube، Search) لتقديم إجابات مخصصة. أمثلة: توصيات تسوق متوافقة مع المشتريات السابقة، ومساعدة تقنية تستهدف الجهاز الذي تم شراؤه بالضبط (مستخرجة من إيصالات Gmail)، ومسارات سفر مخصصة بناءً على تأكيدات الفندق. يختار المستخدم التطبيقات التي يربطها ويمكنه تعطيلها في أي وقت. متاحة للحسابات الشخصية في Google فقط (وليس Workspace enterprise/education).

🔗 Blog Google – Personal Intelligence


AlphaFold Database: ملايين البنى الجديدة لمركّبات البروتين

17 مارس — تعلن Google DeepMind عن توسيع قاعدة بيانات AlphaFold Database (AFDB) بملايين البنى الجديدة لمركّبات البروتين المتوقعة بالذكاء الاصطناعي، بالتعاون مع EMBL-EBI (المعهد الأوروبي للمعلوماتية الحيوية)، وNVIDIA، وجامعة سيول الوطنية. تغطي البنى الجديدة خصوصًا مسببات الأمراض البكتيرية ذات الأولوية لدى منظمة الصحة العالمية — وهي أكثر البكتيريا خطورة ومقاومة للمضادات الحيوية. ينتقل هذا التوسع من مستوى البروتينات الفردية إلى مركّبات البروتين (تفاعلات بين عدة بروتينات)، وهو قفزة نوعية للبحث الطبي والدوائي.

🔗 Annonce Pushmeet Kohli sur X


xAI: API Text-to-Speech لـ Grok والمركز الأول في تحرير الفيديو

API Text-to-Speech

16 مارس — تعلن xAI عن توفر API Text-to-Speech من Grok، مع أصوات طبيعية ومعبرة للمطورين. دمجت LiveKit هذه الـ TTS في LiveKit Inference منذ الإطلاق.

🔗 Annonce xAI sur X

Grok Imagine في المركز الأول بتحرير الفيديو

15 مارس — يصل Grok Imagine إلى المركز الأول في تحرير الفيديو على ترتيب Design Arena، مع Elo يبلغ 1290. L’API Imagine est désormais accessible aux développeurs. La fonctionnalité couvre l’ajout, la suppression et l’échange d’objets dans des scènes vidéo.

🔗 Annonce Grok sur X


Perplexity Computer : contrôle total de Comet et Android

Computer contrôle Comet sans MCP

16 mars — Computer peut désormais prendre le contrôle total du navigateur Comet pour exécuter des tâches autonomes : l’agent navigateur peut accéder à n’importe quel site ou application connectée, sans connecteurs ni MCP. Disponible pour tous les utilisateurs Computer sur Comet.

🔗 Tweet Perplexity

Computer sur Android

16 mars — Perplexity Computer est désormais disponible sur Android, étendant le lancement iOS du 13 mars à l’ensemble des plateformes mobiles.

🔗 Tweet Perplexity Android


Manus : bureau local et Google Workspace au niveau développeur

Manus “My Computer” sur macOS et Windows

16 mars — Manus annonce “My Computer”, fonctionnalité centrale de la nouvelle application Manus Desktop (macOS et Windows). Jusqu’ici limité à un bac à sable cloud, Manus peut désormais s’exécuter directement sur la machine locale via des instructions en ligne de commande dans un terminal local — avec approbation explicite de l’utilisateur à chaque étape.

Les cas d’usage couvrent un spectre large : trier et renommer des milliers de fichiers, créer des applications de bureau natives (exemple cité : une application Mac de traduction et sous-titrage en temps réel créée en 20 minutes, sans ouvrir Xcode), ou utiliser le GPU local pour entraîner des modèles de machine learning. My Computer complète les Connecteurs cloud existants (Google Calendar, Gmail) plutôt que de les remplacer.

🔗 Tweet Manus · 🔗 Blog Manus

Manus maîtrise Google Workspace avec précision

17 mars — Manus déploie une mise à jour majeure de son connecteur Google Workspace, basée sur le Google Workspace CLI (outil open source de l’équipe Google). L’ancienne version traitait les fichiers Google comme des blocs monolithiques ; la nouvelle version permet des actions granulaires :

DomaineNouvelles capacités
Google DocsRemplacements de texte chirurgicaux, réponses à des commentaires spécifiques
Google SheetsLecture multi-feuilles croisées, mise à jour d’une cellule précise, duplication d’onglets
Google SlidesÉdition de présentations existantes (titre d’une diapositive, mise à jour de chronologie)
Google DriveRéorganisation de dossiers

La mise à jour est gratuite et rétrocompatible.

🔗 Tweet Manus · 🔗 Blog Manus


GitHub : /fleet pour la maintenance en masse et 12,5 M$ pour l’open source

Copilot /fleet : maintenance sur toute la flotte de dépôts

15 mars — GitHub fait la démonstration de la commande /fleet dans GitHub Copilot. En une instruction, les développeurs qui gèrent plusieurs dépôts peuvent déléguer les tâches de maintenance répétitives (mises à jour de configuration, corrections de dépendances) à l’agent sur l’ensemble de leur flotte, plutôt que dépôt par dépôt.

🔗 Tweet GitHub

12,5 M$ pour la sécurité open source

17 mars — GitHub, Anthropic, AWS, Google et OpenAI s’unissent dans un engagement collectif de 12,5 millions de dollars en faveur d’Alpha-Omega, le programme de la Linux Foundation dédié à la sécurisation de l’écosystème open source.

Points clés côté GitHub : 280 000+ mainteneurs sur des centaines de millions de dépôts publics seront éligibles à un accès gratuit à GitHub Copilot Pro. GitHub injecte également 5,5 M$ en crédits Azure pour la formation. Le GitHub Secure Open Source Fund, qui a déjà soutenu 138 projets, ouvre sa quatrième session fin avril 2026.

Le contexte est significatif : l’IA a considérablement accéléré la découverte de vulnérabilités, ce qui alourdit la charge des mainteneurs. L’objectif affiché est que l’IA réduise cette charge plutôt que de l’augmenter.

🔗 Article GitHub Blog 🔗 Annonce Linux Foundation


Z.ai GLM-5-Turbo : haute-vitesse pour les environnements agents

15 mars — Z.ai lance GLM-5-Turbo, une variante haute-vitesse de GLM-5 optimisée pour les environnements agents (notamment OpenClaw). Le même jour, les limites d’utilisation sont triplées pour les abonnés GLM Coding Plan. Disponible sur OpenRouter et via l’API directe.

🔗 Annonce Z.ai sur X


Kimi publie un paper sur les Attention Residuals

16-17 mars — Moonshot AI publie un paper de recherche sur les Attention Residuals sur arXiv : une nouvelle approche d’agrégation en profondeur qui remplace les connexions résiduelles standard par une récurrence inspirée de la dualité temps/profondeur (depth-wise aggregation). L’analyse montre que cette approche atténue naturellement les problèmes de croissance de magnitude des états cachés. Elon Musk a répondu “Impressive work from Kimi” sur le tweet d’annonce (4,5 millions de vues).

🔗 Tweet Kimi · 🔗 arXiv 2603.15031


ElevenLabs × Deloitte : agents omnicanaux pour l’entreprise

14 mars — ElevenLabs et Deloitte annoncent un partenariat stratégique combinant la plateforme ElevenLabs Agents avec l’expertise sectorielle de Deloitte, pour aider les grandes entreprises à déployer des agents conversationnels omnicanaux. Le partenariat cible les entreprises régulées (finance, santé, service public). Deloitte apporte l’intégration métier, ElevenLabs fournit l’infrastructure audio IA (voix, transcription, agents).

🔗 Blog ElevenLabs


Brèves

Tongyi Fun-CineForge (Alibaba, 16 mars) — Tongyi Lab open-source Fun-CineForge, un système de doublage cinématographique IA approchant la qualité du cinéma professionnel. Disponible sur GitHub, HuggingFace et ModelScope. 🔗 Annonce sur X


Ce que ça signifie

La NVIDIA GTC 2026 cristallise une dynamique importante : plusieurs labs IA de premier plan (Mistral, Perplexity, Cohere) s’alignent autour de l’infrastructure NVIDIA pour co-développer des modèles frontier ouverts ou des déploiements souverains. Cette convergence autour d’une coalition ouverte tranche avec la période récente de fragmentation — et signale que le pré-entraînement à grande échelle est devenu trop coûteux pour être traité en silo.

GPT-5.4 mini confirme une tendance lourde : les modèles “petit format” ne sont plus des versions dégradées mais des alternatives compétitives. Avec 54,4 % sur SWE-Bench Pro contre 57,7 % pour le modèle complet, et un coût 19x inférieur, GPT-5.4 mini redéfinit le rapport performance/prix pour les workflows de codage.

La journée du 17 mars illustre aussi la montée en puissance des agents locaux et bureau : Manus “My Computer” sort du cloud pour accéder à la machine locale, Perplexity Computer prend le contrôle de Comet sans MCP, et Claude Code double sa fenêtre de génération par défaut pour Opus 4.6. L’ère de l’agent qui se contente de suggérer laisse place à celle de l’agent qui exécute.


Sources

تمت ترجمة هذه الوثيقة من النسخة fr إلى اللغة ar باستخدام النموذج gpt-5.4-mini. لمزيد من المعلومات حول عملية الترجمة، راجع https://gitlab.com/jls42/ai-powered-markdown-translator