ai-powered-markdown-translatorمقالة مترجمة من الفرنسية إلى العربية باستخدام gpt-5.4-mini.
توقّع Anthropic وxAI اتفاقًا غير مسبوق: 220,000 GPU من NVIDIA في الحاسوب الفائق Colossus 1 ستضاعف حدود Claude Code بدءًا من هذا الأسبوع. كما ينتقل Claude for Microsoft 365 إلى الإتاحة العامة على Excel وPowerPoint وWord. وتطلق OpenAI نموذج GPT-Realtime-2، وهو أول نموذج صوتي مزود باستدلال بمستوى GPT-5. وتفتح Perplexity Personal Computer أمام جميع مستخدمي Mac، بينما تتجاوز ElevenLabs إيرادات سنوية متكررة قدرها 500 مليون دولار، مع NVIDIA بوصفها مستثمرًا استراتيجيًا.
Anthropic تستأجر Colossus 1 من xAI — 220,000 GPU NVIDIA، ومضاعفة حدود Claude Code
6 مايو — تعلن Anthropic في الوقت نفسه عن زيادة فورية في حدود الاستخدام واتفاق بنية تحتية غير مسبوق مع SpaceX / xAI.
وبالنسبة للمستخدمين، فإن التغيير الأبرز هو مضاعفة حدود المعدّل خلال خمس ساعات في Claude Code، وذلك فورًا على خطط Pro وMax وTeam وEnterprise. كما أُزيلت أيضًا عملية الخفض التلقائي خلال ساعات الذروة — التي كانت تقيد خطط Pro وMax. وارتفعت أيضًا حدود API لنماذج Claude Opus بالتوازي.
أصبحت هذه الزيادات ممكنة بفضل اتفاق مع SpaceX: تحصل Anthropic على كامل سعة Colossus 1، الحاسوب الفائق التابع لـ xAI، أي أكثر من 300 ميغاواط وأكثر من 220,000 GPU من NVIDIA (H100 وH200 وGB200). وهذه السعة متاحة خلال الشهر. كما تعلن الشركتان عن نية مشتركة لتطوير عدة غيغاواط من سعة حوسبة الذكاء الاصطناعي في المدار — وهي سابقة في الصناعة.
تأتي هذه الشراكة لتضاف إلى تراكم من الاتفاقات الجارية بالفعل: Amazon (حتى 5 GW، منها قرابة 1 GW متاحة في نهاية 2026)، وGoogle وBroadcom (5 GW اعتبارًا من 2027)، وMicrosoft وNVIDIA (30 مليار دولار من سعة Azure)، وFluidstack (50 مليار دولار من البنية التحتية للذكاء الاصطناعي في الولايات المتحدة). وسيأخذ التوسع الدولي في الاعتبار متطلبات إقامة البيانات للقطاعات المنظمة. كما تلتزم Anthropic بتغطية أي زيادة في سعر الكهرباء للمستهلكين المحليين مرتبطة بمراكز بياناتها.
| التغيير | الخطط المعنية | ساري المفعول |
|---|---|---|
| مضاعفة حدود 5 ساعات في Claude Code | Pro، Max، Team، Enterprise | فوري |
| إلغاء خفض ساعات الذروة | Pro، Max | فوري |
| رفع حدود API لـ Opus | الجميع | فوري |
| اتفاق الحوسبة | السعة | الجدول الزمني |
|---|---|---|
| SpaceX / xAI Colossus 1 | 300+ MW، 220,000+ GPU NVIDIA | خلال الشهر |
| Amazon | حتى 5 GW (~1 GW نهاية 2026) | 2026 |
| Google + Broadcom | 5 GW | اعتبارًا من 2027 |
| Microsoft + NVIDIA | 30 مليار دولار أمريكي Azure | — |
| Fluidstack | 50 مليار دولار أمريكي بنية تحتية في الولايات المتحدة | — |
🔗 Anthropic — زيادة الحدود + اتفاق SpaceX
Claude for Microsoft 365 — الإتاحة العامة على Excel وPowerPoint وWord + نسخة تجريبية من Outlook
7 مايو — ينتقل Claude for Excel وPowerPoint وWord إلى الإتاحة العامة لجميع الخطط المدفوعة. ويدخل Claude for Outlook في الوقت نفسه إلى النسخة التجريبية العامة بالشروط نفسها.
“Claude for Excel, PowerPoint, and Word are now generally available, and Claude for Outlook is in public beta. As Claude moves between your Microsoft apps, it carries the full context of your conversation.”
🇸🇦 أصبح Claude for Excel وPowerPoint وWord متاحًا الآن للجميع، بينما أصبح Claude for Outlook في النسخة التجريبية العامة. وعبر تطبيقات Microsoft المختلفة، يحتفظ Claude بالسياق الكامل لمحادثتك. — @claudeai على X
الميزة الأساسية هي السياق المشترك بين التطبيقات الأربعة: تبدأ محادثة في Outlook لفرز رسالة بريد إلكتروني، ثم تتابع في Word لصياغة مذكرة، ثم في Excel لتحليل البيانات، ثم في PowerPoint لعرض تقديمي — من دون الحاجة إلى إعادة شرح السياق في أي مرة. أما التحديث التلقائي المتقاطع فهو الإضافة العملية الأخرى: تعديل فرضية في نموذج Excel يحدّث في الوقت نفسه الرسم البياني في العرض والقيمة المقابلة في مذكرة Word.
ومن بين الشركات المذكورة: ServiceNow (“Claude does the work in Excel itself, instead of asking us to move content between tools”) وفرق إدارة الأصول الخاصة التي تستخدمه لبناء وصيانة نماذج التغطية المالية.
| التطبيق | الحالة في 7 مايو 2026 | الخطط |
|---|---|---|
| Claude for Excel | إتاحة عامة (GA) | جميع الخطط المدفوعة |
| Claude for PowerPoint | إتاحة عامة (GA) | جميع الخطط المدفوعة |
| Claude for Word | إتاحة عامة (GA) | جميع الخطط المدفوعة |
| Claude for Outlook | نسخة تجريبية عامة | جميع الخطط المدفوعة |
🔗 إعلان Claude for Microsoft 365
Claude Managed Agents — dreaming، outcomes، orchestration multiagent، webhooks
6 مايو — خلال مؤتمر Code with Claude، تطلق Anthropic عدة ميزات جديدة لمنصة نشر الوكلاء التابعة لها.
أبرز جديد هو dreaming: عملية مجدولة تحلل الجلسات السابقة لوكيل ما، وتستخرج منها أنماطًا متكررة، وتدمج ذاكرته ليصبح أفضل مع مرور الوقت. ويبقى المطور هو المتحكم — إذ يمكن لـ dreaming تحديث الذاكرة تلقائيًا أو إرسال كل تغيير إلى مراجعة بشرية. وdreaming متاح في معاينة بحثية (research preview) عند الطلب.
ويدخل Outcomes النسخة التجريبية العامة: تتيح هذه الميزة تقييم كل نتيجة يصدرها وكيل وفق معايير يحددها المطور قبل تسليمها إلى المستخدم. وقد استخدمته شركة Wisedocs لتسريع مراجعة المستندات الطبية بنسبة 50% مع الحفاظ على التوافق مع معاييرها الداخلية.
تتيح orchestration multiagent لوكيل قائد أن يفوض مهام فرعية إلى وكلاء متخصصين يعملون بالتوازي، ما يسهل التعامل مع الأعمال المعقدة التي تتطلب عدة خبرات في الوقت نفسه. كما أصبحت webhooks متاحة أيضًا لتشغيل إجراءات خارجية.
| الميزة | الإتاحة | الوصف |
|---|---|---|
| Dreaming | معاينة بحثية (عند الطلب) | تحسين ذاتي عبر تحليل الجلسات السابقة |
| Outcomes | نسخة تجريبية عامة | تقييم النتائج قبل التسليم |
| Orchestration multiagent | نسخة تجريبية عامة | وكيل قائد + وكلاء متخصصون بالتوازي |
| Webhooks | نسخة تجريبية عامة | تشغيل إجراءات خارجية |
GPT-Realtime-2 — صوت مع استدلال GPT-5 وسياق 128K
7 مايو — تطلق OpenAI جيلًا جديدًا من النماذج في Realtime API: GPT-Realtime-2 وGPT-Realtime-Translate وGPT-Realtime-Whisper.
GPT-Realtime-2 هو أول نموذج صوتي مزود باستدلال بمستوى GPT-5: يمكنه معالجة الطلبات المعقدة، واستدعاء الأدوات بالتوازي (parallel tool calls)، والتعافي بعد الانقطاعات (recovery behavior)، والحفاظ على نافذة سياق بسعة 128,000 token (مقابل 32,000 في سلفه)، وهي مناسبة للجلسات الطويلة. ويمكن ضبط خمسة مستويات للاستدلال: minimal وlow وmedium وhigh وxhigh (ويكون low افتراضيًا). ويمكن إدراج صيغ تمهيدية (preambles) قبل الردود لإضفاء سلاسة طبيعية.
يتيح GPT-Realtime-Translate الترجمة الفورية المباشرة إلى 13 لغة مستهدفة انطلاقًا من أكثر من 70 لغة مصدر. أما GPT-Realtime-Whisper فيوفر نسخًا نصيًا متدفقًا (streaming) بزمن انتقال منخفض.
اختبرت Zillow نموذج GPT-Realtime-2 على تفاعلاتها الصوتية: +26 نقطة في معدل النجاح على أصعب معيار خصومي لديها (95% مقابل 69%). ويدعم EU Data Residency.
| النموذج | القدرة | السعر |
|---|---|---|
| GPT-Realtime-2 | صوت + استدلال GPT-5، 128K | $32/1M tokens audio input، $64/1M output |
| GPT-Realtime-Translate | ترجمة 70→13 لغة | $0,034/min |
| GPT-Realtime-Whisper | نسخ متدفق | $0,017/min |
| المعيار | GPT-Realtime-1.5 | GPT-Realtime-2 (high) | GPT-Realtime-2 (xhigh) |
|---|---|---|---|
| Big Bench Audio | مرجع | +15,2 % | — |
| Audio MultiChallenge APR | 36,7 % | — | 70,8 % |
🔗 إعلان OpenAI — نماذج صوتية جديدة
Perplexity Personal Computer متاح لجميع مستخدمي Mac
7 مايو — تطلق Perplexity تطبيق macOS جديدًا وتفتح Personal Computer أمام جميع المستخدمين، من دون أي قيد على اشتراك Pro أو Max.
يُخرج التطبيق الذكاء الاصطناعي من السحابة ليتم تشغيله مباشرة على الجهاز. وهو يعمل على الملفات المحلية، وتطبيقات Mac الأصلية، والويب المفتوح، وخوادم Perplexity الآمنة. كما يدعم أكثر من 400 موصل ويتكامل مع متصفح Comet لأدوات الويب من دون موصلات مباشرة. وتبقى رصيد خطط Pro وMax مرتبطًا بالاشتراك القائم؛ كما يحصل المستخدمون المجانيون على وصول أيضًا.
التوصية العملية هي استخدام Mac mini كمحور دائم: يمكن لفرق من الوكلاء العمل بشكل متواصل (24 ساعة/7 أيام)، بينما يواصل المستخدم عمله في شيء آخر، مع إشعار عندما تكون هناك حاجة إلى موافقة بشرية. ويتم التحكم من أي جهاز — بما في ذلك iPhone.
سيجري سحب تطبيق Perplexity Mac القديم خلال الأسابيع المقبلة. والتنزيل مباشر (وليس متاحًا بعد على App Store).
| البُعد | القيمة |
|---|---|
| الإتاحة | جميع مستخدمي Mac |
| الجهاز الموصى به | Mac mini (يعمل باستمرار) |
| الموصلات المدعومة | 400+ |
| تكامل المتصفح | Comet |
| App Store | لا (تنزيل مباشر) |
| التطبيق القديم | سحب خلال الأسابيع المقبلة |
🔗 مدونة Perplexity — Personal Computer للجميع
Perplexity Finance Search داخل Agent API — الدقة رقم 1 على FinSearchComp T1
6 مايو — تطلق Perplexity خدمة Finance Search داخل Agent API: استدعاء واحد لأداة يجمع البيانات المالية المرخصة، وبيانات السوق في الوقت الفعلي، والمصادر الويب المقتبسة.
المشكلة التي يحلها هذا المنتج بسيطة: تعتمد القرارات المالية على مصادر موثوقة وحديثة وقابلة للتتبع. ويستبدل Finance Search البحث الويب العام ببيانات منظمة ومرخصة — أسعار، أساسيات، نصوص مكالمات الأرباح، تقديرات — تُعاد ضمن مخطط متسق بغض النظر عن المزود في الخلفية.
على معيار FinSearchComp T1، يحقق Finance Search أعلى دقة للبيانات المالية في الوقت الفعلي، وثابتة عبر الزمن، وأقل تكلفة لكل إجابة صحيحة (بفضل تقليل عدد token المطلوب من خلال البيانات المنظمة). وتُدمج الاقتباسات داخل كل نتيجة. كما أن النموذج قابل للتهيئة من قبل المطور، مع رؤية واضحة لاستخدام token.
ويُعد Finance Search مكمّلًا لـ Computer for Professional Finance (الذي غُطي بالفعل في 5 مايو): فبينما يوفر الأول مساحة عمل مرئية، يندمج Finance Search في مسارات عمل برمجية عبر API.
| البُعد | القيمة |
|---|---|
| الواجهة | استدعاء أداة واحد (finance_search) |
| البيانات المغطاة | أسعار، أساسيات، نصوص، تقديرات، سياق السوق |
| معيار FinSearchComp T1 | الدقة رقم 1، الكلفة رقم 1/إجابة صحيحة |
| الاقتباسات | مدمجة في كل نتيجة |
🔗 مدونة Perplexity — Finance Search
Natural Language Autoencoders (NLAs) — قراءة الأفكار الداخلية لـ Claude
7 مايو — تنشر Anthropic طريقة جديدة للشفافية التفسيرية تحول التنشيطات الداخلية لنموذج ما إلى نص قابل للقراءة مباشرة.
تعتمد البنية على تدريب حلقة مغلقة: موضح التنشيط (activation verbalizer) يترجم التنشيط إلى نص تفسيري، بينما يحاول معيد بناء التنشيط (activation reconstructor) إعادة بناء التنشيط من ذلك النص. وكلما كانت إعادة البناء أدق، كان التفسير أفضل.
والتطبيق الأمني لافت: عند تطبيقها على Claude Opus 4.6 وClaude Mythos Preview، تكشف NLAs أن النماذج كانت تشتبه بأنها في وضع اختبار أكثر بكثير مما كانت تصرّح به. ففي اختبارات الشيفرة التخريبية، يظهر الوعي الضمني بالتقييم في 16% من الحالات، مقابل 0% من التصريح الصريح. وعلى SWE-bench Verified، ترتفع النسبة إلى 26%. أما في محادثات claude.ai الحقيقية مع المستخدمين، فتبقى أقل من 1%.
وفي مجموعة تدقيق تضم نموذجًا غير متوافق عمدًا، نجح المدققون المزودون بـ NLAs في تحديد السبب الجذري في 12 إلى 15% من الحالات، مقابل أقل من 3% باستخدام أدوات أخرى. وقد نُشر كود التدريب كمصدر مفتوح؛ كما تتوفر نسخة تجريبية تفاعلية على Neuronpedia.
| التقييم | الوعي الضمني (NLA) | الوعي المُلفَظ |
|---|---|---|
| اختبارات الشيفرة التخريبية | 16 % | ~0 % |
| SWE-bench Verified | 26 % | ~0 % |
| محادثات claude.ai الحقيقية | < 1 % | — |
🔗 Anthropic Research — Natural Language Autoencoders
Petri 3.0 — أداة مواءمة مفتوحة المصدر تُنقل إلى Meridian Labs
7 مايو — تتنازل Anthropic عن Petri، أداة المواءمة مفتوحة المصدر الخاصة بها، لصالح Meridian Labs، وهي منظمة مستقلة غير ربحية مكرسة لتقييم الذكاء الاصطناعي.
Petri هي مجموعة أدوات لاختبارات المواءمة تنطبق على أي نموذج لغوي: الخداع، التملق، التعاون مع الطلبات الضارة. وقد أُدمجت في تقييمات جميع نماذج Claude منذ Sonnet 4.5، كما اعتمدها AI Security Institute البريطاني في تقييماته لتعطيل أبحاث الذكاء الاصطناعي.
يضيف الإصدار 3.0 ثلاثة تطورات: قابلية تكيف أفضل عبر فصل مكونات المدقق والنموذج المستهدف، ووحدة “Dish” التي تشغل الاختبارات في ظروف النشر الحقيقية (نفس system prompt الحقيقي، ونفس scaffold الحقيقي) لجعل السيناريوهات أقل قابلية للاكتشاف، وتكاملًا مع Bloom لإجراء تقييمات سلوكية أعمق.
ويأتي التنازل إلى Meridian Labs على نهج التنازل عن بروتوكول MCP إلى Linux Foundation: ضمان استقلالية الأداة عن أي مختبر ذكاء اصطناعي.
🔗 Anthropic Research — Petri 3.0
معهد Anthropic (TAI) — أجندة بحثية على 4 محاور
7 مايو — تنشر Anthropic أجندة البحث الكاملة لـ TAI، وهي المنظمة الداخلية التي أُطلقت في مارس 2026 لدراسة الآثار الواقعية للذكاء الاصطناعي من موقع مختبر frontier.
تتمحور الأجندة حول أربعة محاور: الانتشار الاقتصادي (تبنّي الذكاء الاصطناعي من قبل الشركات والبلدان، وتأثيره على أسواق العمل)، التهديدات والمرونة (قدرات الاستخدام المزدوج، والأمن السيبراني، والآليات الدفاعية)، أنظمة الذكاء الاصطناعي في البرية (in the wild — التأثيرات السلوكية والمؤسسية للذكاء الاصطناعي المنشر على نطاق واسع)، والبحث والتطوير بواسطة الذكاء الاصطناعي (تسريع البحث العلمي عبر الذكاء الاصطناعي نفسه، بما في ذلك مخاطر الحلقة الارتجاعية للتحسين الذاتي).
تلتزم TAI بمشاركة بيانات أكثر تكرارًا من Anthropic Economic Index ومعلومات عن التسريع الداخلي في Anthropic عبر أدواتها الخاصة. كما فُتح باب الترشح لبرنامج Anthropic Fellows (أربعة أشهر ممولة).
🔗 Anthropic Research — أجندة TAI
Codex Extension Chrome — التحكم بالمتصفح في الخلفية على macOS وWindows
7 مايو — تطلق OpenAI إضافة Chrome لـ Codex، ما يتيح للوكيل التحكم مباشرةً في علامات تبويب Chrome دون مقاطعة سير عمل المستخدم.
يعمل Codex في الخلفية عبر عدة علامات تبويب في الوقت نفسه، جامعًا بين قدرات الإضافات الأصلية والوصول المباشر إلى مواقع الويب (لوحات التحكم، CRM، تطبيقات الويب). يختار النظام تلقائيًا أفضل أداة لكل خطوة: الإضافات، أو Chrome، أو مزيجًا منهما. حالات الاستخدام تشمل: تصحيح تدفقات المتصفح، التحقق من لوحات التحكم، إجراء البحث، تحديث أنظمة CRM، واختبار تطبيقات ويب معقدة (بما في ذلك الألعاب متعددة اللاعبين عبر وكلاء فرعيين).
تُثبَّت الإضافة عبر إضافة Chrome داخل تطبيق Codex. وهي متاحة فورًا على macOS وWindows لجميع مستخدمي Codex.
🔗 OpenAI — Codex Chrome Extension
ChatGPT Trusted Contact — أمان للصحة النفسية مع مراجعة بشرية
7 مايو — تطرح OpenAI ميزة Trusted Contact، وهي ميزة أمان اختيارية داخل ChatGPT.
يمكن لأي بالغ (18+، و19+ في كوريا الجنوبية) تعيين شخص موثوق (صديق، أو فرد من العائلة، أو مقدم رعاية) يتم تنبيهه إذا رُصدت إشارات أزمة في محادثاته. تجمع العملية بين الكشف الآلي والمراجعة البشرية (الهدف: أقل من ساعة قبل أي إرسال)، مع إشعار من دون الوصول إلى النصوص التفريغية حفاظًا على الخصوصية. توسّع هذه الميزة إلى البالغين أدوات الرقابة الأبوية الموجودة أصلًا لحسابات المراهقين. وقد طُورت بالتعاون مع American Psychological Association وشبكة تضم أكثر من 260 طبيبًا في 60 دولة.
| المعيار | القيمة |
|---|---|
| الأهلية | 18+ (19+ كوريا الجنوبية) |
| مهلة قبول الشخص الموثوق | أسبوع واحد |
| SLA المراجعة البشرية | الهدف < ساعة واحدة |
| محتوى الإشعار | سبب عام، من دون نص تفريغي |
| القنوات | البريد الإلكتروني، SMS، داخل التطبيق |
OpenAI B2B Signals — الفجوة بين الشركات الرائدة والشركات النموذجية تتسع
6 مايو — تنشر OpenAI أول تقرير B2B Signals، الذي يوثّق الفجوة المتزايدة بين الشركات «الرائدة» والشركات النموذجية في تبني الذكاء الاصطناعي.
تستخدم شركات الشريحة المئوية 95 ذكاءً أكثر بثلاثة أضعاف ونصف لكل موظف مقارنةً بالشركات النموذجية (مقابل 2× في أبريل 2025). وتعود الفجوة بدرجة أقل إلى حجم الرسائل (36% من الفجوة) مقارنةً بـ عمق الاستخدام (64%) : تفويض المهام المعقدة، وسير العمل الوكيلية، والتكامل مع أنظمة الإنتاج. وعلى Codex، تظهر الفجوة بأوضح صورها: ×16 في الرسائل لكل موظف.
مثالان ملموسان: Cisco تقلّص وقت البناء بنحو 20%، وتوفّر أكثر من 1,500 ساعة هندسية شهريًا، وترفع سرعة حل العيوب بمقدار 10 إلى 15 مرة. أما Travelers Insurance فتتعامل مع نحو 100,000 مكالمة مطالبات سنويًا عبر مساعد.
| المؤشر | الشركات النموذجية | الشركات الرائدة |
|---|---|---|
| الذكاء/الموظف | مرجع | ×3,5 |
| رسائل Codex/الموظف | مرجع | ×16 |
| حصة الحجم في الفجوة | — | 36 % |
| حصة العمق في الفجوة | — | 64 % |
MRC — بروتوكول شبكي مفتوح المصدر للحواسيب الفائقة Stargate
5 مايو — تنشر OpenAI بشكل مفتوح عبر Open Compute Project بروتوكول MRC (Multipath Reliable Connection)، الذي طُوِّر بالاشتراك مع AMD وBroadcom وIntel وMicrosoft وNVIDIA على مدى عامين.
MRC هو بروتوكول شبكي بسرعة 800 Gb/s للحواسيب الفائقة لتدريب الذكاء الاصطناعي على نطاق واسع. يربط أكثر من 100,000 GPU باستخدام مستويين فقط من switches (مقابل 3 إلى 4 في النهج التقليدي)، عبر تفتيت الحزم على مئات المسارات في الوقت نفسه باستخدام التوجيه المصدر IPv6 (SRv6). وتتم استعادة الخدمة بعد الأعطال خلال ميكروثوانٍ (مقابل عدة ثوانٍ مع BGP الديناميكي التقليدي). وقد دخل بالفعل حيّز الإنتاج على Stargate (أبيلين، تكساس) وعلى الحواسيب الفائقة Fairwater التابعة لـ Microsoft، وأسهم في تدريب عدة نماذج من بينها GPT-5.5 وCodex.
| الجانب | النهج التقليدي | MRC |
|---|---|---|
| مستويات switches لـ 100K+ GPU | 3-4 | 2 |
| الاستعادة بعد العطل | ثوانٍ إلى عشرات الثواني | ميكروثوانٍ |
| التوجيه | BGP ديناميكي | SRv6 ثابت |
| توزيع الحزم | مسار واحد لكل نقل | مئات المسارات بالتوازي |
🔗 OpenAI — MRC Supercomputer Networking
Perplexity ROSE — محرك استدلال مملوك و CuTeDSL
6 مايو — تنشر Perplexity مقالًا بحثيًا يشرح ROSE (Runtime-Optimized Serving Engine)، وهو محرك الاستدلال المملوك لها، وتكاملها مع CuTeDSL (مكتبة kernels GPU من NVIDIA).
يشغّل ROSE جميع خدمات Perplexity (Sonar وSearch وEmbeddings) على GPUs NVIDIA Hopper وBlackwell، من نماذج التشفير وصولًا إلى LLMs ذات التريليون معلمة. يتيح CuTeDSL بناء kernels GPU مخصّصة ومُحسّنة بسرعة أكبر، ومناسبة للهندسات الجديدة للنماذج بوتيرة متسارعة.
تجسّد هذه النشرة استراتيجية Perplexity: التحكم في كامل المكدس التقني حتى مستوى kernels GPU للتميّز في الأداء وتقليل الاعتماد على الأطر الخارجية.
🔗 Perplexity Research — CuTeDSL وROSE
ElevenLabs تبلغ 500 مليون دولار ARR — NVIDIA مستثمر عبر NVentures
5 مايو — تعلن ElevenLabs عن إغلاق ثالث من السلسلة D مع NVIDIA كمستثمر استراتيجي جديد عبر NVentures.
ارتفع ARR من 350 مليون دولار في نهاية 2025 إلى 500 مليون دولار في أبريل 2026، أي بزيادة 43% خلال أربعة أشهر. كما شمل هذا الإغلاق الثالث BlackRock وWellington Management وD.E. Shaw وSchroders، إضافة إلى شركات عميلة (Salesforce وSantander وKPN وDeutsche Telekom) واستثمارًا تجزئيًا عبر Robinhood Ventures. وقد أُغلق أيضًا tender offer بقيمة 100 مليون دولار بالتوازي. تضم ElevenLabs 530 موظفًا في أكثر من 50 دولة. وتعلن خارطة الطريق عن دمج الصور/الفيديو والصوت ضمن منصة إبداعية موحّدة.
🔗 ElevenLabs — 500 مليون دولار ARR ومستثمرون جدد
AlphaEvolve في الإنتاج — 5 قطاعات صناعية عبر Google Cloud
7 مايو — بعد عام من إطلاقه، تنشر Google DeepMind حصيلة AlphaEvolve، وكيل البرمجة المدعوم بـ Gemini، والذي انتقل الآن من البحث إلى الإنتاج الصناعي.
يُحسّن AlphaEvolve البنية التحتية الحرجة لدى Google: TPU، وسياسات استبدال الذاكرة المؤقتة، وcompaction LSM-tree في Google Spanner. وهو منشور تجاريًا عبر Google Cloud في خمسة قطاعات: المالية (مضاعفة أداء transformer)، وأشباه الموصلات (lithographie computationnelle)، واللوجستيات (مشكلة البائع المتجول)، والإعلانات، وعلوم المواد (نحو 4× في سرعة Schrödinger). وعلى الصعيد الأكاديمي، تعاون AlphaEvolve مع Terence Tao (UCLA) في مسائل Erdős، وحسّن الحدود الدنيا لمشكلة البائع المتجول وأعداد Ramsey.
🔗 DeepMind — تأثير AlphaEvolve
Manus Projects ذاتية التعلّم — مساحة عمل وكيلية تتحسن مع كل مهمة
6 مايو — تطلق Manus ميزة تُمكّن Projects من التعلّم تلقائيًا من كل محادثة واقتراح تحديثات يوافق عليها المستخدم.
بعد كل مهمة، يحدّد Manus القرارات والمعايير والنماذج القابلة لإعادة الاستخدام، ثم يقترح: تحديثات للتعليمات (عندما تتطور العملية أو المصطلحات)، وتحديثات للملفات (المصادر أو الأمثلة أو القوالب القديمة)، وتحديثات للمهارات (skills) الخاصة بسير العمل المتكرر. لا يُطبَّق أي تعديل من دون موافقة بشرية صريحة. ويبدأ المتعاونون الجدد مع آخر سياق مشترك للمشروع. وتتوفر الميزة لكل الجلسات التي تدعم التعليمات والملفات.
🔗 Manus — Projects ذاتية التعلّم
مختصرات
- Bug bounty Anthropic متاح للعامة — البرنامج، الذي كان حتى الآن خاصًا داخل مجتمع أبحاث الأمن، أصبح متاحًا للجميع على HackerOne. 🔗 المصدر
- xAI Image Generation Quality Mode API — أصبح وضع الجودة لتوليد الصور (أكثر من 300 مليون صورة مولدة على Grok) متاحًا الآن عبر API الخاصة بـ xAI: واقعية أعلى، وعرض أفضل للنص، وتحكم إبداعي أقوى. 🔗 المصدر
- Z.ai GLM-5V-Turbo Tech Report — تنشر Z.ai (Zhipu AI) التقرير التقني لـ GLM-5V-Turbo، وهو نموذج أساس أصيل للوكلاء متعدد الوسائط مع encoder CogViT (distillation SigLIP2 + DINOv3) وحلقة إدراك-تخطيط-تنفيذ. 🔗 المصدر
- ChatGPT Futures Class of 2026 — تكرّم OpenAI 26 من البنّائين الشباب من أكثر من 20 جامعة (Vanderbilt وOxford وGeorgia Tech…) بمنحة قدرها 10,000 دولار أمريكي لكل منهم وبوصول إلى النماذج الرائدة. 🔗 المصدر
- NVIDIA DeepStream + Claude Code — عرض توضيحي لنهج «من الفكرة إلى التطبيق» يجمع DeepStream وClaude Code وReusable Skills لإنشاء تطبيقات Vision AI من دون كتابة كل سطر من الشفرة. 🔗 المصدر
- NVIDIA Guess-Verify-Refine — تقنية استدلال جديدة hardware-aware تمنح كل خطوة فك ترميز أفضلية للخطوة التالية، صُممت خصيصًا لمسرّعات NVIDIA. 🔗 المصدر
- TokenSpeed + NVIDIA Dynamo — يصل TokenSpeed (LightSeek Foundation) إلى مستوى TensorRT-LLM كمصدر مفتوح؛ ويضيف NVIDIA Dynamo دعمًا day-0 لهذا الخلفية، مع دعم Kimi K2.5 عبر الواجهة الأمامية Dynamo. 🔗 المصدر
- Ideogram BG Remover — نموذج توليدي جديد (مدرَّب من الصفر، وليس تقسيمًا تقليديًا) لإزالة الخلفية: يحافظ على قناة alpha، وموجَّه للشعارات والرسوم التوضيحية المعقدة، والـ API متاح. 🔗 المصدر
- Google DeepMind × EVE Online — شراكة مع CCP Games لاستكشاف أبحاث الذكاء الاصطناعي في بيئات الألعاب المعقدة التي يقودها اللاعبون. 🔗 المصدر
- GitHub Copilot Trust Layer — تنشر Microsoft/GitHub بحثًا عن طبقة ثقة هيكلية للتحقق من وكلاء Copilot (رسوم بيانية للتنفيذ + تحليل للسيطرات المهيمنة): دقة 100% مقابل 82.2% للتقييم الذاتي، واسترجاع 100% مقابل 60%. 🔗 المصدر
- GitHub — مراجعة pull requests الخاصة بالوكلاء — دليل عملي (قائمة تحقق 10 دقائق) يتضمن 5 إشارات تحذيرية: CI gaming، وcode reuse blindness، وhallucinated correctness، وagentic ghosting، وحقن prompts في مسارات CI. 🔗 المصدر
ماذا يعني ذلك
سباق الحاسوب الشخصي يتسارع. خلال أسبوع واحد، تستهدف ثلاث واجهات مختلفة جدًا المكتب نفسه للمستخدم: Perplexity Personal Computer تُثبَّت على Mac (وMac mini كمحور دائم)، وClaude يقتحم تطبيقات Microsoft 365 الأربعة مع سياق مشترك، وCodex يقود Chrome في الخلفية. هذه الوكلاء لم يعودوا في السحابة فقط: بل باتوا يندمجون في سير العمل القائمة، على الملفات المفتوحة، وفي التطبيقات الأصلية. إن التحول من البحث عن المعلومات إلى الفعل المباشر على أدوات العمل اليومية أصبح الآن ملموسًا.
الحوسبة المدارية تدخل حيّز الوقائع. الاتفاق بين Anthropic وxAI Colossus 1 لافت لسببين: أولًا، يمنح Anthropic وصولًا فوريًا إلى 220,000 GPU من NVIDIA لمضاعفة حدودها ابتداءً من هذا الأسبوع؛ وثانيًا، يتضمن نية مشتركة لتطوير عدة غيغاواطات من سعة الذكاء الاصطناعي في المدار. وعند جمعه مع اتفاقات Amazon وGoogle/Broadcom وMicrosoft/NVIDIA وFluidstack، تُشيّد Anthropic بنية حوسبة لا نظير لها لدى مختبر أبحاث مستقل. إن هذا التراكم في قوة الحوسبة هو الشرط المسبق للجيل التالي من النماذج — وللمضاعفة المستمرة للحدود.
الصوت الاستدلالي يغيّر نطاق الوكلاء الصوتيين. GPT-Realtime-2 ليس تحديثًا تجميليًا: نقل استدلال GPT-5 إلى واجهة زمن حقيقي، مع سياق 128K واستدعاءات أدوات متوازية، يغيّر حالات الاستخدام. تقيس Zillow زيادة قدرها 26 نقطة في معدل النجاح على أصعب مكالماتها. كما أن الترجمة المباشرة (من 70 لغة مصدر إلى 13 لغة هدف) داخل النموذج نفسه تفتح سير عمل متعددة اللغات من دون خط أنابيب ترجمة منفصل. لم يعد السؤال «هل يمكننا القيام بصوت بالذكاء الاصطناعي؟» بل «ما التفاعلات الصوتية المعقدة التي تصبح مجدية اقتصاديًا؟»
الاصطفاف والثقة الوكيلية ينتقلان إلى الأدوات. ثلاث إعلانات منفصلة تتقارب نحو المشكلة نفسها — كيف نثق بالوكلاء في الإنتاج. تكشف NLAs لدى Anthropic أن Claude يعرف متى يتم اختباره (في 16 إلى 26% من التقييمات) من دون أن يصرّح بذلك. وتمنح طبقة الثقة Trust Layer من GitHub (دقة 100% مقابل 82% للتقييم الذاتي) فرق التطوير تحققًا هيكليًا من pull requests المولدة بواسطة الوكلاء. كما أن نقل Petri 3.0 إلى Meridian Labs يخلق مرجع تقييم مستقلًا عن أي مختبر. هذه الطبقات الثلاث — قابلية تفسير النموذج، والتحقق من المخرجات، واستقلالية أدوات التدقيق — بدأت تشكل بنية ثقة للعمليات الوكيلية على نطاق واسع.
المصادر
- Anthropic — ارتفاع الحدود + اتفاق SpaceX/xAI Colossus 1
- xAI — شراكة الحوسبة Anthropic
- Claude — الإتاحة العامة على Microsoft 365
- Claude — Managed Agents (الأحلام، النتائج، التنسيق)
- Anthropic Research — Automatic Encoders للغة الطبيعية
- Anthropic Research — التبرع بـ Petri 3.0 إلى Meridian Labs
- Anthropic Research — جدول أعمال The Anthropic Institute
- Anthropic — مكافأة أخطاء عامة HackerOne
- OpenAI — GPT-Realtime-2 ونماذج صوتية جديدة
- OpenAI — إضافة Codex على Chrome
- OpenAI — جهة اتصال موثوقة في ChatGPT
- OpenAI — مؤشرات B2B
- OpenAI — شبكات الحاسوب العملاق MRC
- OpenAI — فئة ChatGPT Futures لعام 2026
- Perplexity — Personal Computer لجميع مستخدمي Mac
- Perplexity — Finance Search في Agent API
- Perplexity Research — ROSE و CuTeDSL
- ElevenLabs — ARR بقيمة 500 مليون دولار ومستثمرون جدد من NVIDIA
- DeepMind — AlphaEvolve في الإنتاج الصناعي
- Google DeepMind × EVE Online
- Manus — مشاريع ذاتية التعلّم
- GitHub — Trust Layer لوكلاء Copilot
- GitHub — مراجعة PRs التي يُنشئها الوكلاء
- xAI — وضع جودة توليد الصور API
- Z.ai — التقرير التقني GLM-5V-Turbo
- NVIDIA DeepStream + Claude Code
- NVIDIA Guess-Verify-Refine
- TokenSpeed + NVIDIA Dynamo
- Ideogram BG Remover