بحث

أنثروبيك تجمع 30 مليار دولار، GPT-5.3-Codex-Spark على Cerebras، Gemini 3 Deep Think

أنثروبيك تجمع 30 مليار دولار، GPT-5.3-Codex-Spark على Cerebras، Gemini 3 Deep Think

يوم استثنائي في مجال الذكاء الاصطناعي: أنثروبيك تعلن عن جمع 30 مليار دولار مما يرفع تقييمها إلى 380 مليار، OpenAI تنشر نموذج coding في الوقت الفعلي بسرعة تتجاوز 1000 token/ثانية على Cerebras، و Google تدفع Gemini 3 Deep Think نحو أرقام قياسية جديدة في العلوم. على صعيد النظام البيئي، xAI تعيد هيكلة فرقها حول 4 منتجات، Mistral تستثمر 1.2 مليار يورو في السويد، و GitHub تعلق مؤقتاً GPT-5.3-Codex لأسباب تتعلق بالموثوقية.


أنثروبيك تجمع 30 مليار دولار في الجولة G

12 فبراير — أعلنت Anthropic عن جولة تمويل من السلسلة G بقيمة 30 مليار دولار، مما يرفع تقييم الشركة ما بعد التمويل إلى 380 مليار دولار. شارك في قيادة الجولة GIC و Coatue، بمشاركة D. E. Shaw Ventures و Dragoneer و Founders Fund و ICONIQ و MGX. تشمل قائمة المستثمرين الإضافيين Sequoia Capital و BlackRock و Goldman Sachs و Fidelity و Microsoft و NVIDIA وغيرهم.

المقياسالقيمة
المبلغ الذي تم جمعه30 مليار دولار
التقييم ما بعد التمويل380 مليار دولار
الإيرادات السنوية (run-rate)14 مليار دولار
النمو السنوي10x سنوياً (آخر 3 سنوات)
العملاء >100 ألف دولار/سنةنمو 7x في عام واحد
عملاء Enterprise >1 مليون دولار/سنةأكثر من 500 (مقابل 12 قبل عامين)
عملاء Fortune 108 من 10
Run-rate لـ Claude Code2.5 مليار دولار (تضاعف منذ يناير 2026)
المستخدمون الأسبوعيون لـ Claude Code2x منذ 1 يناير 2026
GitHub Commits عبر Claude Code4% (تضاعف في شهر واحد)
اشتراكات Business لـ Claude Code4x منذ بداية 2026
حصة الشركات في Claude Code>50% من إيرادات Claude Code

ستستخدم الأموال للبحث الأساسي، وتطوير المنتجات، وتوسيع البنية التحتية. يظل Claude نموذج frontier الوحيد المتاح على منصات السحابة الثلاث الرئيسية: AWS (Bedrock)، Google Cloud (Vertex AI) و Microsoft Azure (Foundry). تقوم Anthropic بتدريب وتشغيل Claude على مجموعة متنوعة من أجهزة الذكاء الاصطناعي (AWS Trainium، Google TPUs، NVIDIA GPUs).

This fundraising reflects the incredible demand we are seeing from these customers, and we will use this investment to continue building the enterprise-grade products and models they have come to depend on.

🇸🇦 يعكس هذا التمويل الطلب المذهل الذي نشهده من هؤلاء العملاء، وسنستخدم هذا الاستثمار لمواصلة بناء المنتجات والنماذج ذات الجودة المؤسسية التي أصبحوا يعتمدون عليها. — Krishna Rao, CFO d’Anthropic (@AnthropicAI sur X)

🔗 الإعلان الرسمي


GPT-5.3-Codex-Spark: نموذج في الوقت الفعلي على Cerebras

12 فبراير — أطلقت OpenAI نموذج GPT-5.3-Codex-Spark في معاينة بحثية (research preview)، وهو نموذج coding في الوقت الفعلي محسن للاستدلال فائق السرعة على محرك Cerebras Wafer-Scale Engine 3. هذا هو أول نموذج OpenAI يتم نشره على أجهزة غير تابعة لـ NVIDIA.

Codex-Spark هو نسخة مضغوطة من GPT-5.3-Codex، مصممة للعمل التفاعلي حيث يكون زمن الانتقال (latency) بنفس أهمية الذكاء: التعديلات المستهدفة، إعادة هيكلة المنطق، تعديل الواجهات مع ردود فعل فورية.

المواصفاتالتفاصيل
Tokens/ثانية> 1,000 (مقابل 50-100 للنماذج القياسية)
نافذة السياق128k tokens
التنسيقنص فقط (متعدد الوسائط مخطط له لاحقاً)
تقليل overhead العميل/الخادم80% (WebSocket مستمر)
تقليل overhead لكل token30%
تقليل time-to-first-token50%

يعمل النموذج على Cerebras Wafer-Scale Engine 3، وهو معالج متجانس يحافظ على الحساب مقترناً بشكل وثيق للاستدلال عالي الإنتاجية. يمثل هذا الإطلاق الخطوة الأولى في شراكة OpenAI-Cerebras التي تم الإعلان عنها في يناير 2026.

يتوفر Codex-Spark في معاينة بحثية لمشتركي ChatGPT Pro، في أحدث إصدارات تطبيق Codex، و CLI، وامتداد VS Code. الوصول عبر API محدود لشركاء مختارين، مع خطة نشر أوسع.

على SWE-Bench Pro و Terminal-Bench 2.0، يظهر النموذج أداءً قوياً من خلال إكمال المهام في جزء صغير من الوقت مقارنة بـ GPT-5.3-Codex. تطبق حدود معدل منفصلة خلال مرحلة المعاينة البحثية.

في المستقبل، سيقدم Codex وضعين متكاملين: التفكير طويل الأفق (مهام مستقلة لعدة ساعات/أيام) والتعاون في الوقت الفعلي (تكرار سريع). يمكن دمج الوضعين، مع تفويض المهام الطويلة لوكلاء فرعيين في الخلفية.

🔗 الإعلان الرسمي


Gemini 3 Deep Think: أرقام قياسية في العلوم

12 فبراير — أعلنت Google عن تحديث كبير لـ Gemini 3 Deep Think، وهو وضع التفكير المتخصص لديها. تم تصميم النموذج الآن لحل تحديات ملموسة في العلوم والبحث والهندسة، بما يتجاوز النظرية المجردة.

تم تحديث Deep Think بشراكة وثيقة مع العلماء والباحثين. الهدف هو معالجة مشاكل البحث المعقدة، حيث تكون البيانات غالباً غير مرتبة أو غير كاملة وحيث لا يوجد حل وحيد. يجمع النموذج بين المعرفة العلمية العميقة والفائدة الهندسية.

معايير قياسية (Benchmarks)

المعيارالنتيجةملاحظة
Humanity’s Last Exam48.4% (بدون أدوات)معيار جديد لنماذج frontier
ARC-AGI-284.6%تم التحقق منه بواسطة ARC Prize Foundation
CodeforcesElo 3455برمجة تنافسية
IMO 2025ميدالية ذهبيةأولمبياد الرياضيات الدولي
IPhO 2025 (كتابي)ميدالية ذهبيةأولمبياد الفيزياء الدولي
IChO 2025 (كتابي)ميدالية ذهبيةأولمبياد الكيمياء الدولي
CMT-Benchmark50.5%فيزياء نظرية متقدمة

حالات استخدام حقيقية

  • الرياضيات (Lisa Carbone، Rutgers University): حدد Deep Think عيباً منطقياً دقيقاً في ورقة رياضيات تقنية للغاية، نجا من مراجعة النظراء البشرية. تعمل على الهياكل الرياضية اللازمة لفيزياء الطاقة العالية.
  • علم المواد (Wang Lab، Duke University): تحسين طرق التصنيع لنمو بلورات معقدة، مرشحة لمواد شبه موصلة. صمم Deep Think وصفة لنمو أغشية رقيقة تزيد عن 100 ميكرومتر.
  • الهندسة الميكانيكية (Anupam Pathak، Google Platforms & Devices): التكرار على النماذج الأولية المادية بسرعة البرمجيات. إمكانية تحويل رسم تخطيطي إلى كائن قابل للطباعة ثلاثية الأبعاد (توليد ملف STL).

يتوفر Gemini 3 Deep Think بدءاً من اليوم لمشتركي Google AI Ultra في تطبيق Gemini، ولأول مرة عبر API في وصول مبكر للباحثين والمهندسين والشركات.

🔗 الإعلان الرسمي


إعادة هيكلة xAI: 4 فرق و Macrohard

11 فبراير — نشرت xAI اجتماعاً شاملاً لمدة 45 دقيقة على X، كاشفة عن إعادة هيكلة كبيرة للشركة بعد رحيل نصف مؤسسيها (6 من 12). آخر المغادرين هم Tony Wu و Jimmy Ba.

أعلن Elon Musk عن إعادة تنظيم xAI في 4 فرق رئيسية:

الفريقالتركيزالقائد
GrokChatbot + صوت-
Codingنظام كود التطبيقات-
Imagineتوليد الفيديو-
Macrohardمحاكاة الكمبيوتر -> الشركاتToby Pohlen

Macrohard هو المشروع الأكثر طموحاً: وفقاً لـ Toby Pohlen، فإن النظام “قادر على فعل كل ما يمكن للكمبيوتر فعله على الكمبيوتر”. يمتد الطموح حتى تصميم محركات الصواريخ بواسطة الذكاء الاصطناعي.

مقاييس رئيسية معلنة

  • تجاوزت X مليار دولار أمريكي في الإيرادات السنوية المتكررة (الاشتراكات)
  • تولد Imagine 50 مليون فيديو يومياً
  • أكثر من 6 مليارات صورة في آخر 30 يوماً

تمتد رؤية Musk بين الكواكب من مراكز البيانات المدارية إلى القواعد القمرية. تأتي هذه الإعلانات بعد استحواذ SpaceX على xAI (2 فبراير) ورحيل 6 مؤسسين من أصل 12 خلال العام الماضي (Kyle Kosic إلى OpenAI، Christian Szegedy، Igor Babuschkin، Greg Yang، Tony Wu، Jimmy Ba).

🔗 مقال TechCrunch


Mistral تستثمر 1.2 مليار يورو في السويد

11 فبراير — أعلنت Mistral AI عن استثمار بقيمة 1.2 مليار يورو (1.4 مليار دولار) لبناء بنية تحتية للذكاء الاصطناعي في السويد، بالشراكة مع EcoDataCenter. هذا هو أول استثمار في البنية التحتية للذكاء الاصطناعي لـ Mistral خارج فرنسا.

سيقع مركز البيانات في Borlänge (السويد) في موقع EcoDataCenter، ومن المقرر افتتاحه في عام 2027. ستوفر المنشأة 23 ميغاواط من طاقة الحوسبة وستستضيف وحدات GPU من نوع NVIDIA Vera Rubin من الجيل الأحدث.

التفاصيلالقيمة
المبلغ1.2 مليار يورو / 1.4 مليار دولار
الشريكEcoDataCenter
الموقعBorlänge، السويد
الافتتاح2027
السعة23 ميغاواط
GPUNVIDIA Vera Rubin
الإيرادات المتوقعة2 مليار يورو على مدى 5 سنوات

صرح Arthur Mensch، الرئيس التنفيذي لـ Mistral AI، أن هذا الاستثمار هو “خطوة ملموسة نحو بناء قدرات مستقلة في أوروبا، مخصصة للذكاء الاصطناعي”. يرجع اختيار السويد إلى وصولها إلى طاقة نظيفة ورخيصة نسبياً. الهدف هو تقديم stack ذكاء اصطناعي أوروبي بالكامل — تم تصميمه وبناؤه وتشغيله عبر سلسلة قيمة الذكاء الاصطناعي بأكملها، مع معالجة البيانات وتخزينها محلياً في أوروبا.

🔗 مقال Tech.eu


Qwen-Image-2.0: توليد وتحرير صور موحد

10 فبراير — أطلقت Alibaba نموذج Qwen-Image-2.0، وهو نموذج أساس لتوليد الصور من الجيل التالي يوحد توليد text-to-image وتحرير الصور في بنية واحدة.

التغييرات الرئيسية مقارنة بالإصدار v1:

  • بنية موحدة للتوليد + التحرير (سابقاً نماذج منفصلة)
  • نموذج أصغر حجماً: 7B بارامتر (مقابل 20B للإصدار v1)
  • عرض نص محسن مع دعم prompts تصل إلى 1K tokens
  • دقة أصلية 2K (2048x2048)
المعيارQwen-Image-2.0FLUX.1
DPG-Bench88.3283.84
AI Arena (تقييم أعمى)#1-

يتفوق النموذج في عرض النص باللغتين الصينية والإنجليزية عبر تنسيقات مختلفة: الرسوم البيانية، الملصقات، فن الخط، اللافتات. يتوفر Qwen-Image-2.0 في اختبار API على منصة Alibaba Cloud BaiLian ومجاناً عبر Qwen Chat (chat.qwen.ai).

🔗 الإعلان الرسمي


Deep Research ينتقل إلى GPT-5.2

10 فبراير — قامت OpenAI بتحديث ChatGPT Deep Research بنموذج GPT-5.2، مستبدلة الإصدارات السابقة o3 و o4-mini. يجلب التحديث اتصالات التطبيقات، والبحث في مواقع محددة، وعناصر تحكم في الوقت الفعلي.

الميزةالتفاصيل
النموذجGPT-5.2 (يستبدل o3 / o4-mini)
اتصالات التطبيقاتGmail، Google Calendar، Google Contacts + أي MCP
بحث مستهدفتقييد بمواقع محددة ومصادر موثوقة
تحكم في الوقت الفعليتتبع التقدم، المقاطعة وإعادة التوجيه أثناء التشغيل
خطة البحثقابلة للإنشاء والتعديل قبل الإطلاق
الواجهةإعادة تصميم الشريط الجانبي + عرض تقرير ملء الشاشة
التصديرPDF و DOCX

يمكن للمستخدمين الآن توصيل Deep Research بأي خادم MCP أو تطبيق، وتقييد عمليات البحث على الويب بمواقع موثوقة للحصول على تقارير أكثر دقة ومصداقية. تعمل التطبيقات في وضع القراءة فقط كمصادر موثوقة.

بدأ النشر في 10 فبراير لمستخدمي Plus و Pro، مع متابعة مستخدمي Free و Go في الأيام التالية.

🔗 الإعلان الرسمي


ChatGPT ينضم إلى GenAI.mil التابع للبنتاغون

10 فبراير — أعلنت OpenAI عن نشر نسخة مخصصة من ChatGPT على GenAI.mil، منصة الذكاء الاصطناعي للمؤسسات التابعة لوزارة الدفاع الأمريكية. ينضم ChatGPT إلى Google Gemini (تم إطلاقه في ديسمبر 2025) و xAI Grok (تمت إضافته في نهاية ديسمبر 2025) على المنصة.

التفاصيلالقيمة
المنصةGenAI.mil (DoD)
المستخدمون المحتملون~3 مليون (عسكريون، مدنيون، متعاقدون)
المستخدمون النشطون للمنصة1.1 مليون فريد منذ الإطلاق
التصنيفبيانات غير سرية فقط
البنية التحتيةسحابة حكومية مصرح بها
عزل البياناتبيانات معزولة، لا تستخدم لتدريب نماذج OpenAI

تغطي حالات الاستخدام تجميع وتحليل وثائق السياسات، وصياغة مواد المشتريات، وتوليد التقارير الداخلية وقوائم فحص الامتثال، والمساعدة في البحث والتخطيط.

🔗 الإعلان الرسمي


ElevenLabs للحكومة

11 فبراير — أطلقت ElevenLabs مبادرة ElevenLabs for Government، وهي مبادرة مخصصة للقطاع العام تم الإعلان عنها خلال قمة ElevenLabs في لندن. تقدم هذه المنصة وكلاء صوت ودردشة ذكاء اصطناعي مصممين للمنظمات الحكومية، متاحين على مدار الساعة طوال أيام الأسبوع، بلغات متعددة، عبر الهاتف والدردشة والبريد الإلكتروني و WhatsApp.

تهدف المنصة إلى تحقيق ثلاثة أهداف:

  • إمكانية الوصول والشمول: وكلاء متعددو اللغات وعبر قنوات متعددة قادرون على حل طلبات المواطنين فورياً
  • الكفاءة والإنتاجية: أتمتة الاتصالات ذات الحجم الكبير وتقليل التحويلات بين الخدمات
  • الثقة والمشاركة: تحسين الوصول إلى الاتصالات المتوافقة مع السياسات العامة
النشرالتفاصيل
جمهورية التشيكخطوط ساخنة وطنية للتوظيف والمزايا، ~5,000 مكالمة/يوم، 85% حل ذاتي
أوكرانياتوأم رقمي لمسؤول رفيع + خدمات عامة، بالشراكة مع وزارة التحول الرقمي
ميدلاند، تكساس (الولايات المتحدة)كونسيرج مدني صوتي “Jacky”، انخفاض مقدر بـ 7,000 مكالمة فائتة/شهر

المنصة معتمدة SOC 2 Type 2 و GDPR و CPRA و HIPAA لتلبية متطلبات الأمان للقطاع العام.

🔗 الإعلان الرسمي


Anthropic تغطي ارتفاع أسعار الكهرباء

11 فبراير — أعلنت Anthropic أنها ستغطي زيادات أسعار الكهرباء للمستهلكين الناتجة عن مراكز البيانات الخاصة بها. تتعهد الشركة بأربعة التزامات ملموسة:

الالتزامالتفاصيل
تكاليف البنية التحتية للشبكةتحمل 100% من تكاليف الربط بالشبكة
إنتاج طاقة جديدتشغيل قدرات إنتاج جديدة تتكيف مع الاحتياجات
تقليل الضغط على الشبكةالاستثمار في أنظمة لتقليل الاستهلاك في أوقات الذروة
الاستثمار المجتمعيخلق مئات الوظائف الدائمة وآلاف وظائف البناء

🔗 الإعلان الرسمي


Anthropic تتبرع بـ 20 مليون دولار لتنظيم الذكاء الاصطناعي

12 فبراير — أعلنت Anthropic عن تبرع بقيمة 20 مليون دولار لـ Public First Action، وهي منظمة جديدة غير حزبية 501(c)(4) أمريكية. الهدف هو حشد المواطنين وصناع السياسات حول قضايا الذكاء الاصطناعي للمصلحة العامة.

تؤكد تغريدة Anthropic أن الذكاء الاصطناعي يتم تبنيه بشكل أسرع من أي تقنية في التاريخ، وأن النافذة لنجاح السياسات العامة تغلق.

🔗 إعلان على X


Claude Code Desktop: إضافات محلية و Marketplace

11 فبراير — نشر Boris Cherny (قائد Claude Code في Anthropic) سلسلة تغريدات تفصل ما يحبه المهندسون في Claude Code: قابليته للتخصيص. يسرد hooks، plugins، LSPs، MCPs، skills، effort، custom agents، status lines، output styles كآليات للتخصيص.

بالتوازي، أعلنت Lydia Hallie أن Claude Code على سطح المكتب يدعم الآن الإضافات المحلية. يمكن للمستخدمين تثبيت أوامر slash مخصصة، و skills وخوادم MCP من المتجر، مع مزامنة تلقائية بين سطح المكتب و CLI.

🔗 سلسلة تغريدات Boris Cherny


GitHub Mobile: منتقي النماذج لـ Copilot

11 فبراير — أضافت GitHub منتقي نماذج إلى وكيل Copilot Coding في تطبيق GitHub Mobile، على iOS و Android.

يمكن لمستخدمي Copilot Pro و Pro+ الآن اختيار نموذج الذكاء الاصطناعي الذي يشغل جلسات وكيل البرمجة الخاصة بهم مباشرة من هواتفهم، دون الحاجة إلى المرور عبر سطح المكتب.

النموذج المتاحالناشر
تلقائي (افتراضي — يحسن السرعة والأداء)GitHub
Claude Opus 4.5Anthropic
Claude Opus 4.6Anthropic
Claude Sonnet 4.5Anthropic
GPT-5.1-Codex-MaxOpenAI
GPT-5.2-CodexOpenAI

يختار الوضع التلقائي نموذجاً تلقائياً لتحسين السرعة والأداء حسب التوافر. الميزة متاحة الآن لمشتركي Copilot Pro و Pro+. دعم Business و Enterprise سيصل قريباً. ملاحظة: GPT-5.3-Codex، الذي أصبح GA في 9 فبراير، ليس في القائمة المحمولة بعد.

🔗 سجل تغييرات GitHub


GitHub تعلق GPT-5.3-Codex (الموثوقية)

10 فبراير — أعلنت GitHub عن التعليق المؤقت لنشر GPT-5.3-Codex في GitHub Copilot لأسباب تتعلق بموثوقية المنصة، بعد يوم واحد فقط من الإعلان عن توفره العام.

التغريدة، التي تقتبس في الرد إعلان 9 فبراير حول GA لـ GPT-5.3-Codex، ولدت 357,500 مشاهدة و 1,000 إعجاب، مما يشهد على التأثير على مجتمع المطورين. أبلغ العديد من المستخدمين عن مشاكل في توفر الخدمة في الردود.

حقيقة أن النموذج لا يظهر بعد في قائمة منتقي النماذج المحمول (المعلن عنه في 11 فبراير) قد تكون مرتبطة بهذا التعليق.

🔗 إعلان على X


Manus تطلق Project Skills

12 فبراير — أطلقت Manus (الآن تحت Meta) ميزة Project Skills، وهي ميزة تسمح بإنشاء مكتبات مهارات مخصصة لكل مشروع.

يمكن لكل مشروع تجميع مجموعة من skills المختارة من مجموعات “Team Skills” أو المجموعات الشخصية. الفكرة: تحويل مجلد مشروع قياسي إلى مساحة عمل ذكية ومستقلة.

الوظيفةالوصف
مكتبات لكل مشروعتجميع toolkits مخصصة من مجموعات الفريق أو الشخصية
تدفقات عمل محتواةيمكن تشغيل skills المضافة صراحة إلى المشروع فقط
تدفقات عمل مقفلةيمكن للمشرفين قفل مجموعة skills لتوحيد العمليات

الفوائد التي تم تسليط الضوء عليها: تأهيل أسرع، توسيع الخبرة الفردية إلى المنظمة، وبناء “معرفة مؤسسية” تتحسن بمرور الوقت. متاح فوراً لجميع مستخدمي Manus.

🔗 الإعلان الرسمي


Gemini CLI v0.28.0 + إعدادات الإضافات

10-11 فبراير — أصدرت Google الإصدار 0.28.0 من Gemini CLI وأعلنت عن Extension Settings، وهي ميزة جديدة لتبسيط تكوين الإضافات.

Gemini CLI v0.28.0 (10 فبراير)

الجديدالتفاصيل
أمر /prompt-suggestأمر slash جديد لاقتراحات prompts
سمة تلقائيةتكيف بناءً على خلفية المحطة الطرفية
توافق IDEتمت إضافة دعم لـ Positron IDE
OAuth محسنموافقة OAuth تفاعلية وغير تفاعلية
مكون قائمة التحققمكون لإدارة المهام المهيكلة في وضع plan
وكلاء فرعيونتسجيل ديناميكي لـ policies للوكلاء الفرعيين
تنفيذ في الخلفيةأوامر shell في الخلفية

إعدادات الإضافات (11 فبراير)

يمكن لإضافات Gemini CLI الآن تحديد معلمات تكوين يقدمها المستخدمون عند التثبيت. إعداد تلقائي مع prompts تفاعلية، أمان مدمج (يتم تخزين البيانات الحساسة مثل مفاتيح API في keychain النظام)، وإدارة مركزية عبر gemini extensions config. تنفذ إضافات Data Cloud (BigQuery، Cloud SQL، Firestore، Looker، Spanner) هذه الوظيفة بالفعل.

🔗 الإعلان الرسمي


تسوق الذكاء الاصطناعي في بحث Google و Gemini

11 فبراير — أعلنت Google عن دمج ميزات التسوق مباشرة في منتجات الذكاء الاصطناعي الخاصة بها — Search AI Mode و chatbot Gemini.

يمكن للمستخدمين الآن شراء سلع Etsy و Wayfair مباشرة في chatbot Gemini. تتيح Direct Offers، وهي ميزة جديدة في AI Mode، للعلامات التجارية تقديم خصومات للمشترين المحتملين. يتم اختبار تنسيقات إعلانية جديدة في AI Mode للبحث لتجار التجزئة.

تعمل Google مع Walmart و Target و Shopify على بروتوكول دفع يسمح للمستهلكين بإتمام مشترياتهم مباشرة في منتجات الذكاء الاصطناعي من Google.

🔗 مقال PYMNTS


تقرير GTIG: هجمات تقطير على Gemini

12 فبراير — نشرت Google Threat Intelligence Group (GTIG) تقريراً يكشف أن Gemini تم استهدافه بهجمات تقطير (distillation attacks) — محاولات استنساخ ضخمة عبر prompts متكررة.

قدمت حملة أكثر من 100,000 prompt لـ Gemini قبل اكتشافها. استهدفت الهجمات بشكل خاص خوارزميات الاستدلال في Gemini. المهاجمون هم أساساً شركات خاصة وباحثون يبحثون عن ميزة تنافسية.

اكتشفت أنظمة Google النشاط في الوقت الفعلي وعدلت الحماية. تعتبر Google التقطير سرقة للملكية الفكرية.

🔗 مقال NBC News


Codex CLI v0.99.0: تنفيذ shell متزامن

11 فبراير — أصدرت OpenAI نسخة Codex CLI v0.99.0 مع تنفيذ shell متزامن، و statusline قابل للتكوين، و APIs خادم تطبيق مخصصة.

الوظيفةالتفاصيل
تنفيذ shell متزامنأوامر shell المباشرة لم تعد تحظر الدور الجاري
/statuslineتكوين تفاعلي للبيانات الوصفية في تذييل TUI
منتقي استئناف تكيفيمنتقي جديد لاستئناف الجلسات
واجهات برمجة تطبيقات خادم التطبيقAPIs مخصصة لتكامل التطبيقات
ضوابط المسؤولضوابط admin للبحث في الويب والشبكات
الصوردعم GIF/WebP
أخذ لقطاتSnapshotting للبيئة
وضع التوجيه (Steer mode)مستقر ونشط افتراضياً (Enter يرسل، Tab يضع في الطابور)

تمت إعادة صياغة تغليف npm: يتم توزيع الثنائيات الخاصة بالمنصة عبر علامات التوزيع @openai/codex، مما يقلل من حجم الحزم.

🔗 سجل تغييرات Codex CLI


شرائح Qwen Chat AI

12 فبراير — أعلنت Qwen عن الوصول القريب لـ AI Slides في Qwen Chat. تسمح الميزة بتحويل أنواع مختلفة من المستندات إلى عروض تقديمية: مستندات المشروع -> شرائح الاجتماع، ورقة بحثية -> عرض تقديمي شفهي، معلومات المنتج -> عرض مبيعات، موضوع -> عرض تعليمي.

تم بناء الميزة باستخدام Qwen Agent + Qwen-Image 2.0 (نموذج الصورة الذي تم إطلاقه قبل بضعة أيام). أظهر Chen Cheng القدرة على تحويل المقالات الأكاديمية إلى عروض تقديمية شفهية في دقائق، مع وكيل بحث مدمج.

🔗 إعلان على X


ما يعنيه ذلك

يؤكد جمع التبرعات بقيمة 30 مليار دولار لـ Anthropic بتقييم 380 مليار هيمنة نماذج frontier في اقتصاد الذكاء الاصطناعي. يظهر معدل التشغيل السنوي البالغ 14 مليار دولار والحصة البالغة 2.5 مليار التي يولدها Claude Code أن الـ coding بمساعدة الذكاء الاصطناعي قد أصبح بنية تحتية حيوية للمطورين والشركات.

يمثل وصول GPT-5.3-Codex-Spark على Cerebras نقطة تحول في تنويع أجهزة الذكاء الاصطناعي خارج NVIDIA. يغير الاستدلال بسرعة 1000+ tokens/ثانية طبيعة التفاعل مع نماذج الكود، مما يجعل التعاون السلس في الوقت الفعلي ممكناً.

يوضح Gemini 3 Deep Think بميدالياته الذهبية في الأولمبياد العلمية ودرجته 84.6% على ARC-AGI-2 أن نماذج frontier بدأت تصل إلى مستوى من التفكير العلمي يضاهي أفضل البشر في المجالات المتخصصة.

تظهر إعادة هيكلة xAI في 4 فرق مع Macrohard — بهدف القيام “بكل ما يمكن للكمبيوتر فعله” — واستثمار Mistral الضخم في أوروبا أن السباق نحو البنية التحتية للذكاء الاصطناعي يتسارع عالمياً. ومع ذلك، يذكرنا تعليق GPT-5.3-Codex من قبل GitHub بأن الموثوقية تظل تحدياً رئيسياً للنشر على نطاق واسع.


المصادر