DeepSeek V4: ريادة مفتوحة المصدر بسدس التكلفة
٢٥ أبريل ٢٠٢٦
ملخص
في 24 أبريل 2026، أطلقت DeepSeek نموذج DeepSeek V4 كنسخة معاينة — وهي عائلة من نموذجين مفتوحي الأوزان تم إصدارها تحت رخصة MIT: نموذج V4-Pro (إجمالي 1.6 تريليون معلمة، 49 مليار معلمة نشطة لكل توكن، تم تدريبه مسبقاً على 33 تريليون توكن) ونموذج V4-Flash (إجمالي 284 مليار، 13 مليار نشطة)123. يدعم كلا النموذجين نافذة سياق تصل إلى مليون توكن وحد أقصى للمخرجات يبلغ 384,000 توكن45. حقق V4-Pro (عند أقصى جهد للتفكير) نتيجة 80.6% على SWE-bench Verified — بفارق 0.2 نقطة فقط عن Claude Opus 4.6 (80.8%) — و93.5% على LiveCodeBench، متفوقاً على Gemini 3.1 Pro (91.7%) و Claude Opus 4.6 (88.8%)67. أسعار واجهة برمجة التطبيقات (API) استقرت عند 1.74 دولار لكل مليون توكن مدخلات (في حالة عدم وجود التخزين المؤقت/cache-miss) و3.48 دولار لكل مليون توكن مخرجات لنموذج V4-Pro، وتنخفض إلى 0.145 دولار / 3.48 دولار مع وجود التخزين المؤقت (cache hits) — أي ما يعادل تقريباً سدس تكلفة Claude Opus 4.7 (5 دولار / 25 دولار) وسبع تكلفة GPT-5.5 (5 دولار / 30 دولار)89. التغيير الأبرز في البنية التحتية هو آلية Hybrid Attention التي تجمع بين Compressed Sparse Attention و Heavily Compressed Attention، مما قلل من عمليات FLOPs للاستنتاج لكل توكن في V4-Pro إلى 27% مقارنة بـ V3.2 وخفض KV cache إلى 10% عند إعداد مليون توكن410. أعلنت Huawei عن "دعم كامل" عبر خط إنتاج Ascend SuperNode، مع تقارير تشير إلى وصول V4 إلى تكافؤ في الأداء على وحدات معالجة Ascend NPUs و NVIDIA GPUs1112.
ما ستتعلمه
- لماذا تعتبر بنية Hybrid Attention في V4 أكثر من مجرد مسمى تسويقي
- نتائج اختبارات V4-Pro و V4-Flash الدقيقة مقارنة بـ Opus 4.7 و GPT-5.5 و Gemini 3.1 Pro
- مستويات تسعير واجهة برمجة التطبيقات (API) — بما في ذلك سعر الـ cache-hit الذي يغير حسابات التكلفة
- ماذا تعني شراكة Huawei Ascend لسباق الرقائق بين الصين والولايات المتحدة
- أين يتفوق V4، وأين يتراجع، وموقع حدود المصادر المفتوحة اليوم
إصدار نموذجين مفتوحي الأوزان تحت رخصة MIT
أطلقت DeepSeek نموذج V4 كـ إصدار معاينة في 24 أبريل 2026، بعد حوالي خمسة أشهر من إطلاق V3.2 في ديسمبر 2025213. تضم العائلة نموذجين متميزين من نوع Mixture-of-Experts (MoE):
| النموذج | إجمالي المعلمات | المعلمات النشطة | توكنز التدريب المسبق | السياق | أقصى مخرجات |
|---|---|---|---|---|---|
| DeepSeek V4-Pro | 1.6T | 49B | 33T | 1M | 384K |
| DeepSeek V4-Flash | 284B | 13B | 32T | 1M | 384K |
كلا النموذجين تم إصدارهما تحت رخصة MIT ونُشرا كأوزان مفتوحة على Hugging Face. تستخدم متغيرات الـ instruct دقة مختلطة FP4/FP8 — أوزان خبراء MoE بدقة FP4 والباقي بدقة FP8 — بينما النماذج الأساسية (base models) هي FP8 مختلطة14. كلاهما يوفر ثلاثة أنماط لجهد التفكير — non-think، و think (high)، و think (max) — مع تفعيل التفكير افتراضياً عند الإعداد العالي (high)15.
رخصة MIT هذه لها أهمية كبيرة. فإصدار Llama 4 يستخدم رخصة مجتمع Meta المخصصة، والتي تفرض قيوداً على الشركات التي لديها أكثر من 700 مليون مستخدم نشط شهرياً وليست معتمدة من OSI كمصدر مفتوح16. بعض الإصدارات الأخرى مفتوحة الأوزان (بما في ذلك Kimi K2.6) تصدر تحت شروط "MIT معدلة". اختيار DeepSeek لرخصة MIT القياسية — وهي واحدة من أكثر التراخيص المفتوحة تسامحاً وشيوعاً — يعني أن V4 يمكن تحميله، وتعديله، وإعادة توزيعه، وتشغيله تجارياً دون أي تعقيدات قانونية.
بنية Hybrid Attention: لماذا نافذة المليون توكن أرخص
العنوان الأبرز لبنية V4 هو آلية Hybrid Attention التي تدمج طبقتين جديدتين من الـ attention عبر هيكل Transformer410.
Compressed Sparse Attention (CSA) تضغط مخزن المفتاح والقيمة (KV cache) لكل m من التوكنز في إدخال واحد باستخدام ضاغط متعلم على مستوى التوكن. ثم يحضر كل استعلام (query) فقط لأفضل k من الإدخالات المضغوطة المختارة عبر DeepSeek Sparse Attention (DSA). ويعمل فرع نافذة منزلقة (sliding window) بالتوازي لنمذجة التبعية المحلية.
Heavily Compressed Attention (HCA) أكثر هجومية: فهي تدمج m' من التوكنز (حيث m' أكبر بكثير من m) في إدخال مضغوط واحد، ثم تطبق attention كثيفاً عبر تلك التمثيلات المضغوطة.
أرقام الكفاءة هي الجوهر. عند سياق مليون توكن:
| النموذج | FLOPs الاستنتاج لكل توكن مقارنة بـ V3.2 | حجم KV cache مقارنة بـ V3.2 |
|---|---|---|
| V4-Pro | 27% | ~10% |
| V4-Flash | 10% | 7% |
هذا هو الفارق بين "سياق 1M موجود في ورقة المواصفات" وبين "سياق 1M هو شيء يمكن للعميل الذكي استخدامه فعلياً دون استهلاك مزرعة خوادم بالكامل". التقرير التقني من Hugging Face يصفه بأنه "سياق مليون توكن يمكن للعملاء استخدامه فعلياً" — وهو، بالنظر إلى عدد المرات التي تفشل فيها ادعاءات سياق 1M في الممارسة العملية، يمثل المشكلة الأصعب في الحل10.
سجل نتائج الاختبارات: V4-Pro ضد النماذج الرائدة
نشر فريق DeepSeek نتائج اختبارات في مجالات البرمجة، والرياضيات، والتفكير، والفئات الوكيلة (agentic). النمط ثابت: يتصدر V4-Pro أو يتعادل في البرمجة والبرمجة التنافسية، ويحتل مرتبة متوسطة عليا في الرياضيات، ويتراجع بشكل ملحوظ في أصعب اختبارات المعرفة التخصصية.
البرمجة وهندسة البرمجيات
يعرض V4 ثلاثة أوضاع لجهد التفكير (reasoning-effort) — عدم التفكير (Non-think)، والتفكير (عالي) (Think high)، والتفكير (أقصى) (Think max). الدرجات الرئيسية المذكورة أدناه تم تسجيلها عند إعداد Think Max (V4-Pro-Max)، لذا فهي تُقارن بنماذج المنافسين عند إعدادات أقصى جهد لديهم حيثما أمكن17.
| الاختبار (Benchmark) | DeepSeek V4-Pro (Max) | Claude Opus 4.6 | Gemini 3.1 Pro | GPT-5.4 |
|---|---|---|---|---|
| SWE-bench Verified | 80.6% | 80.8% | — | — |
| LiveCodeBench | 93.5% | 88.8% | 91.7% | — |
| Codeforces (التقييم) | 3206 | — | 3052 | 3168 |
| Terminal-Bench 2.0 | 67.9% | 65.4% | 68.5% | 75.1% (xHigh) |
يتأخر V4-Pro بمقدار 0.2 نقطة عن Claude Opus 4.6 في اختبار SWE-bench Verified — مما يضع V4-Pro بين أقرب النماذج مفتوحة الأوزان (open-weight) لنموذج Claude الرائد في هذا الاختبار، متفوقاً على Kimi K2.6 (80.2%)6. وفي LiveCodeBench، يتصدر الترتيب بوضوح. أما في Terminal-Bench 2.0، فهو يتفوق على Claude Opus 4.6 بمقدار 2.5 نقطة ولكنه يتأخر عن GPT-5.4 (إعداد xHigh) بمقدار 7.2 نقطة وعن Gemini 3.1 Pro بمقدار 0.6 نقطة17.
الرياضيات والاستنتاج
| الاختبار (Benchmark) | DeepSeek V4-Pro (Max) | Claude Opus 4.6 | GPT-5.4 | Gemini 3.1 Pro |
|---|---|---|---|---|
| IMO AnswerBench | 89.8 | 75.3 | 91.4 | 81.0 |
| HMMT 2026 | 95.2% | 96.2% | 97.7% | — |
| HLE (Humanity's Last Exam, بدون أدوات) | 37.7% | 40.0% | 39.8% | 44.4% |
يتفوق V4-Pro في IMO AnswerBench أمام Claude Opus 4.6 و Gemini 3.1 Pro ويقف على مسافة قريبة جداً من GPT-5.4. وفي اختبار HMMT 2026 الأكثر تنافسية وفي HLE (بدون أدوات)، تتقدم النماذج المغلقة الرائدة1819. اختبار HLE معبر بشكل خاص: فهو اختبار الخبراء عبر المجالات حيث يظهر عمق المعرفة العالمية، ويحل V4-Pro متأخراً بأكثر من ست نقاط عن Gemini 3.1 Pro. لاحظ أنه بالمقارنة مع Claude Opus 4.7 الأحدث (الصادر في 16 أبريل 2026) و GPT-5.5 (23 أبريل 2026)، تتسع الفجوة في HLE بشكل أكبر — حيث يصل Opus 4.7 إلى 46.9% ويصل GPT-5.5 إلى 41.4% بدون أدوات20.
المهام الوكيلية وتصفح الويب
في BrowseComp، وهو اختبار تصفح الويب الوكيلي (agentic)، سجل إصدار V4-Pro Max حسب التقارير 83.4% — مما يضعه في الفئة المتوسطة العليا بين النماذج المغلقة الرائدة، مع تسجيل Claude Opus 4.7 لنسبة 79.3% و Gemini 3.1 Pro لنسبة 85.9%21. ذكر فريق DeepSeek أيضاً أن V4 تم تحسينه للاستخدام مع مجموعات الأدوات الوكيلية (agent stacks) مثل Claude Code من Anthropic4.
الملخص الصادق الذي يظهر عبر هذه الاختبارات: V4-Pro هو بشكل حاسم أفضل نموذج مفتوح الأوزان في البرمجة والبرمجة التنافسية، ومنافس في المهام الوكيلية، ومتأخر بنحو 3-6 أشهر عن النماذج المغلقة الرائدة في استنتاج المعرفة العالمية2.
أسعار DeepSeek: أرقام الـ 1/6 والـ 1/7
هنا يعيد V4 صياغة الحوار.
V4-Pro
| الفئة | لكل مليون توكن |
|---|---|
| المدخلات (cache hit) | $0.145 |
| المدخلات (cache miss) | $1.74 |
| المخرجات | $3.48 |
V4-Flash
| الفئة | لكل مليون توكن |
|---|---|
| المدخلات | $0.14 |
| المخرجات | $0.28 |
مقارنات مع النماذج الرائدة
| النموذج | المدخلات | المخرجات | توفير V4-Pro (المخرجات) |
|---|---|---|---|
| Claude Opus 4.7 | $5.00 | $25.00 | أرخص بـ ~7.2 ضعف |
| GPT-5.5 | $5.00 | $30.00 | أرخص بـ ~8.6 ضعف |
| GPT-5.4 | $2.50 | $15.00 | أرخص بـ ~4.3 ضعف |
حجم العمل الذي ينتج 100 مليون توكن مخرجات شهرياً على Claude Opus 4.7 يكلف 2,500 دولار. نفس حجم العمل على V4-Pro يكلف 348 دولاراً. ونفس حجم العمل على GPT-5.5 يكلف 3,000 دولار9. وصفت VentureBeat نموذج V4-Pro بأنه وصل "بـ 1/6 تكلفة" Opus 4.7 و GPT-5.5؛ وبالنسبة للمدخلات من نوع cache-miss، فإن النسبة تقترب من السُبع، لكن الإطار العام يظل صحيحاً9.
أرقام V4-Flash أكثر إثارة للدهشة. بسعر $0.14/$0.28، يتفوق V4-Flash سعرياً على كل النماذج الغربية "الصغيرة" من الفئة الرائدة — GPT-5.4 Nano، و Gemini 3.1 Flash، و GPT-5.4 Mini، و Claude Haiku 4.5 — بينما لا يزال يسجل 91.6% في LiveCodeBench ويقدم مخرجات بسرعة تقارب 83.7 توكن في الثانية على DeepSeek22.
قصة Huawei Ascend
إلى جانب إطلاق V4، أعلنت Huawei عن "الدعم الكامل" لاستنتاج V4 على معالجات Ascend AI الخاصة بها. وقالت Huawei إن خط إنتاج Ascend SuperNode بالكامل تم "تكييفه بالكامل" مع V4 قبل الإطلاق، مع تعاون وثيق بين DeepSeek و Huawei في الفترة التي سبقت الإصدار1112.
أفادت DeepSeek بشكل منفصل أن V4 يظهر تكافؤاً في الأداء على وحدات NPU من Huawei Ascend ووحدات GPU من NVIDIA — وهو ادعاء، إذا تم تأكيده بشكل مستقل، فإنه يقوض الافتراض بأن مختبرات الذكاء الاصطناعي الصينية تحتاج إلى أحدث شرائح NVIDIA لإطلاق نموذج من الفئة الرائدة23.
النظرة المستقبلية: تم إطلاق شريحة Ascend 950PR من Huawei في الربع الأول من عام 2026، ومن المقرر شحن الشريحة المكملة 950DT بحلول نهاية عام 2026، مع توقع DeepSeek وصول وحدات Ascend 950 SuperNodes إلى التوفر الواسع في النصف الثاني من العام1124.
يُنظر إلى هذا التعاون في بكين كخطوة نحو الاعتماد على الذات في مجال الذكاء الاصطناعي في ظل استمرار ضوابط التصدير الأمريكية. وهو أيضاً، من الناحية العملية، وسيلة تحوط: إذا ظل إمداد NVIDIA من شرائح H100/H200/B200 مقيداً للمختبرات الصينية، فإن خط تدريب ونشر V4 لديه الآن بديل محلي.
كيف يقارن V4 بالمنافسين في مجال النماذج مفتوحة الأوزان
يدخل V4 مشهد الأوزان المفتوحة التنافسي الذي اشتد بشكل ملحوظ خلال الأشهر الستة الماضية:
| الموديل | المختبر | تاريخ الإصدار | أوزان مفتوحة | أعلى قوة في المعايير |
|---|---|---|---|---|
| DeepSeek V4-Pro | DeepSeek | 24 أبريل 2026 | نعم (MIT) | SWE-bench، LiveCodeBench، Codeforces |
| GLM-5.1 | Z.ai | 7 أبريل 2026 | نعم | SWE-Bench Pro (متصدر الأوزان المفتوحة) |
| Kimi K2.6 | Moonshot AI | 20 أبريل 2026 | نعم (MIT معدل) | SWE-Bench، أسراب الوكلاء (agentic swarms) |
| Llama 4 (Scout/Maverick) | Meta | 2025 | نعم (ترخيص مخصص) | أغراض عامة |
يستحوذ V4-Pro على عرش الأوزان المفتوحة في البرمجة والبرمجة التنافسية، بينما لا يزال GLM-5.1 يتصدر في SWE-Bench Pro بنسبة 58.4%. العنوان الرئيسي هو أن سقف الأوزان المفتوحة قد انتقل إلى وضع أصبح فيه، في معظم معايير المعرفة غير المتخصصة، ضمن فجوة من رقم واحد من النماذج المغلقة الرائدة2.
ما ستتعلمه
ثلاث خلاصات عملية للفرق التي تقرر أين تنفق ميزانية الـ tokens الخاصة بها:
لأعباء العمل الكثيفة في البرمجة: أصبح V4-Pro و Claude Opus 4.6 الآن ضمن فارق 0.2 نقطة في SWE-bench Verified. فرق التكلفة هو تقريبًا 7 أضعاف. بالنسبة لتدفقات العمل عالية الحجم لتوليد الكود ومراجعته حيث لا تتطلب المهمة الهامشية تفكيرًا من مستوى النماذج الرائدة، فإن V4-Pro هو الخيار الافتراضي الجديد. قم بدمجه مع نموذج مغلق رائد للمهام الصعبة للغاية.
لسير العمل المعتمد على الوكلاء (Agentic): يعتبر V4-Pro تنافسيًا في BrowseComp و Terminal-Bench 2.0، حيث يتأخر عن أفضل النماذج المغلقة الرائدة ببضع نقاط في كل منهما. بالنسبة لأنظمة الوكلاء حيث يمكن لطبقة التنسيق توجيه المهام الفرعية الصعبة إلى نموذج مغلق رائد وإرسال الباقي إلى V4-Pro، فإن اقتصاديات النظام تتغير بشكل كبير.
للمستضيفين الذاتيين: يعتبر V4-Flash بإجمالي 284B / و13B نشط هو الرقم الأكثر إثارة للاهتمام. يتطلب V4-Pro الكامل بنية تحتية ضخمة حتى مع التكميم (quantization)؛ أما V4-Flash فهو في النطاق الذي يمكن لفريق ممول جيدًا تشغيله على مجموعات GPU تجارية أو عقد Huawei Ascend الفائقة. بالاقتران مع ترخيص MIT وسياق 1M، يعد V4-Flash أقوى هدف استضافة ذاتية مفتوح الأوزان لأعباء عمل البرمجة والوكلاء تم إصداره حتى الآن.
الخلاصة
لا يعيد DeepSeek V4 رسم حدود النماذج الرائدة — فلا يزال Claude Opus 4.7 و GPT-5.5 يتصدران في أصعب معايير المعرفة المتخصصة والتفكير. ما يفعله V4 هو خفض سعر الوصول إلى قدرات قريبة من النماذج الرائدة. إن نموذج MoE بحجم 1.6T يقع ضمن 0.2 نقطة من Claude Opus 4.6 في SWE-bench Verified، مع سياق 1M وترخيص MIT، وبسعر 1.74 دولار للمدخلات و3.48 دولار للمخرجات لكل مليون token، هو نوع مختلف من الإصدارات عما رأيناه من أي مختبر آخر في الربع الماضي.
يضيف تكامل Huawei Ascend طبقة ثانية: هذا هو أول إصدار صيني للذكاء الاصطناعي من فئة النماذج الرائدة مع مسارات إنتاج واستدلال مؤكدة على السيليكون المحلي. بالنسبة للمطور الذي يختار أين ينفق المليون token القادمة من ميزانيته، أصبح V4 الآن الخيار الافتراضي للأوزان المفتوحة في أعباء عمل البرمجة وأحد أقوى الخيارات في المهام المعتمدة على الوكلاء. بالنسبة لـ الصورة الأكبر لكيفية إعادة تشكيل GPT-5.5 من OpenAI للأسعار في وقت سابق من هذا الأسبوع، فإن V4 هو الرد الذي ربما كانت المختبرات مغلقة المصدر تأمل ألا يصل بهذه السرعة.
ما يزال مفتوحًا حقًا هو ما إذا كان بإمكان DeepSeek الحفاظ على هذا الإيقاع. تم شحن V3.2 في ديسمبر 2025؛ وV4 في أبريل 2026. إذا وصل V4.x و V5 في جداول زمنية مماثلة، فقد تستمر الفجوة بين سقف الأوزان المفتوحة والنماذج المغلقة الرائدة في الانغلاق. إذا لم يحدث ذلك، فسيصبح V4 العلامة الفارقة لمختبر اكتسب سمعته من خلال التفوق على ميزانية الحوسبة الخاصة به.
المراجع
Footnotes
-
TechCrunch — "DeepSeek previews new AI model that 'closes the gap' with frontier models"، 24 أبريل 2026. ↩ ↩2
-
Bloomberg — "DeepSeek تكشف عن أحدث نموذج ذكاء اصطناعي رائد بعد عام من إحداث طفرة في وادي السيليكون"، 24 أبريل 2026. ↩ ↩2 ↩3 ↩4
-
CNBC — "DeepSeek الصينية تطلق نسخة تجريبية من نموذج V4 المنتظر مع اشتداد سباق الذكاء الاصطناعي"، 24 أبريل 2026. ↩
-
MarkTechPost — "DeepSeek AI تطلق DeepSeek-V4: تقنيات Compressed Sparse Attention و Heavily Compressed Attention تتيح سياقات تصل إلى مليون توكن"، 24 أبريل 2026. ↩ ↩2 ↩3 ↩4 ↩5
-
مدونة NVIDIA التقنية — "البناء باستخدام DeepSeek V4 عبر NVIDIA Blackwell ونقاط النهاية المسرعة بـ GPU"، 24 أبريل 2026. ↩ ↩2
-
NxCode — "DeepSeek V4 (2026): 1T معلمات، 81% SWE-bench، 0.30 دولار لكل مليون توكن — المواصفات الكاملة"، 24 أبريل 2026. ↩ ↩2
-
BuildFastWithAI — "مراجعة DeepSeek V4-Pro: الاختبارات المرجعية، التسعير والمعمارية"، 24 أبريل 2026. ↩ ↩2
-
وثائق DeepSeek API — "النماذج والتسعير". ↩ ↩2
-
VentureBeat — "DeepSeek-V4 يصل بذكاء يقارب أحدث التقنيات وبسدس تكلفة Opus 4.7 و GPT-5.5"، 24 أبريل 2026. ↩ ↩2 ↩3 ↩4
-
مدونة Hugging Face — "DeepSeek-V4: سياق بمليون توكن يمكن للوكلاء استخدامه فعلياً"، 24 أبريل 2026. ↩ ↩2 ↩3
-
South China Morning Post — "DeepSeek تكشف عن نموذج ذكاء اصطناعي من الجيل التالي بينما تتعهد Huawei بتقديم 'دعم كامل' بشرائح جديدة"، 24 أبريل 2026. ↩ ↩2 ↩3 ↩4
-
SCMP — "Huawei و DeepSeek تعززان الاعتماد الذاتي للصين في الذكاء الاصطناعي من خلال التعاون في نموذج V4"، 24 أبريل 2026. ↩ ↩2
-
DeepSeek (X/Twitter) — "إطلاق DeepSeek-V3.2 و DeepSeek-V3.2-Speciale"، ديسمبر 2025. ↩
-
Hugging Face — deepseek-ai/DeepSeek-V4-Pro، رخصة MIT. ↩ ↩2
-
vLLM Recipes — DeepSeek-V4-Pro، أبريل 2026. ↩
-
اتفاقية ترخيص مجتمع Llama 4 — llama.com/llama4/license/ — قيد 700 مليون مستخدم نشط شهرياً؛ مصنف كـ "متاح المصدر" بدلاً من كونه مفتوح المصدر وفقاً لـ OSI. ↩
-
BenchLM — "DeepSeek V4 Pro Benchmarks 2026: Scores, Rankings & Performance"، أبريل 2026. ↩ ↩2
-
DEV Community — "DeepSeek Just Dropped V4. Here's What the Benchmarks Actually Tell You."، 24 أبريل 2026. ↩
-
Officechai — "DeepSeek Releases DeepSeek V4-Pro & V4-Flash, Delivers GPT 5.4 & Opus 4.6-Level Performance At Fraction Of The Price"، 24 أبريل 2026. ↩
-
SCMP — "Underwhelming or underrated? DeepSeek V4 shows 'impressive' gains"، 24 أبريل 2026 — مقارنة HLE بدون أدوات ضد Opus 4.7 و GPT-5.5. ↩
-
AnalyticsIndiaMag — "DeepSeek Releases V4 Pro, Challenging OpenAI, Anthropic on Key Benchmarks"، 24 أبريل 2026. ↩
-
ArtificialAnalysis — "DeepSeek V4 Flash (Max) - Intelligence, Performance & Price Analysis"، أبريل 2026. ↩ ↩2
-
Phemex News — "DeepSeek V4 Matches NVIDIA on Huawei Ascend, Dispels Rumors"، 24 أبريل 2026. ↩ ↩2
-
TrendForce — "Decoding DeepSeek V4: How Huawei's Ascend 950 PR Is Powering China's Push to Break CUDA Dependence"، 7 أبريل 2026 — تم إطلاق Ascend 950PR في الربع الأول من 2026، ومن المتوقع إطلاق 950DT بحلول نهاية 2026. ↩