DeepSeek V4: أوزان مفتوحة من الفئة الرائدة بسبع التكلفة
٣٠ أبريل ٢٠٢٦
ملخص
أصدرت DeepSeek طرازي V4-Pro و V4-Flash كمعاينة عامة في 24 أبريل 2026.1 طراز V4-Pro هو نموذج Mixture-of-Experts يضم 1.6 تريليون معلمة (parameter) مع تفعيل 49 مليار معلمة لكل توكن، ونافذة سياق تصل إلى 1,000,000 توكن، وتم نشر أوزانه على Hugging Face تحت رخصة MIT.2 في تقييمات DeepSeek الخاصة، سجل النموذج 80.6% في SWE-bench Verified، و 87.5% في MMLU-Pro، وتصنيف 3,206 في Codeforces — وهو ما يعادل الجيل السابق Claude Opus 4.6 (80.8%) ولكنه يتأخر عن النماذج الرائدة الحالية (Claude Opus 4.7 بنسبة 87.6%، و GPT-5.5 بنسبة تقارب 82.6%).345 الرقم الأبرز هو السعر: 1.74 دولار لكل مليون توكن مدخل و 3.48 دولار لكل مليون توكن مخرج في القائمة الرسمية، وهو ما يقل بنحو 7 مرات في المخرجات عن Claude Opus 4.7 و 8 مرات عن GPT-5.5.67
القصة الأخرى تتعلق بالعتاد. V4 هو أول نموذج صيني بمستوى النماذج الرائدة تم تصميمه ليعمل محلياً على شرائح Huawei Ascend، على الرغم من أن V4-Pro نفسه يبدو أنه تم تدريبه بشكل أساسي على وحدات معالجة الرسومات من NVIDIA.89
ما ستتعلمه
- ما هي نماذج V4-Pro و V4-Flash فعلياً، وكيف تتناسب مع مشهد النماذج مفتوحة الأوزان
- بنية الانتباه الهجينة (CSA + HCA) التي تجعل سياق المليون توكن رخيص التكلفة في التشغيل
- كيف تقارن معايير V4 مع Claude Opus 4.7 و GPT-5.5 — وأين تكمن نقاط ضعفها
- أسعار المعاينة من DeepSeek وكيفية التفكير في إصابات ذاكرة التخزين المؤقت (cache hits) وعروض الإطلاق
- ماذا تعني زاوية Huawei Ascend وما لا تعنيه
- متى تختار V4-Pro مقابل V4-Flash مقابل نموذج رائد مغلق
ما الذي أطلقته DeepSeek
نشرت DeepSeek نموذجين في وقت واحد في 24 أبريل 2026، إلى جانب الأوزان المفتوحة، و واجهة برمجة تطبيقات API، وتقرير تقني بعنوان "DeepSeek-V4: نحو ذكاء سياقي عالي الكفاءة بمليون توكن".12
| النموذج | إجمالي المعلمات | المعلمات المفعلة | السياق | أقصى مخرجات |
|---|---|---|---|---|
| DeepSeek-V4-Pro | 1.6 تريليون | 49 مليار | 1,000,000 توكن | 384,000 توكن |
| DeepSeek-V4-Flash | 284 مليار | 13 مليار | 1,000,000 توكن | 384,000 توكن |
كلا النموذجين يعتمدان على بنية Mixture-of-Experts (MoE) المتفرقة: يتم تفعيل جزء صغير فقط من معلمات الشبكة لأي توكن معين، مما يحافظ على تكلفة الاستدلال متناسبة تقريباً مع عدد المعلمات المفعلة بدلاً من الإجمالي. طراز V4-Flash، على وجه الخصوص، يتصرف كنموذج بـ 13 مليار معلمة وقت التشغيل بينما يستفيد من مجموعة خبراء تضم 284 مليار معلمة.2
كلاهما يأتي مع أوزان مفتوحة تحت رخصة MIT على Hugging Face — وهي واحدة من أكثر الرخص تسامحاً في الذكاء الاصطناعي الحديث. لا توجد قيود على الاستخدام التجاري، ولا بنود استخدام مقبولة مرتبطة بعدد المستخدمين، ولا يطلب نسب العمل لجهة معينة بما يتجاوز نص الرخصة.2
تصف DeepSeek هذا الإصدار بأنه معاينة. ومن المقرر إيقاف نقاط نهاية واجهة برمجة التطبيقات API للجيل السابق deepseek-chat و deepseek-reasoner تماماً في 24 يوليو 2026، وبعد ذلك سيصبح V4 هو المسار الوحيد على واجهة برمجة التطبيقات API الرسمية.1
قصة البنية: ضغط الانتباه، وليس النموذج
الابتكار المعماري الأبرز في V4 ليس عدد المعلمات — فنموذج V4-Pro بـ 1.6 تريليون معلمة يمثل قفزة كبيرة عن طراز V3 الذي كان يضم 671 مليار معلمة MoE، ولكن القصة الأكثر إثارة للاهتمام هي الطريقة الجديدة للتعامل مع الانتباه (attention) في سياقات المليون توكن.
يقدم V4 آلية انتباه هجينة تتداخل فيها عمليتان:2
- الانتباه المتفرق المضغوط (CSA) يضغط مجموعات صغيرة من التوكنات إلى تمثيلات ملخصة. كل توكن جديد ينتبه فقط إلى الملخصات الأكثر صلة عبر اختيار top-k، بدلاً من كل توكن سابق.
- الانتباه المضغوط بشدة (HCA) يضغط مجموعات أكبر بكثير في تمثيل واحد، مما يمنح النموذج رؤية عالمية للسياق الكامل.
تتبادل الطبقات بين CSA و HCA، بحيث يحصل النموذج على استدعاء محلي دقيق وسياق عالمي عام دون دفع تكلفة انتباه تربيعية كاملة في كل مكان. والنتيجة، وفقاً للتقرير التقني لـ DeepSeek، هي أنه عند سياق 1 مليون توكن، يتطلب V4-Pro فقط 27% من عمليات FLOPs الاستدلال لكل توكن و 10% من ذاكرة KV cache مقارنة بـ V3.2 عند نفس طول السياق.1
يظهر مكونان آخران في التقرير التقني:2
- الارتباطات الفائقة المقيدة بالمنوعات (mHC)، وهي امتداد للارتباطات المتبقية (residual connections) تهدف إلى استقرار تدفق الإشارة عبر طبقات النموذج العديدة دون التضحية بالقدرة التعبيرية.
- محسن Muon، وهو بديل حديث نسبياً لـ AdamW بدأ يظهر في العديد من عمليات التدريب الكبيرة في أواخر عام 2025 و 2026.
يُذكر أن حجم التدريب المسبق بلغ 32 تريليون+ توكن، مع خط أنابيب ما بعد التدريب من مرحلتين: تخصص الخبراء المستقل عبر الضبط الدقيق الخاضع للإشراف والتعلم المعزز، ثم الدمج الموحد من خلال التقطير المباشر (on-policy distillation).2
المقاييس: قريبة من النماذج الرائدة، وليست رائدة
نتائج مقاييس V4 قوية، خاصة بالنسبة لنموذج مفتوح الأوزان، لكنها تقع أدنى بقليل من النماذج الرائدة المغلقة في معظم المقارنات التي يتجادل حولها القطاع فعلياً.
| المقياس (Benchmark) | V4-Pro (منشور بواسطة DeepSeek) | نقطة مرجعية |
|---|---|---|
| SWE-bench Verified | 80.6% | Claude Opus 4.6: 80.8%؛ Claude Opus 4.7: 87.6%؛ GPT-5.5: ~82.6%345 |
| SWE-bench Multilingual | 76.2% | — |
| MMLU-Pro | 87.5% | مقارن لجيل GPT-5.4؛ يتأخر عن النماذج المغلقة الرائدة (Gemini 3.1 Pro سجل ~91% في هذا المقياس)10 |
| HMMT 2026 (رياضيات) | 95.2% | قوي، لكنه يتأخر عن GPT-5.4 و Claude في نفس المقياس وفقاً لمقارنات طرف ثالث10 |
| Codeforces (تصنيف Elo) | 3,206 | سجل GPT-5.4 حوالي 3,168 في مقارنات طرف ثالث11 |
| LiveCodeBench | 93.5 | — |
رقم Codeforces هو الرقم الذي تعتمد عليه DeepSeek بشكل أكبر. تصنيف 3,206 يضع V4-Pro ضمن فئة "الجراند ماستر" البشري الأعلى على المنصة — وتقول الشركة إنه يتفوق على تصنيف GPT-5.4 البالغ 3,168.11 شركة OpenAI نفسها لا تنشر تصنيفات Codeforces كمقاييس رسمية، لذا فإن هذه المقارنة مبنية على تقييمات طرف ثالث بدلاً من تشغيل مباشر على لوحة المتصدرين.
في مقياس SWE-bench Verified — وهو مقياس هندسة البرمجيات الأقرب للواقع — يعتبر V4-Pro متساوياً إحصائياً مع Claude Opus 4.6 (80.6% مقابل 80.8%) ولكنه يتأخر عن النماذج الرائدة الحالية بفارق ملموس: سجل Claude Opus 4.7 نسبة 87.6% (فجوة 7 نقاط) وسجل GPT-5.5 حوالي 82.6% (فجوة نقطتين).45 الفكرة ليست في أن V4-Pro يفوز، بل في أنه يخسر بفارق أصغر بكثير من فجوة تكلفة المخرجات التي تتراوح بين 7 إلى 9 أضعاف.
مقتطف معرفي: نموذج DeepSeek V4-Pro هو نموذج Mixture-of-Experts بـ 1.6 تريليون بارامتر مع تفعيل 49 مليار بارامتر لكل توكن، ونافذة سياق تصل إلى 1,000,000 توكن، وأوزان مفتوحة بترخيص MIT. في تقييمات DeepSeek الخاصة، سجل 80.6% في SWE-bench Verified — وهو ما يعادل إحصائياً Claude Opus 4.6 (80.8%) ولكنه يتأخر عن Claude Opus 4.7 (87.6%) بـ 7 نقاط — بتكلفة مخرجات أقل بـ 7 أضعاف تقريباً من سعر قائمة Opus 4.7.
التسعير: حيث يفوز V4 فعلياً
هنا تكتمل القصة. نشرت DeepSeek مستويين من الأسعار لـ V4-Pro: سعر القائمة الذي يسري بعد فترة الإطلاق، وسعر معاينة ترويجي نشط حتى أواخر مايو 2026.6
| النموذج | المدخلات (دولار/مليون توكن) | المخرجات (دولار/مليون توكن) | ملاحظات |
|---|---|---|---|
| DeepSeek V4-Pro (سعر القائمة / بعد العرض) | $1.74 | $3.48 | التسعير القياسي بعد الفترة الترويجية |
| DeepSeek V4-Pro (عرض الإطلاق) | $0.435 | $0.87 | نشط حتى ~31 مايو 2026 |
| DeepSeek V4-Flash | $0.14 | $0.28 | التسعير القياسي |
| Claude Opus 4.7 | $5.00 | $25.00 | سعر قائمة API7 |
| GPT-5.5 | $5.00 | $30.00 | سعر قائمة API12 |
| GPT-5.5 Pro | $30.00 | $180.00 | سعر قائمة فئة Pro12 |
باستخدام سعر قائمة V4-Pro (المقارنة المستدامة، لأن العرض سينتهي)، تبدو الفجوة كالتالي:
- توكنات المخرجات: V4-Pro أرخص بـ 7.2 ضعفاً تقريباً من Claude Opus 4.7 ($25 / $3.48) و أرخص بـ 8.6 ضعفاً من GPT-5.5 ($30 / $3.48).
- توكنات المدخلات: V4-Pro أرخص بـ 2.9 ضعفاً تقريباً من Opus 4.7 أو GPT-5.5 على أساس عدم وجود تخزين مؤقت (cache-miss).
تعد ضربات التخزين المؤقت (Cache hits) وسيلة إضافية لتقليل التكلفة. اعتباراً من 26 أبريل 2026، خفضت DeepSeek سعر مدخلات التخزين المؤقت عبر نماذج V4 إلى عُشر سعر الـ cache-miss — لذا فإن التطبيقات التي تعيد استخدام البادئات (prefixes) بكثافة ستدفع أقل من ذلك بكثير.6
العنوان الذي استخدمته VentureBeat عند الإطلاق — "ذكاء يقترب من أحدث ما توصل إليه العلم بسدس تكلفة Opus 4.7 و GPT-5.5" — يقع في نفس نطاق مقارنة قائمة الأسعار المذكورة أعلاه.3
زاوية Huawei Ascend (وما لا تعنيه)
ركزت تغطية إطلاق V4 بشكل كبير على فكرة أن V4 يعمل على شرائح Huawei Ascend بدلاً من NVIDIA. هذا صحيح جزئياً ويستوجب الحذر.
ما تم التحقق منه:
- V4 هو أول نموذج صيني بمقياس رائد مصمم لتشغيل الاستدلال (inference) بشكل أصلي على Huawei Ascend، وتفيد التقارير أن API الخاص بـ DeepSeek يقدم V4 بالفعل من مجموعات Ascend في الصين.89
- التقرير التقني لـ DeepSeek صامت بشأن الشرائح التي تم تدريب V4 عليها. تشير تكهنات المجتمع — التي تم تداولها جنباً إلى جنب مع تغطية MIT Technology Review — إلى أن V4-Flash (النموذج الأصغر بـ 284 مليار بارامتر) ربما تم استخدامه لاختبار بنية تدريب Huawei، لكن هذا لم تؤكده DeepSeek.9
ما لم يتم التحقق منه، رغم بعض العناوين الصحفية:
- نموذج V4-Pro نفسه لا يزال على الأرجح مدرباً بشكل أساسي على أجهزة NVIDIA. صرح أستاذ علوم الكمبيوتر في جامعة تسينغهوا لمجلة MIT Technology Review أن تقرير DeepSeek لا يصف خط تدريب كاملاً يعتمد فقط على Ascend لـ V4-Pro، وأن ميزات السياق الطويل على وجه الخصوص تبدو وكأنها جاءت من وحدات معالجة الرسومات NVIDIA.9
لذا فإن استنتاج "الصين تبني ذكاءً اصطناعياً رائداً بدون NVIDIA" هو استنتاج خاطئ في الوقت الحالي. النسخة الدقيقة أكثر إثارة للاهتمام: قامت DeepSeek ببناء مسار استدلال يعمل على شرائح محلية، وهو الجزء من قصة ضوابط تصدير الذكاء الاصطناعي الذي يغير فعلياً الاقتصاد اليومي داخل الصين.
V4 مقابل مشهد الأوزان المفتوحة
V4 ليس أول نموذج مفتوح الأوزان يقدم سياقاً بمليون توكن — فقد قدم Llama 4 Maverick سياق 1M كنسخة معدلة في عام 2025، وفتح Qwen 3.6 Plus معاينة لمليون توكن في 31 مارس 2026.13 وصف V4 بأنه "أول نموذج مفتوح الأوزان بمليون توكن" هو وصف خاطئ. (لمزيد من التفاصيل حول كيفية أداء نوافذ المليون توكن في الممارسة العملية، راجع دليلنا حول تحسين نافذة السياق لنماذج اللغة الكبيرة.)
ما يمثله V4 بين النماذج مفتوحة الأوزان، اعتباراً من أواخر أبريل 2026:
- أكبر نموذج مفتوح الأوزان من حيث إجمالي المعلمات بواقع 1.6 تريليون (كان DeepSeek V3 يمتلك 671 مليار / 37 مليار مفعلة؛ Llama 4 Maverick يمتلك 400 مليار / 17 مليار مفعلة؛ أما عدد معلمات Qwen 3.6 Plus فلم تكشف عنه Alibaba علنًا).
- أقوى نتيجة Codeforces مسجلة لنماذج مفتوحة الأوزان عند 3,206.
- تم إصداره تحت رخصة MIT، إلى جانب رخصة Apache 2.0 الخاصة بـ Qwen كأكثر التراخيص مرونة في فئة النماذج مفتوحة الأوزان — وهو فرق جوهري عن رخصة مجتمع Llama 4، التي تتضمن بنوداً للاستخدام المقبول مرتبطة بعدد المستخدمين.13
إنه ليس متصدر SWE-bench: حيث يتفوق Claude Opus 4.7 على V4 بفارق 7 نقاط في SWE-bench Verified (87.6% مقابل 80.6%) (انظر تحليلنا العميق لـ Claude Opus 4.5 لمعرفة تاريخ العائلة وسجل الاختبارات القياسية)، كما يتفوق GPT-5.5 أيضاً بنسبة ~82.6%.45
متى تختار V4 — ومتى لا تفعل
مصفوفة قرار عملية، بالنظر إلى مشهد أبريل 2026:
| حالة الاستخدام | الخيار الأنسب |
|---|---|
| وكلاء البرمجة ذوي الحجم المرتفع بميزانية محددة لكل مهمة | V4-Pro — تكلفة المخرجات تهم أكثر من آخر 5% من دقة SWE-bench |
| تحليل المستندات بسياقات تزيد عن 500 ألف توكن | V4-Pro أو V4-Flash — تقنية hybrid attention تجعل هذا رخيصاً |
| البرمجة المعتمدة على الوكلاء عالية المستوى حيث تهم فجوات الدقة | Claude Opus 4.7 — يتصدر SWE-bench Verified بنسبة 87.6%، بفارق 7 نقاط عن V4-Pro4 |
| عمليات النشر الإنتاجية التي تتطلب إقامة صارمة للبيانات في الصين | V4 على Huawei Ascend — متوافق بشكل فريد8 |
| الاستضافة الذاتية على الأجهزة العادية | V4-Flash — المعلمات المفعلة البالغة 13 مليار تجعل استضافته ممكنة |
| أعباء العمل حيث تهيمن توكنز المخرجات على التكلفة | V4-Pro — خصم المخرجات البالغ 7-8 أضعاف يتراكم بسرعة |
| الطلبات الرخيصة ذات السياق الصغير (ردود الدردشة، التصنيفات) | V4-Flash أو GPT-5.4 Mini — لا يحتاج أي منهما لنموذج 1M (لم يكن GPT-5.5 Mini قد صدر بعد حتى أواخر أبريل 2026) |
تحذيرات تجدر الإشارة إليها بوضوح
ثلاثة.
أولاً، الاختبارات القياسية المذكورة أعلاه هي أرقام DeepSeek المنشورة الخاصة بها. لا تزال عمليات إعادة الإنتاج المستقلة لـ V4-Pro قيد الوصول، ولم يكن النموذج في مرحلة المعاينة العامة إلا لمدة ستة أيام حتى وقت الكتابة. جاءت بعض التقييمات المبكرة من جهات خارجية أقل قليلاً من أرقام DeepSeek المنشورة في مهام مثل SWE-bench Pro.3 تعامل مع الأرقام الرسمية كادعاءات للحد الأقصى حتى تستقر الاختبارات القياسية الخارجية.
ثانياً، أسعار الإطلاق الترويجية — 0.435 دولار لكل مليون توكن مدخلات و0.87 دولار لكل مليون توكن مخرجات لـ V4-Pro — هي خصم مؤقت، وليست التكلفة الدائمة. السعر الرسمي البالغ 1.74 دولار / 3.48 دولار هو ما يجب بناء الميزانيات عليه.6
ثالثاً، "الأوزان المفتوحة" لا تعني "سهولة الاستضافة الذاتية". 1.6 تريليون معلمة بدقة FP4/FP8 المختلطة لا تزال تمثل مئات الجيجابايت من الأوزان، وتقديم سياقات تبلغ مليون توكن بمدة استجابة منخفضة يتطلب قدرة تسريع كبيرة. بالنسبة لمعظم الفرق، V4 هو مفتوح الأوزان من حيث المبدأ و API فقط من الناحية العملية. إذا كنت تحاول خفض فواتير التوكنز في أي من الفئتين، فإن ملاحظاتنا حول توفير التوكنز وتحسين البرومبتس تغطي العوامل الأكثر أهمية.
الخلاصة
لا يستولي DeepSeek V4 على الصدارة. بل يحرك منحنى السعر مقابل الأداء بشكل حاد نحو الأسفل، في العلن. بالنسبة للبرمجة المعتمدة على الوكلاء ذات الحجم المرتفع، وتحليل المستندات، وأي عبء عمل تهيمن فيه توكنز المخرجات على الفاتورة، يصعب تجاهل V4-Pro بسعر 3.48 دولار لكل مليون توكن مخرجات — على الرغم من أن Claude Opus 4.7 يتصدر SWE-bench Verified بفارق 7 نقاط (87.6% مقابل 80.6%). بالنسبة للفرق التي ترغب في الاستضافة الذاتية أو التشغيل على أجهزة Huawei Ascend، فإن V4 هو أول نموذج من فئة النماذج الرائدة يتيح لهم ذلك.
السؤال المثير للاهتمام التالي هو ما إذا كانت OpenAI و Anthropic ستستجيبان في السعر، أو في القدرات، أو في كليهما. لقد حصلت فئة النماذج مفتوحة الأوزان للتو على سقف أعلى بكثير يصعب الاختباء خلفه.
Footnotes
-
وثائق DeepSeek API، "إصدار معاينة DeepSeek V4"، 24 أبريل 2026. https://API-docs.deepseek.com/news/news260424 ↩ ↩2 ↩3 ↩4
-
deepseek-ai/DeepSeek-V4-Pro على Hugging Face، بطاقة النموذج والتقرير التقني. https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro ↩ ↩2 ↩3 ↩4 ↩5 ↩6 ↩7 ↩8
-
VentureBeat، "DeepSeek-V4 يصل بذكاء يقترب من الأحدث وبسدس تكلفة Opus 4.7 و GPT-5.5"، 24 أبريل 2026. https://venturebeat.com/technology/deepseek-v4-arrives-with-near-state-of-the-art-intelligence-at-1-6th-the-cost-of-opus-4-7-gpt-5-5 ↩ ↩2 ↩3 ↩4
-
Anthropic، "تقديم Claude Opus 4.7"، 16 أبريل 2026، معيار أداء رئيسي بنسبة 87.6% على SWE-bench Verified (ارتفاعاً من 80.84% في Opus 4.6). https://www.anthropic.com/news/claude-opus-4-7 ↩ ↩2 ↩3 ↩4 ↩5 ↩6
-
vals.ai تتبع لوحة صدارة SWE-bench لنموذج GPT-5.5 بنسبة 82.60% على SWE-bench Verified. https://www.vals.ai/benchmarks/swebench ↩ ↩2 ↩3 ↩4 ↩5
-
وثائق DeepSeek API، النماذج والتسعير. https://API-docs.deepseek.com/quick_start/pricing ↩ ↩2 ↩3 ↩4 ↩5 ↩6
-
Anthropic، صفحة منتج Claude Opus 4.7 والتسعير. https://www.anthropic.com/claude/opus ↩ ↩2
-
Fortune، "DeepSeek تكشف عن نموذج V4، بأسعار زهيدة وتكامل وثيق مع شرائح Huawei"، 24 أبريل 2026. https://fortune.com/2026/04/24/deepseek-v4-ai-model-price-performance-china-open-source/ ↩ ↩2 ↩3
-
MIT Technology Review، "ثلاثة أسباب تجعل نموذج DeepSeek الجديد مهماً"، 24 أبريل 2026. https://www.technologyreview.com/2026/04/24/1136422/why-deepseeks-v4-matters/ ↩ ↩2 ↩3 ↩4 ↩5
مقارنات معيارية من جهات خارجية لـ DeepSeek V4 مقابل GPT-5.4 و Claude Opus 4.6 و Gemini 3.1 Pro على MMLU-Pro و HMMT 2026 (مقارنات مستقلة؛ تختلف درجات المنافسين المحددة حسب المصدر). https://framia.pro/page/en-US/news/deepseek-v4-benchmarks ↩ ↩2
مدونة Codeforces وإعلان DeepSeek (مقارنة منشورة من جهة خارجية؛ لا تنشر OpenAI تصنيفات Codeforces كمعايير رسمية). https://codeforces.com/blog/entry/153267 ↩ ↩2
أسعار OpenAI API. https://openai.com/API/pricing/ ↩ ↩2
مقارنة أفضل نماذج LLMs مفتوحة المصدر، أبريل 2026 (تفاصيل Llama 4 Maverick و Qwen 3.6 Plus 1M-context). https://lushbinary.com/blog/best-open-source-llms-april-2026-comparison-guide/ ↩ ↩2