Mistral Medium 3.5: مبرمج رائد مفتوح الأوزان بحجم 128B
١ مايو ٢٠٢٦
ملخص
أصدرت شركة Mistral AI نموذج Mistral Medium 3.5 في 29 أبريل 2026 — وهو نموذج كثيف (dense) يضم 128 مليار معامل مع نافذة سياق تصل إلى 256,000 توكن وجهد استدلال قابل للتهيئة، وتم نشره كأوزان مفتوحة على Hugging Face بموجب ترخيص MIT المعدل.12 سجل النموذج 77.6% في اختبار SWE-Bench Verified و 91.4% في اختبار τ³-Telecom للوكلاء الذكيين، متفوقاً بفارق ضئيل على الجيل السابق من نموذج Claude Sonnet 4.5 من شركة Anthropic (الذي سجل 77.2% في SWE-Bench Verified) ولكنه يتأخر بخطوة عن النموذج الرائد الحالي لشركة Anthropic، وهو Sonnet 4.6، الذي سجل 79.6%.134 أسعار API هي 1.50 دولار لكل مليون توكن مدخل و 7.50 دولار لكل مليون توكن مخرج، وهو ما يعادل تقريباً نصف السعر المعلن لنموذجي Sonnet 4.5 و Sonnet 4.6 البالغ 3.00 دولار / 15.00 دولار.564
النصف الآخر من الخبر يتعلق بقصة النشر. تقول Mistral أن Medium 3.5 يمكن استضافته ذاتياً "على ما لا يقل عن أربعة وحدات معالجة رسومية (GPUs)"، وتوفر رأس مسودة (draft head) لفك التشفير التخميني بتقنية EAGLE (Mistral-Medium-3.5-128B-EAGLE) للخدمة المحدودة بزمن الاستجابة في حالات التزامن المنخفض.17 أصبح النموذج أيضاً هو الافتراضي الجديد لخدمة Le Chat ويشغل نسخة محدثة من Mistral Vibe التي تقوم الآن بتشغيل وكلاء البرمجة في السحابة بشكل غير متزامن بدلاً من تشغيلها فقط على كمبيوتر المطور المحمول.8
ما ستتعلمه
- ما هو Mistral Medium 3.5 فعلياً، ولماذا كان اختيار نموذج كثيف بـ 128 مليار معامل خياراً غير معتاد في عام 2026
- نافذة السياق بسعة 256 ألف توكن، والمدخلات متعددة الوسائط، وجهد الاستدلال القابل للتهيئة
- ترخيص MIT المعدل وأين تنطبق استثناءات الإيرادات الخاصة به
- كيف يقارن Medium 3.5 في الاختبارات المرجعية مع Claude Sonnet 4.5 و Sonnet 4.6 و DeepSeek V4
- كيف يغير فك التشفير التخميني EAGLE والاستضافة الذاتية على أربعة وحدات معالجة رسومية حسابات النشر
- كيف تستهلك خدمات Le Chat و Mistral Vibe النموذج في بيئة الإنتاج
ما الذي شحنته Mistral
في 29 أبريل 2026، نشرت Mistral نموذج Medium 3.5 إلى جانب تحديث لواجهة منتجاتها. تتكون حزمة الإصدار من أربعة أجزاء:128
| المكون | ما هو |
|---|---|
mistralai/Mistral-Medium-3.5-128B | أوزان النموذج الكثيف الأساسي 128B على Hugging Face |
mistralai/Mistral-Medium-3.5-128B-EAGLE | رأس مسودة EAGLE لفك التشفير التخميني |
| Mistral API | نقطة نهاية mistral-medium-3.5، بسعر 1.50 دولار / 7.50 دولار لكل مليون توكن |
| Le Chat + Mistral Vibe | تعيين Medium 3.5 كنموذج افتراضي جديد |
تجمع صفحة مجموعة Hugging Face النموذج الأساسي، وإصدار EAGLE، ومسودة Mistral-Medium-3.5-128B-EAGLE المستخدمة في فك التشفير التخميني.2 قامت جهات التعبئة الخارجية — Unsloth و Ollama و NVIDIA NIM — بتوفير GGUF وصور الحاويات (container images) في غضون ساعات.910
هذا نموذج واحد "يدمج اتباع التعليمات، والاستدلال، والبرمجة في نموذج كثيف واحد بـ 128 مليار معامل."1 بمعنى آخر، قامت Mistral بدمج الخطوط المتخصصة السابقة — Devstral 2 للبرمجة، و Magistral للاستدلال، و Medium 3.1 لاتباع التعليمات العامة — في مجموعة أوزان واحدة. أصبح جهد الاستدلال قابلاً للتهيئة لكل طلب بدلاً من أن يكون مدمجاً في إصدار منفصل من النموذج.
خيار النموذج الكثيف 128B
تقريباً كل إصدارات الأوزان المفتوحة من الفئة الرائدة في أوائل عام 2026 كانت تعتمد على خليط الخبراء (Mixture-of-Experts). نموذج DeepSeek V4-Pro هو MoE بـ 1.6 تريليون معامل مع 49 مليار معامل يتم تفعيلها لكل توكن؛ و V4-Flash هو MoE بـ 284 مليار معامل مع تفعيل 13 مليار معامل.11 كما أن GLM 5.1 و Kimi K2.6 يعتمدان على MoE. حتى نموذج Muse Spark من Meta، الذي أصبح داخلياً الآن، وُصف علناً بأنه ذو بنية متفرقة (sparse architecture).
سلكت Mistral الطريق الآخر: نموذج كثيف بـ 128 مليار معامل. يشارك كل معامل في كل توكن. هذا أثقل لكل عملية نقطة عائمة (FLOP) من نموذج MoE مكافئ في الجودة، ولكن له نتيجتان عمليتان:
- إشغال الذاكرة يمكن التنبؤ به. يحتاج النموذج الكثيف 128B بتنسيق BF16 إلى حوالي 256 جيجابايت للأوزان، وهو ما يتناسب مع أربعة وحدات معالجة رسومية بسعة 80 جيجابايت (إجمالي 320 جيجابايت) مع مساحة متبقية للتفعيلات وذاكرة التخزين المؤقت KV. تعتمد مطالبة Mistral بـ "ما لا يقل عن أربعة وحدات معالجة رسومية" على تكميم FP8 الذي يجعل الأوزان تقترب من 128 جيجابايت.112
- فك التشفير التخميني بسيط. تعمل تقنية EAGLE بشكل أفضل عندما يتشارك رأس المسودة مع الهدف في المحلل اللغوي (tokenizer) والرأس، وتمنحك النماذج الكثيفة مفردات نظيفة للمسودة. أرقام EAGLE المنشورة من Mistral هي تقريباً 1.41 ضعف في إنتاجية المخرجات وحوالي 29% أقل في زمن الاستجابة الكلي عند التزامن المنخفض، مع طول قبول يبلغ حوالي 1.72 توكن لكل دورة مسودة.7
المقايضة: النموذج الكثيف 128B لن يضاهي نموذج MoE من فئة 1 تريليون في أقصى مستويات الاختبارات المرجعية. نتيجة Medium 3.5 البالغة 77.6% في SWE-Bench Verified تأتي أقل من 80.6% لنموذج DeepSeek V4-Pro وأقل من النماذج الرائدة الحالية مغلقة المصدر.111 تراهن Mistral على أن كون النموذج "صغيراً بما يكفي للاستضافة الذاتية، وكبيراً بما يكفي للشحن" هو نقطة تشغيل أكثر فائدة للمؤسسات من مجرد تصدر قائمة المتصدرين المطلقة.
نافذة السياق 256K والمدخلات متعددة الوسائط
يدعم Medium 3.5 نافذة سياق تبلغ 256,000 توكن — وهي كبيرة بما يكفي لاستيعاب قاعدة كود متوسطة الحجم أو عدة مئات من الصفحات من وثائق السياسات في تمريرة واحدة.12 ظلت Mistral تحت عتبة السياق الضخم (megacontext) التي تستهدفها نماذج DeepSeek V4 (مليون توكن) و Claude Sonnet 4.6 (مليون توكن، متاح بشكل عام بدون رسوم إضافية اعتباراً من فبراير 2026).4 والنتيجة هي سياق عميق ولكن يتم الاحتفاظ به داخل نظام توازي تسلسلي واحد، وهو جزء من السبب في أن الاستضافة الذاتية على أربعة معالجات رسومية (GPU) تظل أمراً معقولاً.
النموذج متعدد الوسائط في الإدخال: فهو يقبل النصوص والصور، ولكنه ينتج نصوصاً فقط.213 تم تدريب مشفر الرؤية (vision encoder) من الصفر للتعامل مع أحجام الصور ونسب العرض إلى الارتفاع المتغيرة، وهو تفصيل هادئ ولكنه مفيد — حيث تقوم معظم مشفرات الرؤية مفتوحة الأوزان بضغط الصور إلى مربع ثابت. بالنسبة لأعباء عمل تحليل المستندات والأسئلة والأجوبة المرئية في الشركات، فإن الإدخال بدقة متغيرة أصلية يعني مفاجآت أقل في المعالجة المسبقة.
يدعم Medium 3.5 أيضاً استدعاء الدوال (function calling) و "جهد التفكير القابل للتهيئة" لكل طلب — وهو نفس النمط الذي بدأت Anthropic و Google و OpenAI في التوجه نحوه، حيث يمكن مطالبة نموذج واحد ببذل توكنات تفكير أكثر أو أقل في مشكلة ما بدلاً من تقسيمه إلى إصدار "تفكير" منفصل.12
اختبارات الأداء: أين يقع Medium 3.5 فعلياً
تقع اختبارات الأداء الرئيسية لـ Mistral في شريط ضيق بين رواد نماذج MoE مفتوحة الأوزان في أبريل 2026 وفئة Sonnet المملوكة:1311144
| النموذج | الترخيص | إجمالي المعاملات | SWE-Bench Verified | ملاحظات |
|---|---|---|---|---|
| DeepSeek V4-Pro | MIT | 1.6T (MoE, 49B activated) | 80.6% | سياق 1M، $1.74 / $3.48 لكل مليون توكن |
| Claude Sonnet 4.6 | مغلق | غير معلن | 79.6% | سياق 1M (بدون رسوم إضافية)، $3.00 / $15.00 لكل مليون توكن |
| Mistral Medium 3.5 | MIT معدل | 128B (dense) | 77.6% | سياق 256K، $1.50 / $7.50 لكل مليون توكن |
| Claude Sonnet 4.5 (قديم) | مغلق | غير معلن | 77.2% | سياق قياسي 200K (تم إيقاف نسخة 1M التجريبية في 30 أبريل 2026)، $3.00 / $15.00 لكل مليون توكن |
| DeepSeek V4-Flash | MIT | 284B (MoE, 13B activated) | غير معلن بشكل منفصل | فئة محسنة التكلفة من V4 |
المقارنة بين Mistral و Sonnet هي الأكثر وضوحاً. SWE-Bench Verified هي مجموعة اختبار ثابتة؛ تم تقييم جميع هذه النماذج مقابلها؛ وتتفوق نسبة 77.6% لـ Medium 3.5 على نسبة 77.2% لـ Sonnet 4.5 القديم بمقدار 0.4 نقطة مئوية، لكنها تتأخر عن Sonnet 4.6 الحالي (79.6%، الذي صدر في 17 فبراير 2026) بنقطتين بنفس السعر المعلن 3 دولار / 15 دولار.134 في اختبار τ³-Telecom، وهو اختبار أداء لاستخدام الأدوات الوكيلية (agentic-tool-use) يُستخدم لاختبار تحمل سير العمل متعدد الأدوار، سجلت Mistral نسبة 91.4% لـ Medium 3.5.1 لم تنشر Mistral درجات MMLU أو GPQA أو AIME كاملة حتى وقت النشر، لذا فإن حدود التفكير والمعرفة العامة يصعب تحديدها بدقة مقارنة بأرقام البرمجة.
نموذج Medium 3.5 ليس ملك لوحة المتصدرين. يظل DeepSeek V4-Pro متقدماً بثلاث نقاط مئوية في SWE-Bench Verified على نموذج أكبر باثنتي عشرة مرة تقريباً من حيث عدد المعاملات، ويظل Sonnet 4.6 متقدماً بنقطتين بنموذج مغلق. القصة تكمن في تكلفة تلك النقاط: يحتاج V4-Pro إلى عدد أكبر بكثير من المعالجات الرسومية للاستضافة مقارنة بشبكة كثيفة (dense) بحجم 128B، و Sonnet بأي إصدار لا يمكن استضافته ذاتياً — حيث تعمل مطالباتك على بنية Anthropic التحتية أو شركائها السحابيين (AWS Bedrock، Google Vertex AI)، ولكن ليس أبداً على أجهزة تتحكم بها أنت.
الاستضافة الذاتية على أربعة معالجات رسومية
ادعاء Mistral بأن النموذج "يستضاف ذاتياً على عدد قليل يصل إلى أربعة معالجات رسومية" هو الجزء الأكثر أهمية في هذا الإصدار لفرق الهندسة.1 من الناحية العملية، يظهر الأمر كالتالي:
- BF16 الأصلي: 128 مليار معامل × 2 بايت ≈ 256 جيجابايت من الأوزان. بالإضافة إلى ذاكرة التخزين المؤقت KV (التي تتوسع مع طول السياق) والتنشيطات، فأنت تنظر إلى أربعة إلى ثمانية معالجات رسومية سعة 80 جيجابايت حسب السياق.
- تكميم FP8 (الوصفة المنشورة من Mistral): حوالي 128 جيجابايت من الأوزان، تقع بشكل مريح داخل عقدة 4×H100 أو 4×H200، مع مساحة إضافية لذاكرة التخزين المؤقت KV للسياقات متوسطة الطول.12
- رأس المسودة EAGLE (
Mistral-Medium-3.5-128B-EAGLE) هو بتكميم FP8، وطبقتين GQA، ويضيف حوالي 4 جيجابايت من العبء الإضافي للأوزان. يوفر حوالي 1.41 ضعفاً في إنتاجية المخرجات وحوالي 29% أقل في زمن الاستجابة الشامل في الخدمة منخفضة التزامن والمقيدة بزمن الاستجابة، مع متوسط طول قبول يبلغ 1.72 توكن لكل دورة مسودة.7
يعد vLLM هو محرك الاستنتاج الذي تعتمد عليه Mistral والوثائق الخارجية، مع SGLang كبديل يشحن دعماً من الدرجة الأولى لـ EAGLE.12 إذا حاولت يوماً نشر نموذج MoE بـ 1.6 تريليون معامل في الإنتاج، فإن الفرق ليس خطأ تقريب — Medium 3.5 يناسب عقدة استنتاج واحدة متطورة بينما يحتاج DeepSeek V4-Pro إلى مجموعة (cluster) صغيرة.
ترخيص MIT المعدل
نشرت Mistral نموذج Medium 3.5 تحت ترخيص MIT معدل: وهو أساس مسموح به بأسلوب MIT مع استثناءات قائمة على الإيرادات للشركات الكبيرة جداً.12 بالنسبة للمطورين المستقلين، والشركات الناشئة، وموردي السوق المتوسطة، ومعظم الجامعات، يتصرف الترخيص مثل MIT العادي — الاستخدام التجاري، وإعادة التوزيع، والاستضافة الذاتية مسموح بها دون شروط إضافية. تحتاج الشركات التي تتجاوز عتبة إيرادات Mistral إلى التوصل إلى ترتيب تجاري منفصل.
تم توثيق الحد الدقيق في بطاقة Hugging Face ومركز مساعدة Mistral؛ وقد لخصه العديد من المجمعين كاختبار للإيرادات الشهرية، ولكن الرقم الدقيق، وشروط التفعيل، والاستثناءات للاستخدام مقابل إعادة التوزيع تستحق القراءة مباشرة من نص الترخيص بدلاً من الاقتباسات من أطراف ثالثة.215 إن سحب الترخيص من LICENSE.md على مستودع Hugging Face هو تمرين يستغرق خمس دقائق؛ أما الوثوق بملخص مدونة فهو من نوع الأشياء التي يعيد المحامون قراءتها لاحقاً بمزاج مختلف.
Le Chat و Mistral Vibe: كيف تستخدمهما Mistral
جعلت Mistral نموذج Medium 3.5 هو النموذج الافتراضي لاثنين من منتجاتها في نفس اليوم:18
Le Chat — مساعد الدردشة للمستهلكين والمؤسسات من Mistral — حصل على "وضع عمل" (Work mode) جديد في النسخة التجريبية يدعم المهام متعددة الخطوات مثل البحث والإجراءات عبر الأدوات المختلفة، مع وجود Medium 3.5 كمحرك أساسي لخطط Pro و Team و Enterprise.16
Mistral Vibe — وكيل البرمجة عبر واجهة الأوامر (CLI) مفتوح المصدر بترخيص Apache 2.0 والذي أُعلن عنه في الأصل بجانب Devstral 2 — حصل على ميزة التنفيذ السحابي في هذا الإصدار.817 حتى 29 أبريل، كان Vibe عبارة عن CLI محلي فقط: تقوم بتشغيله في جهازك الطرفي (terminal)، ويقوم بتنفيذ أوامر bash، ويعدل الملفات في دليل عملك. تتيح ميزة "الوكلاء عن بُعد" (remote agents) الجديدة تشغيل عدة وكلاء Vibe في وقت واحد في سحابة Mistral، سواء من خلال CLI أو من داخل Le Chat. حالة الاستخدام التي تروج لها Mistral هي العمل البرمجي غير المتزامن — أرسل مهمة من Le Chat، اتركها، وعد لتجد فرقاً (diff) جاهزاً لطلب السحب (pull-request).
هذا مشابه هيكلياً لما يقدمه بالفعل وكيل البرمجة Copilot من GitHub، وجلسات Claude Code Remote من Anthropic، ومنصة وكلاء المؤسسات Gemini من Google؛ وجهة نظر Mistral هي أن النموذج الأساسي مفتوح الأوزان وعميل CLI مرخص بـ Apache 2.0، لذا يمكن من الناحية النظرية استضافة المجموعة الكاملة ذاتياً من قبل عميل لا يرغب في استخدام سحابة Mistral.
كيف يقارن Medium 3.5 بفئة Sonnet
بالنسبة لمعظم قراء المؤسسات، السؤال العملي هو "Mistral Medium 3.5 مقابل فئة Anthropic Sonnet". قارن إعلان Mistral الخاص بالنموذج مع Sonnet 4.5، ولكن Sonnet 4.6 هو النموذج الرائد الحالي من Anthropic منذ 17 فبراير 2026، بنفس سعر القائمة البالغ 3 دولارات / 15 دولاراً.13564
| البعد | Mistral Medium 3.5 | Claude Sonnet 4.6 (الحالي) | Claude Sonnet 4.5 (القديم) |
|---|---|---|---|
| الترخيص | MIT معدل (أوزان مفتوحة) | مغلق (API + عملاء الطرف الأول فقط) | مغلق |
| عدد المعلمات | 128B مكثف | غير معلن | غير معلن |
| نافذة السياق | 256,000 توكن | 1,000,000 توكن (بدون رسوم إضافية، متاح للجميع) | 200,000 توكن (تم إيقاف نسخة 1M التجريبية في 30 أبريل 2026) |
| SWE-Bench Verified | 77.6% | 79.6% | 77.2% |
| قابل للاستضافة الذاتية | نعم — تشير Mistral إلى أربعة وحدات معالجة رسومية (GPUs) بدقة FP8 | لا | لا |
| سعر API (المدخلات) | $1.50 / مليون توكن | $3.00 / مليون توكن | $3.00 / مليون توكن |
| سعر API (المخرجات) | $7.50 / مليون توكن | $15.00 / مليون توكن | $15.00 / مليون توكن |
| مدخلات متعددة الوسائط | نص + صور | نص + صور + ملفات PDF | نص + صور + ملفات PDF |
| تاريخ الإصدار | 29 أبريل 2026 | 17 فبراير 2026 | 29 سبتمبر 2025 |
يتفوق Sonnet 4.6 في درجة SWE-Bench الخام، وفي نافذة السياق البالغة مليون توكن المتاحة حالياً للجميع بدون رسوم إضافية، وفي مدخلات PDF، وفي صقل المنتج العام — حيث أن مجموعة Anthropic أقدم وأكثر اختباراً في الميدان. يتفوق Medium 3.5 في السعر عند أي طول سياق أقل من 200 ألف، وفي خيار جلب الأوزان داخلياً، وضد Sonnet 4.5 تحديداً في معيار البرمجة الذي اختارت Mistral تسليط الضوء عليه.
شجرة القرار العملي أقرب إلى "في أي جانب من سياج البناء مقابل الشراء تقف" أكثر من "أيهما النموذج الأفضل". إذا كان فريق الأمان لديك غير مرتاح لخروج الأوامر (prompts) خارج المبنى، فإن Medium 3.5 هو الوحيد من بين الثلاثة الذي يمكنك نشره. إذا كنت تريد API مداراً وأنت مرتاح في هذا الجانب، فإن فجوة النقطتين في SWE-Bench لصالح Sonnet 4.6 قد تهمك أكثر من فجوة السعر عندما تزن الجهد التشغيلي لإعداد عقدة استدلال بأربعة وحدات معالجة رسومية، وثلاث نسخ احتياطية للتوافر العالي، وخط أنابيب مسودة EAGLE.
قصة استقلال الذكاء الاصطناعي الأوروبي
تأسست Mistral في أبريل 2023 من قبل Arthur Mensch و Guillaume Lample و Timothée Lacroix — وهم ثلاثة باحثين اجتمعوا بعد فترات عمل في DeepMind و Meta.18 يقع المقر الرئيسي للشركة في باريس ولها مكاتب في الولايات المتحدة ولندن ولوكسمبورغ وسنغافورة، وتوظف حسب التقارير حوالي 350 شخصاً.1819 في 30 مارس 2026، جمعت Mistral مبلغ 830 مليون دولار كديون من كونسورتيوم أوروبي يضم سبعة بنوك لتمويل مركز بيانات بقدرة 44 ميجاوات مدعوم من NVIDIA في Bruyères-le-Châtel بالقرب من باريس — وهو أكبر تمويل لبنيتها التحتية حتى الآن، وجهد منفصل عن تعهد بقيمة 1.4 مليار دولار في فبراير 2026 مع EcoDataCenter للسعة السويدية.20
الإطار الاستراتيجي الذي دفعته Mistral منذ عام 2023 هو أن أوروبا بحاجة إلى مختبر محلي من الفئة الرائدة (frontier-class) يمكن للشركات فحص أوزانه فعلياً، وضبطه بدقة، واستضافته ذاتياً. يعد Medium 3.5 هو النسخة الأكثر وضوحاً من هذا العرض حتى الآن. إنه صغير بما يكفي لنشره على أجهزة مملوكة لأوروبا، ومرخص بشكل مفتوح بما يكفي لإرضاء فرق المشتريات التي تحذر من واجهات البرمجة التطبيقية (APIs) المغلقة في الولايات المتحدة، وموثوق به في المعايير بما يكفي ليكون خياراً حقيقياً وليس مجرد خيار سياسي.
يعتمد نجاح هذا العرض على صبر مشتري المؤسسات في استضافة نماذج الفئة الرائدة ذاتياً أكثر من اعتماده على النموذج نفسه. معظم الشركات لا ترغب فعلياً في تشغيل عقد استدلال بأربعة وحدات معالجة رسومية. ومع ذلك، فإن معظم الشركات تريد خيار التخلي عن مورد دون إعادة بناء مجموعتها التقنية بالكامل — وهذا الخيار هو بالضبط ما يبيعه نموذج SWE-Bench بنسبة 77.6% مفتوح الأوزان بموجب ترخيص MIT المعدل.
الخلاصة
ليس Mistral Medium 3.5 هو النموذج الأعلى تسجيلاً في فئة الأوزان المفتوحة — فلا يزال DeepSeek V4-Pro يمتلك هذا العرش بفارق ثلاث نقاط مئوية في اختبار البرمجة الرئيسي. ومع ذلك، فهو من بين أكثر نماذج الفئة الرائدة ذات الأوزان المفتوحة قابلية للنشر والمنشورة حتى 29 أبريل 2026: شبكة كثيفة 128B تتناسب مع عقدة واحدة من أربع وحدات GPU مع استدلال مسرع بـ EAGLE وسياق 256K توكن، مقدمة من أحد المختبرات الأوروبية القليلة التي لا تزال تدفع نحو هذا المستوى من الأداء.
بالنسبة للمؤسسات التي تحتاج إلى الاحتفاظ بالأوامر (prompts) داخلياً، وفرق المشتريات الأوروبية التي تريد خياراً محلياً موثوقاً، وفرق الهندسة التي تريد الحد الأدنى للسعر لنموذج مفتوح الأوزان مع سهولة نشر الشبكة الكثيفة، فإن Medium 3.5 هو أحد أكثر الإصدارات إثارة للاهتمام هذا الأسبوع. تكلفة الدخول هي عقدة بأربع وحدات GPU وكتلة vLLM؛ والجائزة هي نموذج يقع ضمن نقطتين مئويتين من نموذج Sonnet الرائد الحالي من Anthropic بنصف سعر الـ API، ويتفوق قليلاً على جيل Sonnet السابق بمقدار 0.4 نقطة في نفس الاختبار المرجعي، ويمنحك خيار التخلي عن الـ API تماماً.
Footnotes
-
Mistral Medium 3.5 — Mistral Docs (model card, version 26-04) ↩ ↩2 ↩3 ↩4 ↩5 ↩6 ↩7 ↩8 ↩9 ↩10 ↩11 ↩12 ↩13 ↩14 ↩15 ↩16 ↩17 ↩18
-
mistralai/Mistral-Medium-3.5-128B— بطاقة نموذج Hugging Face ↩ ↩2 ↩3 ↩4 ↩5 ↩6 ↩7 ↩8 ↩9 ↩10 -
Claude Sonnet 4.5: أعلى نموذج Claude تسجيلاً للنقاط حتى الآن على SWE-bench — Caylent ↩ ↩2 ↩3 ↩4
-
تقديم Claude Sonnet 4.6 — Anthropic (تم إصداره في 17 فبراير 2026؛ 79.6% SWE-Bench Verified بسعر قائمة 3 دولار/15 دولار؛ توفر عام لسياق 1M بدون رسوم إضافية) ↩ ↩2 ↩3 ↩4 ↩5 ↩6 ↩7
-
دليل مطور Mistral Medium 3.5: API واختبارات الأداء — Lushbinary ↩ ↩2
-
mistralai/Mistral-Medium-3.5-128B-EAGLE— بطاقة نموذج Hugging Face ↩ ↩2 ↩3 ↩4 -
الوكلاء عن بعد في Vibe — أخبار Mistral AI (29 أبريل 2026) ↩ ↩2 ↩3 ↩4 ↩5
-
DeepSeek V4 (2026): 1T بارامتر، 81% SWE-bench، 0.30 دولار/مليون توكن — NxCode ↩ ↩2 ↩3 ↩4
-
الاستضافة الذاتية لـ Mistral Medium 3.5: دليل vLLM و SGLang و GPU — Lushbinary ↩ ↩2 ↩3 ↩4
-
إطلاق Mistral Medium 3.5: ماذا يعني للبنية التحتية للذكاء الاصطناعي المستضافة ذاتياً — VRLA Tech ↩
-
مقارنة بين Mistral Medium 3.5 و Claude Sonnet 4 و GPT-4o — Lushbinary ↩
-
تحت أي ترخيص تتوفر نماذج Mistral المفتوحة؟ — مركز مساعدة Mistral AI ↩ ↩2
-
Mistral AI تكشف عن نموذج Medium 3.5 ووضع العمل لـ Le Chat — testingcatalog.com ↩
-
نقدم لكم: Devstral 2 و Mistral Vibe CLI — أخبار Mistral AI ↩ ↩2
-
Mistral تؤمن 830 مليون دولار كتمويل ديون لتمويل مركز بيانات للذكاء الاصطناعي — CNBC (30 مارس 2026) ↩