GLM-5.1: النموذج مفتوح المصدر الذي تفوق على GPT-5.4
١٩ أبريل ٢٠٢٦
ملخص
أصدرت شركة Z.ai نموذج GLM-5.1 في 7 أبريل 2026 — وهو نموذج مفتوح الأوزان يضم 754 مليار معلمة (parameter)، وحقق نتيجة 58.4% في اختبار SWE-bench Pro، متفوقاً بفارق ضئيل على GPT-5.4 (57.7%) و Claude Opus 4.6 (57.3%) ليحتل المركز الأول، مما يجعله أول نموذج مفتوح المصدر يتصدر تلك القائمة على الإطلاق. حقق النموذج هذه النتيجة بدون استخدام أي من أجهزة NVIDIA، حيث تم تدريبه بالكامل على 100,000 شريحة Huawei Ascend 910B. الأوزان مرخصة بموجب رخصة MIT، وهي مجانية للتحميل، ومتاحة بالفعل عبر API بسعر 0.95 دولار لكل مليون توكن مدخلات. يمكن لمحرك التنفيذ الوكيل (agentic execution engine) الخاص به العمل بشكل مستقل لمدة ثماني ساعات متواصلة — دون الحاجة إلى نقاط تفتيش بشرية.
اعتباراً من 16 أبريل، تقدم Claude Opus 4.7 ليحقق 64.3% في اختبار SWE-bench Pro، ولكن حقيقة أن نموذجاً مفتوح الأوزان احتل المركز الأول لفترة وجيزة هي علامة فارقة لن تنساها صناعة الذكاء الاصطناعي قريباً.
ما ستتعلمه
- ما هو GLM-5.1 وكيف يختلف عن سلفه GLM-5
- أداؤه في الاختبارات المعيارية على SWE-bench Pro و Code Arena، بالإضافة إلى تنبيهات هامة
- كيف تم بناء نموذج مدرج في قائمة الكيانات الخاضعة لرقابة الصادرات الأمريكية بدون شريحة NVIDIA واحدة
- ماذا يعني التنفيذ المستقل لمدة 8 ساعات في الممارسة العملية
- كيفية الوصول إلى GLM-5.1 — محلياً، عبر API، وتكلفته
- كيف يقارن بـ DeepSeek و Qwen والمنافسين الآخرين مفتوحي الأوزان
ما هو GLM-5.1؟
GLM-5.1 هو أحدث نموذج في سلسلة General Language Model من شركة Z.ai، وتم إصداره في 7 أبريل 2026. وهو ترقية لما بعد التدريب لنموذج GLM-5، حيث يشترك معه في نفس بنية خليط الخبراء (MoE) ولكن مع تحسن كبير في قدرات البرمجة، واستخدام الأدوات، والتنفيذ المستقل المستدام1.
شركة Z.ai، المعروفة سابقاً باسم Zhipu AI، انبثقت عن جامعة تسينغوا وتقوم ببناء نماذج لغوية كبيرة مفتوحة منذ عصر ChatGLM الأصلي. غيرت الشركة علامتها التجارية إلى Z.ai في يوليو 2025 مع توسعها دولياً وتحويل تركيزها نحو الذكاء الاصطناعي الوكيل (agentic AI). في 8 يناير 2026، ظهرت Z.ai لأول مرة في بورصة هونج كونج (HKEX: 02513) تحت اسم Knowledge Atlas Technology Joint Stock Company Limited، حيث جمعت حوالي 558 مليون دولار في واحدة من أكبر عمليات الاكتتاب العام للذكاء الاصطناعي في العام2. يمكنك القراءة عن أعمالها السابقة في منشورنا نظرة داخل قدرات GLM-4.
هناك ملاحظة جيوسياسية تشكل كل شيء حول هذا النموذج: تمت إضافة Zhipu AI إلى قائمة الكيانات التابعة لوزارة التجارة الأمريكية في 16 يناير 20253. ونتيجة لذلك، لا يمكن للشركة قانوناً شراء أجهزة NVIDIA. تم تدريب GLM-5.1 بالكامل على 100,000 شريحة Huawei Ascend 910B — وهي حقيقة تهم سواء لتقييم نضج نظام Ascend البيئي أو لفهم سبب الأهمية الدبلوماسية لهذا الإطلاق4.
البنية: 754 مليار معلمة، 40 مليار نشطة
يستخدم GLM-5.1 بنية خليط الخبراء (Mixture-of-Experts) بإجمالي 754 مليار معلمة. أثناء الاستدلال، يتم تنشيط حوالي 40 مليار معلمة فقط لكل توكن — وهو تصميم يجعل النموذج أكثر قابلية للتنفيذ حوسبياً مما قد يكون عليه نموذج كثيف بـ 754 مليار معلمة1.
يستخدم توجيه MoE عدد 256 خبيراً مع توجيه لأفضل 8 خبراء (top-8-routing) لكل توكن، مما يعني أن ثماني شبكات فرعية متخصصة تتعامل مع كل توكن، بالإضافة إلى خبير واحد يعمل عبر جميع التوكنات. هذه البنية مشابهة في المبدأ لما ابتكره Mixtral و DeepSeek-V3 في المجتمع مفتوح المصدر.
نافذة السياق وسعة المخرجات:
| المواصفات | القيمة |
|---|---|
| نافذة السياق | ~200,000 توكن |
| أقصى مخرجات (رسمي) | 131,072 توكن |
| البنية | خليط الخبراء (MoE) |
| إجمالي المعلمات | 754 مليار |
| النشطة لكل توكن | ~40 مليار |
| أجهزة التدريب | 100,000 Huawei Ascend 910B |
الأداء في الاختبارات المعيارية
SWE-bench Pro: سابقة تاريخية للمصادر المفتوحة
SWE-bench Pro هو اختبار معياري للبرمجة أنشأته Scale AI يقيم قدرة النموذج على حل مشكلات GitHub واقعية مقابل قواعد أكواد خاصة ومقاومة للتلوث. تتطلب كل مهمة تغييراً في 10 أسطر من الكود على الأقل، بمتوسط 107.4 سطر عبر 4.1 ملف5. إنه أصعب بكثير من اختبار SWE-bench Verified القياسي، والنتائج التي تبدو مبهرة في Verified تترجم إلى أرقام أقل بكثير في Pro.
وفقاً للتقييم الداخلي لشركة Z.ai6، سجل GLM-5.1 النتائج التالية:
| النموذج | SWE-bench Pro | الترخيص |
|---|---|---|
| GLM-5.1 | 58.4% | MIT (مفتوح الأوزان) |
| GPT-5.4 | 57.7% | ملكية خاصة |
| Claude Opus 4.6 | 57.3% | ملكية خاصة |
| Gemini 3.1 Pro | 54.2% | ملكية خاصة |
هذه هي المرة الأولى التي يحتل فيها نموذج مفتوح الأوزان المركز الأول في اختبار SWE-bench Pro.
تنبيه هام: تأتي هذه النتائج من جولات التقييم الخاصة بشركة Z.ai، وليس من تقييم مستقل تماماً من طرف ثالث. يجب التعامل مع الهامش الدقيق — أقل من نقطة واحدة فوق GPT-5.4 — كأمر أولي حتى يتم التحقق منه بشكل مستقل. استخدمت Z.ai نافذة سياق تبلغ 200 ألف توكن وإعدادات السقالات (scaffolding) الخاصة بها، والتي قد تختلف عن كيفية قياس المختبرات الأخرى لنفسها. للسياق: قامت Anthropic بقياس Claude Opus 4.6 بشكل مستقل بنسبة 53.4% على SWE-bench Pro باستخدام السقالات الخاصة بها. رقم 57.3% المذكور أعلاه هو قياس Z.ai لنموذج Opus 4.6 تحت إعدادات Z.ai — وهو فرق قدره 3.9 نقطة يوضح مدى تأثير منهجية التقييم على النتائج في هذا الاختبار المعياري.
تحديث السياق: في 16 أبريل 2026، أصدرت Anthropic نموذج Claude Opus 4.7، الذي سجل 64.3% في SWE-bench Pro — بفارق 5.9 نقطة عن GLM-5.17. استمرت فترة تصدر GLM-5.1 لمدة تسعة أيام. هذا لا يقلل من الإنجاز؛ فالفجوة في الاختبارات المعيارية بين أفضل النماذج المفتوحة والمغلقة تتقلص منذ عامين، والاستيلاء على التاج لفترة وجيزة يؤكد أن المصدر المفتوح قد وصل إلى الحدود القصوى (frontier).
Code Arena: أول نموذج مفتوح الأوزان في المراكز الثلاثة الأولى
أكدت Arena.ai بشكل مستقل في 10 أبريل 2026 أن GLM-5.1 يحمل تصنيف Elo يبلغ 1,530 في Code Arena — مما يضعه في المركز الثالث عالمياً في قائمة المتصدرين لتطوير الويب الوكيل4. هذا أمر جدير بالملاحظة لأنه تم تأكيده من قبل مقيم مستقل، وليس تقريراً ذاتياً.
إنه أول نموذج مفتوح الأوزان يظهر في المراكز الثلاثة الأولى في Code Arena.
اختبارات معيارية أخرى
أبلغت Z.ai أيضاً عن أداء قوي عبر مهام التفكير العام، على الرغم من أن هذه النتائج لم يتم التحقق منها بشكل مستقل:
| الاختبار المعياري | GLM-5.1 |
|---|---|
| LiveCodeBench | 83.6% |
| GPQA Diamond | ~88% (تختلف المصادر) |
للحصول على المقارنة الأكثر موثوقية بين النماذج، يرجى الرجوع إلى المقيمين المستقلين مثل Artificial Analysis أو LM Council بدلاً من أرقام أي مورد واحد.
للحصول على سياق أوسع حول مكانة النماذج الرائدة في اختبارات الأداء المكافئة للقدرات البشرية، راجع تحليل مؤشر ستانفورد للذكاء الاصطناعي لعام 2026.
ثماني ساعات من التنفيذ الذاتي
القدرة الوكيلية (agentic) الأبرز لنموذج GLM-5.1 هي قدرته على العمل بشكل مستقل لأكثر من ثماني ساعات دون نقاط تفتيش بشرية. استعرضت شركة Z.ai ذلك من خلال جعل النموذج يبني بيئة سطح مكتب Linux كاملة من الصفر — وهي مهمة أنجزها من خلال 655 دورة ذاتية من التخطيط والتنفيذ والتحليل والتحسين في جلسة واحدة غير منقطعة4.
هذه المدة أطول من أي تشغيل ذاتي موثق علنًا في جلسة واحدة لأي نموذج رئيسي. للمقارنة، تفترض معظم أطر العمل الوكيلية الحالية دورات مراجعة بشرية منتظمة أو آفاق مهام قصيرة.
ما يمكّن ذلك ليس الذكاء الخام فحسب، بل بنية التنفيذ: فقد تم تصميم GLM-5.1 من الأساس للمهام ذات الآفاق الطويلة. تتيح له نافذة السياق التي تبلغ 200 ألف توكن الاحتفاظ بقواعد برمجية ضخمة في الذاكرة العاملة، كما أن قدراته في استخدام الأدوات مدمجة بعمق وليست مجرد إضافات لاحقة.
لمزيد من المعلومات حول كيفية تطور سير عمل البرمجة الوكيلية عبر الصناعة، راجع منشورنا حول داخل وكلاء البرمجة بالذكاء الاصطناعي.
الوصول والأسعار
الوصول عبر API
يتوفر GLM-5.1 من خلال API الخاص بـ Z.ai، و OpenRouter، و Together AI. الأسعار على منصة Z.ai8:
| نوع التوكن | السعر لكل مليون |
|---|---|
| المدخلات (Input) | $0.95 |
| المخرجات (Output) | $3.15 |
⚠ الأسعار تتغير بشكل متكرر. القيم المذكورة أعلاه للتوضيح فقط وقد تكون قديمة. تحقق دائمًا من الأسعار الحالية مباشرة من المزود قبل اتخاذ قرارات التكلفة: Anthropic · OpenAI · Google Gemini · Google Vertex AI · AWS Bedrock · Azure OpenAI · Mistral · Cohere · Together AI · DeepSeek · Groq · Cursor · GitHub Copilot · Windsurf.
للسياق، تبلغ تكلفة Claude Opus 4.7 حوالي 5.00 دولار لكل مليون توكن مدخلات و25.00 دولار لكل مليون توكن مخرجات. بالنسبة لتوكنات المخرجات — التي تهيمن على التكلفة في مهام البرمجة الوكيلية — فإن تكلفة GLM-5.1 البالغة 3.15 دولار لكل مليون توكن تمثل تقريبًا ثمن تكلفة Opus 4.7 البالغة 25.00 دولار، وهو فرق كبير لأعباء العمل ذات الحجم الكبير.
تقدم Z.ai أيضًا "خطة برمجة GLM" للفرق التي تريد وصولاً مجمعًا لتكاملات IDE، مع فئات تبدأ من حوالي 10 دولارات شهريًا (تُدفع ربع سنويًا بقيمة 30 دولارًا للربع لخطة Lite).
الانتشار المحلي
نظرًا لأن GLM-5.1 مرخص بموجب رخصة MIT، يمكنك تنزيل الأوزان من Hugging Face (zai-org/GLM-5.1) وتشغيلها محليًا دون أي قيود على الاستخدام أو رسوم ملكية. أنت تمتلك بيئة التشغيل الخاصة بك بالكامل.
يتطلب تشغيل نماذج MoE بحجم 754 مليار بارامتر محليًا أجهزة قوية — مع وجود 40 مليار بارامتر نشط لكل توكن، ستحتاج إلى وحدات معالجة رسومات (GPUs) متعددة وعالية الأداء. يشارك المجتمع بنشاط إصدارات مكممة (quantized) تقلل من البصمة المطلوبة بشكل كبير. للحصول على دليل حول تشغيل النماذج الكبيرة محليًا، راجع دليل بناء الذكاء الاصطناعي المحلي مع Ollama و Qwen 3.
كيف يقارن GLM-5.1 بالنماذج مفتوحة الأوزان الأخرى
أصبح المجال المفتوح تنافسيًا حقًا. المنافسون الرئيسيون لـ GLM-5.1 في فئة الأوزان المفتوحة في أبريل 2026 هم DeepSeek-V3.2 (رخصة MIT، سياق 128 ألف) من DeepSeek، و Qwen 3.6-35B-A3B (رخصة Apache 2.0، تم إصداره في 16 أبريل 2026) من فريق Qwen التابع لشركة Alibaba.
تتمثل المزايا المميزة لـ GLM-5.1 في هذه المجموعة في نافذة السياق الأكبر (200 ألف مقابل 128 ألف)، ورخصة MIT الخاصة به، وأطول وقت تشغيل ذاتي موثق لأي نموذج متاح علنًا. في لوحة صدارة Code Arena المستقلة، يضعه تصنيف Elo البالغ 1,530 في المقدمة، على الرغم من أن النماذج الثلاثة قريبة جدًا من بعضها البعض.
لم يتم نشر مقارنات SWE-bench Pro المستقلة والموحدة عبر هذه النماذج الثلاثة حتى وقت كتابة هذا التقرير. حتى يقوم مختبر تابع لجهة خارجية بتقييم الثلاثة تحت نفس الظروف، تعامل مع النتائج التي أبلغ عنها البائعون كمؤشرات توجيهية وليس كترتيب دقيق.
نمط ملحوظ: جميع نماذج البرمجة مفتوحة الأوزان الرائدة في أبريل 2026 تأتي من مختبرات ذكاء اصطناعي صينية — Z.ai، و DeepSeek، و Qwen — حيث يتنقل كل منها عبر قيود التصدير الأمريكية بطرق مختلفة. لمزيد من المعلومات حول كيفية دعم منظومة شرائح Huawei لهذا التطوير، راجع تحليل شرائح Huawei Ascend.
البعد الجيوسياسي
كان الهدف من وضع Zhipu AI على قائمة الكيانات الأمريكية في يناير 2025 هو تقييد الوصول إلى الحوسبة المتقدمة — وتحديدًا وحدات معالجة الرسومات H100 و H200 من NVIDIA، التي تهيمن على تدريب النماذج الرائدة عالميًا.
يثبت GLM-5.1 أن هذا التقييد لم يوقف التدريب على مستوى النماذج الرائدة. تمثل 100,000 شريحة Huawei Ascend 910B المستخدمة مجموعة حوسبة محلية ضخمة تم بناؤها دون أي سيليكون أمريكي. يشير أداء النموذج — بوصوله إلى تصنيف Elo 1,530 في Code Arena واحتلاله المركز الأول في SWE-bench Pro لمدة تسعة أيام — إلى أن منظومة Ascend قد تجاوزت عتبة تمكنها من إنتاج نتائج تنافسية حقًا4.
لهذا تداعيات تتجاوز Zhipu: فهو يشير إلى أن بنية الحوسبة البديلة في الصين قادرة الآن على دعم تطوير النماذج الرائدة، وهو استنتاج سيراقبه المحللون الذين يتابعون منافسة الذكاء الاصطناعي بين الولايات المتحدة والصين عن كثب. أشار مؤشر ستانفورد للذكاء الاصطناعي لعام 2026 إلى أن فجوة الأداء بين النماذج الأمريكية والصينية قد تقلصت إلى 2.7 نقطة مئوية فقط9.
الخلاصة
يعد GLM-5.1 أوضح دليل حتى الآن على أن الفجوة بين النماذج مفتوحة الأوزان (open-weight) والنماذج المغلقة الرائدة قد تلاشت تماماً في اختبارات البرمجة. نموذج تم بناؤه بدون شريحة NVIDIA واحدة، بواسطة شركة مدرجة في القائمة السوداء التجارية الأمريكية، وباستخدام أجهزة كان من المفترض أن تكون متأخرة بجيل كامل — استطاع لفترة وجيزة انتزاع المركز الأول في أصعب اختبار برمجي في الصناعة.
الأيام التسعة التي قضاها في صدارة SWE-bench Pro مهمة لأنها تثبت أن الأداء الرائد المستدام لم يعد حكراً على الشركات التي تمتلك وصولاً غير محدود للسيليكون الأمريكي. بالنسبة للمطورين، الرسالة العملية أكثر إلحاحاً: أداء برمجي بمستوى النماذج الرائدة، مرخص بموجب MIT، وسياق 200K، وبتكلفة 0.95 دولار لكل مليون توكن، أصبح حقيقة ومتاحاً اليوم.
المراجع
Footnotes
-
Z.ai. "GLM-5.1 Model Architecture." Z.AI Developer Documentation. Published April 7, 2026. https://docs.z.ai/guides/llm/glm-5.1 ↩ ↩2
-
Z.ai. "Z.ai IPO on Hong Kong Stock Exchange." January 8, 2026. https://en.wikipedia.org/wiki/Z.ai ↩
-
Federal Register. "Addition of Entities to and Revision of Entry on the Entity List." Published January 16, 2025. https://www.federalregister.gov/documents/2025/01/16/2025-00704/addition-of-entities-to-and-revision-of-entry-on-the-entity-list ↩
-
MarkTechPost. "Z.AI Introduces GLM-5.1: An Open-Weight 754B Agentic Model That Achieves SOTA on SWE-Bench Pro and Sustains 8-Hour Autonomous Execution." Published April 8, 2026. https://www.marktechpost.com/2026/04/08/z-ai-introduces-glm-5-1-an-open-weight-754b-agentic-model-that-achieves-sota-on-swe-bench-pro-and-sustains-8-hour-autonomous-execution/ ↩ ↩2 ↩3 ↩4
-
Scale AI. "SWE-Bench Pro: Raising the Bar for Agentic Coding." https://scale.com/blog/swe-bench-pro ↩
-
Awesome Agents. "GLM-5.1 Review: Open-Source Model Tops SWE-Bench Pro." Published April 2026. https://awesomeagents.ai/reviews/review-glm-5-1/ ↩
-
NerdLevelTech. "Claude Opus 4.7: Benchmarks, Features & Pricing." Published April 17, 2026. https://nerdleveltech.com/claude-opus-4-7-benchmarks-features-pricing ↩
-
Z.ai Pricing. "GLM Coding Plan." https://z.ai/subscribe ↩
-
Stanford HAI. "Inside the AI Index: 12 Takeaways from the 2026 Report." Published April 2026. https://hai.stanford.edu/news/inside-the-ai-index-12-takeaways-from-the-2026-report ↩