الدرس 3 من 22

لماذا نماذج اللغة المحلية؟

مشهد النماذج مفتوحة المصدر

3 دقيقة للقراءة

انفجر نظام نماذج اللغة الكبيرة مفتوح المصدر. إليك دليلك لعائلات النماذج الرئيسية ومتى تستخدم كل منها.

عائلات النماذج الرئيسية (2026)

┌─────────────────────────────────────────────────────────────────┐
│                   مشهد النماذج مفتوحة المصدر                    │
├─────────────────────────────────────────────────────────────────┤
│                                                                 │
│  Meta (Llama)        Mistral AI           Microsoft (Phi)       │
│  ───────────         ──────────           ───────────────       │
│  • Llama 3.3, 4      • Mistral Small 3    • Phi-4               │
│  • 3.2: 1B,3B        • Mixtral 8x22B      • 14B (medium)        │
│  • 3.1: 8B, 3.3: 70B • أفضل كفاءة         • 3.8B (mini)         │
│  • رخصة Llama        • Apache 2.0         • رخصة MIT            │
│                                                                 │
│  Alibaba (Qwen)      DeepSeek             Google (Gemma)        │
│  ──────────────      ────────             ──────────────        │
│  • Qwen 3 / 2.5      • DeepSeek-V3 / R1   • Gemma 3             │
│  • 0.5B إلى 72B      • DeepSeek-Coder     • 2B, 9B, 27B         │
│  • أفضل متعدد لغات   • أفضل تكلفة/أداء    • أفضل اتباع          │
│  • Apache 2.0        • رخصة MIT           • للتعليمات           │
│                                                                 │
└─────────────────────────────────────────────────────────────────┘

مقارنة النماذج حسب المهمة

Llama 3.x / 4 (Meta) - المعيار الذهبي

الأفضل لـ: الاستخدام العام، معظم المهام

# الأحجام المتاحة في Ollama
ollama pull llama3.2:1b    # فائق السرعة، أجهزة الحافة
ollama pull llama3.2:3b    # الجوال/اللابتوب
ollama pull llama3.1:8b    # توازن رائع (Llama 3.1)
ollama pull llama3.3:70b   # أقصى قدرة (Llama 3.3)

نقاط القوة:

  • أفضل جودة شاملة عبر المهام
  • اتباع تعليمات ممتاز
  • استدلال وبرمجة قوية
  • أكبر دعم مجتمعي ونماذج مضبوطة

نقاط الضعف:

  • 70B يتطلب عتاد كبير
  • ليس الأفضل لمهام البرمجة الصرفة

Mistral/Mixtral (Mistral AI) - ملك الكفاءة

الأفضل لـ: الاستدلال السريع، البيئات محدودة الموارد

ollama pull mistral        # 7B، كفاءة ممتازة
ollama pull mixtral        # 8x7B MoE، جودة قريبة من 70B
ollama pull mixtral:8x22b  # أقصى قدرة Mistral

نقاط القوة:

  • أفضل رموز/ثانية لمستوى الجودة
  • بنية MoE (Mixtral) - يستخدم فقط 12B معامل لكل رمز
  • ممتاز للغات الأوروبية

نقاط الضعف:

  • مجتمع أصغر من Llama
  • متغيرات مضبوطة أقل متوفرة

DeepSeek-V3 / R1 - أفضل قيمة

الأفضل لـ: أقصى جودة لكل دولار، استدلال قوي

ollama pull deepseek-v3    # نموذج عام منافس للحدود الأمامية
ollama pull deepseek-r1    # محسّن للاستدلال (2025)
ollama pull deepseek-coder # متخصص للكود

نقاط القوة:

  • يطابق GPT-4o في العديد من المعايير
  • تدريب فعال للغاية من حيث التكلفة
  • قدرات برمجة ممتازة

نقاط الضعف:

  • أحدث، أقل اختباراً في المعارك
  • متغيرات مضبوطة أقل

Phi-4 (Microsoft) - صغير لكن قوي

الأفضل لـ: النشر على الحافة، الجوال، محدود الموارد

ollama pull phi3:mini      # 3.8B، يعمل على الهواتف
ollama pull phi4           # 14B، صديق للابتوب، أحدث جيل

نقاط القوة:

  • جودة مذهلة للحجم
  • يعمل على أقل عتاد
  • استدلال سريع

نقاط الضعف:

  • طول سياق محدود
  • غير مناسب للاستدلال المعقد

Qwen 2.5 (Alibaba) - بطل تعدد اللغات

الأفضل لـ: اللغات غير الإنجليزية، خاصة اللغات الآسيوية

ollama pull qwen2.5:0.5b   # فائق الصغر
ollama pull qwen2.5:7b     # توازن جيد
ollama pull qwen2.5:72b    # قدرة كاملة

نقاط القوة:

  • أفضل دعم متعدد اللغات
  • ممتاز للصينية واليابانية والكورية
  • استدلال قوي في جميع اللغات

نقاط الضعف:

  • ضبط أقل تركيزاً على الإنجليزية
  • يتطلب سياقاً أكثر للمهام الإنجليزية

دليل الاختيار السريع

ما هي حالة الاستخدام الأساسية؟

├── مساعد عام / محادثة
│   └── استخدم: llama3.1:8b أو llama3.3:70b
├── توليد / مراجعة الكود
│   └── استخدم: deepseek-coder أو llama3.3:70b
├── استدلال سريع مطلوب
│   └── استخدم: mistral أو phi3:mini
├── لغات غير إنجليزية
│   └── استخدم: qwen2.5:7b أو qwen2.5:72b
├── نشر على الحافة / الجوال
│   └── استخدم: phi3:mini أو llama3.2:1b
├── RAG / أسئلة وأجوبة المستندات
│   └── استخدم: llama3.1:8b أو mistral
└── أقصى جودة (عتاد متوفر)
    └── استخدم: llama3.3:70b أو deepseek-v3

أحجام النماذج والمتطلبات

النموذجالمعاملاتVRAMRAM (CPU)السرعة (M3 Max)
phi3:mini3.8B3 GB6 GB80 رمز/ثانية
mistral7B6 GB10 GB45 رمز/ثانية
llama3.1:8b8B7 GB12 GB40 رمز/ثانية
qwen2.5:14b14B12 GB20 GB25 رمز/ثانية
mixtral:8x7b47B*26 GB48 GB20 رمز/ثانية
llama3.3:70b70B40 GB80 GB8 رمز/ثانية

*Mixtral يستخدم 12B معامل نشط لكل رمز بسبب MoE

نظرة عامة على الترخيص

مفتوح للاستخدام التجاري:
├── رخصة مجتمع Llama: Llama 3.x، 4 (مع سياسة استخدام مقبول)
├── Apache 2.0: Mistral، Qwen 2.5 / 3
├── MIT: DeepSeek، Phi-3
└── رخصة Gemma: Gemma 2 / 3 (مع قيود)

اعتبارات رئيسية:
• جميع النماذج المدرجة تسمح بالاستخدام التجاري
• Llama لديها سياسة استخدام مقبولة (لا ضرر)
• تحقق من تراخيص النماذج المضبوطة بشكل منفصل

البقاء محدثاً

المشهد يتغير شهرياً. الموارد الرئيسية:

  1. Hugging Face Open LLM Leaderboard - مقارنات المعايير
  2. مكتبة نماذج Ollama - النماذج المتاحة: ollama.com/library
  3. r/LocalLLaMA - مناقشات واكتشافات المجتمع
  4. Papers With Code - أحدث الأبحاث والمعايير

في الوحدة التالية، سنتعامل عملياً مع Ollama لتشغيل هذه النماذج محلياً. :::

مراجعة سريعة: كيف تجد هذا الدرس؟

اختبار

الوحدة 1: لماذا نماذج اللغة المحلية؟

خذ الاختبار
نشرة أسبوعية مجانية

ابقَ على مسار النيرد

بريد واحد أسبوعياً — دورات، مقالات معمّقة، أدوات، وتجارب ذكاء اصطناعي.

بدون إزعاج. إلغاء الاشتراك في أي وقت.