الدرس 3 من 22

لماذا نماذج اللغة المحلية؟

مشهد النماذج مفتوحة المصدر

3 دقيقة للقراءة

انفجر نظام نماذج اللغة الكبيرة مفتوح المصدر. إليك دليلك لعائلات النماذج الرئيسية ومتى تستخدم كل منها.

عائلات النماذج الرئيسية (2025)

┌─────────────────────────────────────────────────────────────────┐
│                   مشهد النماذج مفتوحة المصدر                    │
├─────────────────────────────────────────────────────────────────┤
│                                                                 │
│  Meta (Llama)        Mistral AI           Microsoft (Phi)       │
│  ───────────         ──────────           ───────────────       │
│  • Llama 3.2         • Mistral 7B         • Phi-3               │
│  • 1B, 3B, 8B, 70B   • Mixtral 8x7B       • 3.8B (mini)         │
│  • أفضل شامل         • Mixtral 8x22B      • 14B (medium)        │
│  • Apache 2.0        • أفضل كفاءة         • أفضل للحجم          │
│                      • Apache 2.0         • رخصة MIT            │
│                                                                 │
│  Alibaba (Qwen)      DeepSeek             Google (Gemma)        │
│  ──────────────      ────────             ──────────────        │
│  • Qwen 2.5          • DeepSeek-V3        • Gemma 2             │
│  • 0.5B إلى 72B      • DeepSeek-Coder     • 2B, 9B, 27B         │
│  • أفضل متعدد لغات   • أفضل تكلفة/أداء    • أفضل اتباع          │
│  • Apache 2.0        • رخصة MIT           • للتعليمات           │
│                                                                 │
└─────────────────────────────────────────────────────────────────┘

مقارنة النماذج حسب المهمة

Llama 3.2 (Meta) - المعيار الذهبي

الأفضل لـ: الاستخدام العام، معظم المهام

# الأحجام المتاحة في Ollama
ollama pull llama3.2:1b    # فائق السرعة، أجهزة الحافة
ollama pull llama3.2:3b    # الجوال/اللابتوب
ollama pull llama3.2       # 8B افتراضي، توازن رائع
ollama pull llama3.2:70b   # أقصى قدرة

نقاط القوة:

  • أفضل جودة شاملة عبر المهام
  • اتباع تعليمات ممتاز
  • استدلال وبرمجة قوية
  • أكبر دعم مجتمعي ونماذج مضبوطة

نقاط الضعف:

  • 70B يتطلب عتاد كبير
  • ليس الأفضل لمهام البرمجة الصرفة

Mistral/Mixtral (Mistral AI) - ملك الكفاءة

الأفضل لـ: الاستدلال السريع، البيئات محدودة الموارد

ollama pull mistral        # 7B، كفاءة ممتازة
ollama pull mixtral        # 8x7B MoE، جودة قريبة من 70B
ollama pull mixtral:8x22b  # أقصى قدرة Mistral

نقاط القوة:

  • أفضل رموز/ثانية لمستوى الجودة
  • بنية MoE (Mixtral) - يستخدم فقط 12B معامل لكل رمز
  • ممتاز للغات الأوروبية

نقاط الضعف:

  • مجتمع أصغر من Llama
  • متغيرات مضبوطة أقل متوفرة

DeepSeek-V3 - أفضل قيمة

الأفضل لـ: أقصى جودة لكل دولار

ollama pull deepseek-v3    # الأحدث (ديسمبر 2024)
ollama pull deepseek-coder # متخصص للكود

نقاط القوة:

  • يطابق GPT-4 في العديد من المعايير
  • تدريب فعال للغاية من حيث التكلفة
  • قدرات برمجة ممتازة

نقاط الضعف:

  • أحدث، أقل اختباراً في المعارك
  • متغيرات مضبوطة أقل

Phi-3 (Microsoft) - صغير لكن قوي

الأفضل لـ: النشر على الحافة، الجوال، محدود الموارد

ollama pull phi3:mini      # 3.8B، يعمل على الهواتف
ollama pull phi3:medium    # 14B، صديق للابتوب

نقاط القوة:

  • جودة مذهلة للحجم
  • يعمل على أقل عتاد
  • استدلال سريع

نقاط الضعف:

  • طول سياق محدود
  • غير مناسب للاستدلال المعقد

Qwen 2.5 (Alibaba) - بطل تعدد اللغات

الأفضل لـ: اللغات غير الإنجليزية، خاصة اللغات الآسيوية

ollama pull qwen2.5:0.5b   # فائق الصغر
ollama pull qwen2.5:7b     # توازن جيد
ollama pull qwen2.5:72b    # قدرة كاملة

نقاط القوة:

  • أفضل دعم متعدد اللغات
  • ممتاز للصينية واليابانية والكورية
  • استدلال قوي في جميع اللغات

نقاط الضعف:

  • ضبط أقل تركيزاً على الإنجليزية
  • يتطلب سياقاً أكثر للمهام الإنجليزية

دليل الاختيار السريع

ما هي حالة الاستخدام الأساسية؟

├── مساعد عام / محادثة
│   └── استخدم: llama3.2:8b أو llama3.2:70b
├── توليد / مراجعة الكود
│   └── استخدم: deepseek-coder أو llama3.2:70b
├── استدلال سريع مطلوب
│   └── استخدم: mistral أو phi3:mini
├── لغات غير إنجليزية
│   └── استخدم: qwen2.5:7b أو qwen2.5:72b
├── نشر على الحافة / الجوال
│   └── استخدم: phi3:mini أو llama3.2:1b
├── RAG / أسئلة وأجوبة المستندات
│   └── استخدم: llama3.2:8b أو mistral
└── أقصى جودة (عتاد متوفر)
    └── استخدم: llama3.2:70b أو deepseek-v3

أحجام النماذج والمتطلبات

النموذج المعاملات VRAM RAM (CPU) السرعة (M3 Max)
phi3:mini 3.8B 3 GB 6 GB 80 رمز/ثانية
mistral 7B 6 GB 10 GB 45 رمز/ثانية
llama3.2:8b 8B 7 GB 12 GB 40 رمز/ثانية
qwen2.5:14b 14B 12 GB 20 GB 25 رمز/ثانية
mixtral:8x7b 47B* 26 GB 48 GB 20 رمز/ثانية
llama3.2:70b 70B 40 GB 80 GB 8 رمز/ثانية

*Mixtral يستخدم 12B معامل نشط لكل رمز بسبب MoE

نظرة عامة على الترخيص

مفتوح للاستخدام التجاري:
├── Apache 2.0: Llama 3.2, Mistral, Qwen 2.5
├── MIT: DeepSeek, Phi-3
└── رخصة Gemma: Gemma 2 (مع قيود)

اعتبارات رئيسية:
• جميع النماذج المدرجة تسمح بالاستخدام التجاري
• Llama لديها سياسة استخدام مقبولة (لا ضرر)
• تحقق من تراخيص النماذج المضبوطة بشكل منفصل

البقاء محدثاً

المشهد يتغير شهرياً. الموارد الرئيسية:

  1. Hugging Face Open LLM Leaderboard - مقارنات المعايير
  2. مكتبة نماذج Ollama - النماذج المتاحة: ollama.com/library
  3. r/LocalLLaMA - مناقشات واكتشافات المجتمع
  4. Papers With Code - أحدث الأبحاث والمعايير

في الوحدة التالية، سنتعامل عملياً مع Ollama لتشغيل هذه النماذج محلياً. :::

اختبار

الوحدة 1: لماذا نماذج اللغة المحلية؟

خذ الاختبار