التقييم والنشر
الخطوات التالية
تهانينا! لقد تعلمت كيفية ضبط نماذج اللغة الكبيرة باستخدام LoRA و QLoRA والأدوات الحديثة مثل Unsloth و TRL. دعنا نلخص ونستكشف أين نذهب بعد ذلك.
ما تعلمته
الوحدة 1: فهم الضبط الدقيق
- لماذا ومتى نضبط دقيقاً مقابل استخدام المحثات
- الضبط الدقيق الكامل مقابل طرق PEFT
- مقارنات LoRA و QLoRA و DoRA
الوحدة 2: إعداد مجموعات البيانات
- صيغ ضبط التعليمات (Alpaca، ShareGPT، ChatML)
- إنشاء بيانات تدريب عالية الجودة
- التحقق من البيانات وتنظيفها
الوحدة 3: LoRA و QLoRA عملياً
- تكوين معاملات LoRA (r، alpha، target_modules)
- التكميم 4-bit مع QLoRA
- سير عمل SFTTrainer الكامل
الوحدة 4: التدريب مع Unsloth
- تدريب أسرع 2x مع 70% ذاكرة VRAM أقل
- تكوينات التدريب المُحسّنة
- التصدير إلى صيغة GGUF
الوحدة 5: المحاذاة مع DPO
- التحسين المباشر للتفضيلات مقابل RLHF
- إنشاء مجموعات بيانات التفضيل
- خط أنابيب SFT + DPO ثنائي المرحلة
الوحدة 6: التقييم والنشر
- قياس جودة النموذج
- تشخيص المشاكل الشائعة
- النشر على Ollama
مجموعة أدوات الضبط الدقيق الخاصة بك
| الأداة | الغرض |
|---|---|
| transformers | تحميل النموذج الأساسي والتدريب |
| peft | تنفيذ LoRA/QLoRA |
| trl | SFTTrainer و DPOTrainer |
| bitsandbytes | التكميم 4-bit |
| unsloth | تدريب أسرع 2x |
| datasets | تحميل ومعالجة البيانات |
| ollama | نشر النموذج محلياً |
مسار التعلم الموصى به
بناءً على ما تعلمته، إليك خطواتك التالية:
فوري: مارس ما تعلمته
1. اضبط نموذجاً على بياناتك الخاصة
└── اختر حالة استخدام محددة
└── جهّز 1,000+ مثال
└── درّب مع Unsloth + SFT
└── قيّم وكرر
2. انشر على Ollama
└── صدّر إلى GGUF
└── أنشئ Modelfile مخصص
└── ادمج في تطبيقك
الدورة التالية: أطر تقييم الذكاء الاصطناعي
بعد الضبط الدقيق يأتي التقييم. تعلم قياس جودة الذكاء الاصطناعي بشكل منهجي:
أطر تقييم الذكاء الاصطناعي: RAGAS، LangSmith والمقاييس المخصصة
ما ستتعلمه:
- خطوط أنابيب التقييم الآلي
- مقاييس RAG المحددة (RAGAS)
- معايير التقييم المخصصة
- أطر اختبار A/B
- المراقبة في الإنتاج
هذه الدورة تتصل مباشرة بعمل الضبط الدقيق:
- قس إذا حسّن الضبط الدقيق نموذجك فعلاً
- قارن تكوينات التدريب المختلفة
- ابنِ التقييم في خط أنابيب ML الخاص بك
- راقب جودة النموذج في الإنتاج
موضوعات متقدمة للاستكشاف
| الموضوع | الوصف |
|---|---|
| التدريب متعدد GPU | التوسع لنماذج ومجموعات بيانات أكبر |
| استمرار التدريب المسبق | تكييف النماذج الأساسية لمجالات جديدة |
| خليط الخبراء | تدريب نماذج كبيرة فعالة |
| نماذج الرؤية-اللغة | ضبط النماذج متعددة الوسائط |
| دمج النماذج | الجمع بين عدة نماذج مضبوطة |
بناء محفظتك
أفكار المشاريع
-
روبوت خبير المجال
- اضبط على وثائق تقنية
- انشر كمساعد أسئلة وأجوبة
- قس تحسينات الدقة
-
نموذج نقل الأسلوب
- درّب على أساليب كتابة محددة
- أنشئ صوت علامة تجارية متسق
- اختبار A/B ضد النموذج الأساسي
-
مساعد البرمجة
- اضبط على قاعدة الكود الخاصة بك
- تعلم اتفاقيات الفريق
- ادمج مع IDE
-
وكيل دعم العملاء
- درّب على تذاكر الدعم
- تعامل مع استفسارات المجال المحددة
- قلل وقت الاستجابة
مشاركة عملك
# ادفع النموذج المضبوط إلى Hugging Face
huggingface-cli login
model.push_to_hub("your-username/model-name")
# شارك GGUF عبر Ollama
ollama push your-username/model-name
# وثّق عمليتك
# - تكوين التدريب
# - وصف مجموعة البيانات
# - نتائج التقييم
# - دليل النشر
الموارد
التوثيق
أوراق البحث
- LoRA: Low-Rank Adaptation of Large Language Models
- QLoRA: Efficient Finetuning of Quantized LLMs
- DPO: Direct Preference Optimization
المجتمع
- Hugging Face Discord
- r/LocalLLaMA
- Unsloth Discord
أفكار ختامية
الضبط الدقيق تقنية قوية تجسر الفجوة بين نماذج اللغة الكبيرة للأغراض العامة ومساعدي الذكاء الاصطناعي المتخصصين. مع الأدوات التي تعلمتها:
- LoRA يجعل الضبط الدقيق متاحاً على أجهزة المستهلكين
- QLoRA يمكّن تدريب نماذج كانت تتطلب سابقاً GPUs للمؤسسات
- Unsloth يقطع وقت وتكاليف التدريب إلى النصف
- DPO يحاذي النماذج بدون خطوط أنابيب RL معقدة
- Ollama يجعل النشر بسيطاً كأمر واحد
مفتاح النجاح هو التكرار:
- ابدأ بمجموعة بيانات صغيرة
- درّب بسرعة مع Unsloth
- قيّم بدقة
- حسّن بياناتك
- كرر
تذكر: جودة البيانات تتفوق على الكمية. مجموعة بيانات منسقة جيداً من 1,000 مثال ستتفوق على 10,000 مثال مشوش. ركز على حالة استخدامك المحددة وكرر بناءً على نتائج التقييم.
حظاً موفقاً في رحلة الضبط الدقيق!
جاهز لمواصلة التعلم؟ تحقق من دورة أطر تقييم الذكاء الاصطناعي لإتقان فن قياس جودة الذكاء الاصطناعي. :::