المفردات الأساسية للذكاء الاصطناعي وتعلم الآلة
مفردات التعلم العميق ونماذج اللغة الكبيرة
8 دقيقة للقراءة
التعلم العميق ونماذج اللغة الكبيرة (LLMs) لها مفرداتها المتخصصة. هذا الدرس يغطي المصطلحات التي ستواجهها يومياً كمهندس ذكاء اصطناعي / تعلم آلة.
مصطلحات بنية الشبكات العصبية
| المصطلح | العربية | المعنى |
|---|---|---|
| Neural network | شبكة عصبية | نظام من العقد المتصلة يعالج البيانات |
| Layer | طبقة | صف من الخلايا العصبية في الشبكة |
| Input layer | طبقة الإدخال | أول طبقة تستقبل البيانات الخام |
| Hidden layer | طبقة مخفية | الطبقات بين الإدخال والإخراج |
| Output layer | طبقة الإخراج | الطبقة الأخيرة التي تُنتج التنبؤات |
| Activation function | دالة التنشيط | تُضيف اللاخطية (ReLU, sigmoid, tanh) |
| Weights | الأوزان | المعاملات القابلة للتعلم بين الخلايا |
| Backpropagation | الانتشار العكسي | خوارزمية لحساب التدرجات للتعلم |
| Dropout | التسريب | تعطيل عشوائي للخلايا لمنع الإفراط في التعلم |
أنواع بنيات التعلم العميق
| البنية | العربية | تُستخدم لـ | عبارة مثال |
|---|---|---|---|
| CNN | شبكة عصبية تلافيفية | الصور والفيديو | "We used a CNN backbone for feature extraction" |
| RNN | شبكة عصبية تكرارية | البيانات المتسلسلة | "The RNN captures temporal dependencies" |
| Transformer | المحوّل | النصوص والرؤية وكل شيء | "The transformer architecture uses self-attention" |
| GAN | شبكة تنافسية توليدية | توليد الصور | "The GAN generates realistic face images" |
| Diffusion model | نموذج انتشاري | توليد الصور/الفيديو | "Stable Diffusion uses a diffusion model approach" |
مفردات خاصة بنماذج اللغة الكبيرة
| المصطلح | العربية | المعنى |
|---|---|---|
| Token | رمز | وحدة كلمة أو جزء كلمة يعالجها النموذج |
| Tokenizer | المرمّز | يُقسّم النص إلى رموز |
| Context window | نافذة السياق | أقصى عدد من الرموز يمكن للنموذج معالجتها |
| Prompt | مُحفّز / طلب | النص المُدخل المُعطى للنموذج |
| Embedding | تضمين | تمثيل متجه كثيف للنص |
| Attention mechanism | آلية الانتباه | كيف يُركّز النموذج على الأجزاء المهمة |
| Fine-tuning | الضبط الدقيق | تدريب نموذج مُدرّب مسبقاً على بيانات محددة |
| RLHF | التعلم المعزز من التغذية البشرية | Reinforcement Learning from Human Feedback |
| Hallucination | هلوسة | عندما يُولّد النموذج معلومات خاطئة بثقة |
| RAG | التوليد المعزز بالاسترجاع | Retrieval-Augmented Generation |
| Temperature | الحرارة | تتحكم في عشوائية الإخراج (0 = حتمي) |
عبارات شائعة في نقاشات نماذج اللغة الكبيرة
"The model is hallucinating — it's generating facts that don't exist."
النموذج يُهلوِس — يُولّد حقائق غير موجودة.
"We need to increase the context window to handle longer documents."
نحتاج زيادة نافذة السياق للتعامل مع المستندات الأطول.
"Let's fine-tune the base model on our domain-specific data."
لنُضبط النموذج الأساسي على بيانات مجالنا المحدد.
"The RAG pipeline retrieves relevant documents before generating a response."
خط أنابيب RAG يسترجع المستندات ذات الصلة قبل توليد الاستجابة.
"We should quantize the model to reduce memory footprint."
يجب أن نُكمّم النموذج لتقليل استخدام الذاكرة.
مصطلحات التدريب والبنية التحتية
| المصطلح | العربية | مثال |
|---|---|---|
| GPU | وحدة معالجة الرسومات | "We need 8 A100 GPUs for training" — نحتاج 8 وحدات A100 للتدريب |
| VRAM | ذاكرة الفيديو | "The model requires 40GB VRAM" — النموذج يحتاج 40 غيغا |
| Distributed training | تدريب موزع | "We use distributed training across 4 nodes" |
| Quantization | التكميم | "4-bit quantization makes the model run on consumer GPUs" |
| Checkpoint | نقطة حفظ | "We save checkpoints every 1000 steps" — نحفظ كل 1000 خطوة |
:::