المفردات الأساسية للذكاء الاصطناعي وتعلم الآلة

مفردات التعلم العميق ونماذج اللغة الكبيرة

8 دقيقة للقراءة

التعلم العميق ونماذج اللغة الكبيرة (LLMs) لها مفرداتها المتخصصة. هذا الدرس يغطي المصطلحات التي ستواجهها يومياً كمهندس ذكاء اصطناعي / تعلم آلة.

مصطلحات بنية الشبكات العصبية

المصطلح العربية المعنى
Neural network شبكة عصبية نظام من العقد المتصلة يعالج البيانات
Layer طبقة صف من الخلايا العصبية في الشبكة
Input layer طبقة الإدخال أول طبقة تستقبل البيانات الخام
Hidden layer طبقة مخفية الطبقات بين الإدخال والإخراج
Output layer طبقة الإخراج الطبقة الأخيرة التي تُنتج التنبؤات
Activation function دالة التنشيط تُضيف اللاخطية (ReLU, sigmoid, tanh)
Weights الأوزان المعاملات القابلة للتعلم بين الخلايا
Backpropagation الانتشار العكسي خوارزمية لحساب التدرجات للتعلم
Dropout التسريب تعطيل عشوائي للخلايا لمنع الإفراط في التعلم

أنواع بنيات التعلم العميق

البنية العربية تُستخدم لـ عبارة مثال
CNN شبكة عصبية تلافيفية الصور والفيديو "We used a CNN backbone for feature extraction"
RNN شبكة عصبية تكرارية البيانات المتسلسلة "The RNN captures temporal dependencies"
Transformer المحوّل النصوص والرؤية وكل شيء "The transformer architecture uses self-attention"
GAN شبكة تنافسية توليدية توليد الصور "The GAN generates realistic face images"
Diffusion model نموذج انتشاري توليد الصور/الفيديو "Stable Diffusion uses a diffusion model approach"

مفردات خاصة بنماذج اللغة الكبيرة

المصطلح العربية المعنى
Token رمز وحدة كلمة أو جزء كلمة يعالجها النموذج
Tokenizer المرمّز يُقسّم النص إلى رموز
Context window نافذة السياق أقصى عدد من الرموز يمكن للنموذج معالجتها
Prompt مُحفّز / طلب النص المُدخل المُعطى للنموذج
Embedding تضمين تمثيل متجه كثيف للنص
Attention mechanism آلية الانتباه كيف يُركّز النموذج على الأجزاء المهمة
Fine-tuning الضبط الدقيق تدريب نموذج مُدرّب مسبقاً على بيانات محددة
RLHF التعلم المعزز من التغذية البشرية Reinforcement Learning from Human Feedback
Hallucination هلوسة عندما يُولّد النموذج معلومات خاطئة بثقة
RAG التوليد المعزز بالاسترجاع Retrieval-Augmented Generation
Temperature الحرارة تتحكم في عشوائية الإخراج (0 = حتمي)

عبارات شائعة في نقاشات نماذج اللغة الكبيرة

"The model is hallucinating — it's generating facts that don't exist."
النموذج يُهلوِس — يُولّد حقائق غير موجودة.

"We need to increase the context window to handle longer documents."
نحتاج زيادة نافذة السياق للتعامل مع المستندات الأطول.

"Let's fine-tune the base model on our domain-specific data."
لنُضبط النموذج الأساسي على بيانات مجالنا المحدد.

"The RAG pipeline retrieves relevant documents before generating a response."
خط أنابيب RAG يسترجع المستندات ذات الصلة قبل توليد الاستجابة.

"We should quantize the model to reduce memory footprint."
يجب أن نُكمّم النموذج لتقليل استخدام الذاكرة.

مصطلحات التدريب والبنية التحتية

المصطلح العربية مثال
GPU وحدة معالجة الرسومات "We need 8 A100 GPUs for training" — نحتاج 8 وحدات A100 للتدريب
VRAM ذاكرة الفيديو "The model requires 40GB VRAM" — النموذج يحتاج 40 غيغا
Distributed training تدريب موزع "We use distributed training across 4 nodes"
Quantization التكميم "4-bit quantization makes the model run on consumer GPUs"
Checkpoint نقطة حفظ "We save checkpoints every 1000 steps" — نحفظ كل 1000 خطوة

:::

اختبار

اختبار المفردات الأساسية للذكاء الاصطناعي وتعلم الآلة

خذ الاختبار