المفردات الأساسية للذكاء الاصطناعي وتعلم الآلة

مفردات التعلم العميق ونماذج اللغة الكبيرة

8 دقيقة للقراءة

التعلم العميق ونماذج اللغة الكبيرة (LLMs) لها مفرداتها المتخصصة. هذا الدرس يغطي المصطلحات التي ستواجهها يومياً كمهندس ذكاء اصطناعي / تعلم آلة.

مصطلحات بنية الشبكات العصبية

المصطلحالعربيةالمعنى
Neural networkشبكة عصبيةنظام من العقد المتصلة يعالج البيانات
Layerطبقةصف من الخلايا العصبية في الشبكة
Input layerطبقة الإدخالأول طبقة تستقبل البيانات الخام
Hidden layerطبقة مخفيةالطبقات بين الإدخال والإخراج
Output layerطبقة الإخراجالطبقة الأخيرة التي تُنتج التنبؤات
Activation functionدالة التنشيطتُضيف اللاخطية (ReLU, sigmoid, tanh)
Weightsالأوزانالمعاملات القابلة للتعلم بين الخلايا
Backpropagationالانتشار العكسيخوارزمية لحساب التدرجات للتعلم
Dropoutالتسريبتعطيل عشوائي للخلايا لمنع الإفراط في التعلم

أنواع بنيات التعلم العميق

البنيةالعربيةتُستخدم لـعبارة مثال
CNNشبكة عصبية تلافيفيةالصور والفيديو"We used a CNN backbone for feature extraction"
RNNشبكة عصبية تكراريةالبيانات المتسلسلة"The RNN captures temporal dependencies"
Transformerالمحوّلالنصوص والرؤية وكل شيء"The transformer architecture uses self-attention"
GANشبكة تنافسية توليديةتوليد الصور"The GAN generates realistic face images"
Diffusion modelنموذج انتشاريتوليد الصور/الفيديو"Stable Diffusion uses a diffusion model approach"

مفردات خاصة بنماذج اللغة الكبيرة

المصطلحالعربيةالمعنى
Tokenرمزوحدة كلمة أو جزء كلمة يعالجها النموذج
Tokenizerالمرمّزيُقسّم النص إلى رموز
Context windowنافذة السياقأقصى عدد من الرموز يمكن للنموذج معالجتها
Promptمُحفّز / طلبالنص المُدخل المُعطى للنموذج
Embeddingتضمينتمثيل متجه كثيف للنص
Attention mechanismآلية الانتباهكيف يُركّز النموذج على الأجزاء المهمة
Fine-tuningالضبط الدقيقتدريب نموذج مُدرّب مسبقاً على بيانات محددة
RLHFالتعلم المعزز من التغذية البشريةReinforcement Learning from Human Feedback
Hallucinationهلوسةعندما يُولّد النموذج معلومات خاطئة بثقة
RAGالتوليد المعزز بالاسترجاعRetrieval-Augmented Generation
Temperatureالحرارةتتحكم في عشوائية الإخراج (0 = حتمي)

عبارات شائعة في نقاشات نماذج اللغة الكبيرة

"The model is hallucinating — it's generating facts that don't exist."
النموذج يُهلوِس — يُولّد حقائق غير موجودة.

"We need to increase the context window to handle longer documents."
نحتاج زيادة نافذة السياق للتعامل مع المستندات الأطول.

"Let's fine-tune the base model on our domain-specific data."
لنُضبط النموذج الأساسي على بيانات مجالنا المحدد.

"The RAG pipeline retrieves relevant documents before generating a response."
خط أنابيب RAG يسترجع المستندات ذات الصلة قبل توليد الاستجابة.

"We should quantize the model to reduce memory footprint."
يجب أن نُكمّم النموذج لتقليل استخدام الذاكرة.

مصطلحات التدريب والبنية التحتية

المصطلحالعربيةمثال
GPUوحدة معالجة الرسومات"We need 8 A100 GPUs for training" — نحتاج 8 وحدات A100 للتدريب
VRAMذاكرة الفيديو"The model requires 40GB VRAM" — النموذج يحتاج 40 غيغا
Distributed trainingتدريب موزع"We use distributed training across 4 nodes"
Quantizationالتكميم"4-bit quantization makes the model run on consumer GPUs"
Checkpointنقطة حفظ"We save checkpoints every 1000 steps" — نحفظ كل 1000 خطوة

:::

اختبار

اختبار المفردات الأساسية للذكاء الاصطناعي وتعلم الآلة

خذ الاختبار
نشرة أسبوعية مجانية

ابقَ على مسار النيرد

بريد واحد أسبوعياً — دورات، مقالات معمّقة، أدوات، وتجارب ذكاء اصطناعي.

بدون إزعاج. إلغاء الاشتراك في أي وقت.