أسئلة أساسيات ML

غوص عميق في التعلم الموجه

5 دقيقة للقراءة

الخوارزميات الأساسية التي يجب أن تعرفها

1. الانحدار الخطي

سؤال المقابلة: "اشرح كيف يعمل الانحدار الخطي ومتى تستخدمه."

إطار الإجابة:

  • ما هو: يلائم علاقة خطية بين الميزات والهدف المستمر
  • الصيغة: y = w₁x₁ + w₂x₂ + ... + b
  • كيف يتعلم: يقلل متوسط مربع الخطأ (MSE) باستخدام المعادلة العادية أو gradient descent
  • متى تستخدم: خط أساس بسيط، معاملات قابلة للتفسير، علاقات خطية
  • القيود: يفترض الخطية، حساس للقيم الشاذة، لا يمكن نمذجة أنماط معقدة

2. الانحدار اللوجستي

سؤال المقابلة: "كيف يعمل الانحدار اللوجستي للتصنيف؟"

إطار الإجابة:

  • ما هو: نموذج خطي + دالة sigmoid لتقديرات الاحتمال
  • الصيغة: P(y=1|x) = σ(w^T x) حيث σ(z) = 1/(1 + e^(-z))
  • دالة الخسارة: Binary cross-entropy (log loss)
  • حد القرار: خطي (يمكن جعله غير خطي بهندسة الميزات)
  • الإخراج: احتمالات بين 0 و1

رؤية رئيسية: على الرغم من "الانحدار" في الاسم، إنها خوارزمية تصنيف.


3. أشجار القرار

سؤال المقابلة: "اشرح كيف تتخذ أشجار القرار القرارات وإيجابياتها/سلبياتها."

إطار الإجابة:

  • كيف تعمل: تقسم البيانات بشكل متكرر بناءً على الميزات لتعظيم كسب المعلومات
  • معايير التقسيم:
    • التصنيف: Gini impurity أو entropy
    • الانحدار: تقليل التباين
  • الإيجابيات: قابلة للتفسير، تتعامل مع علاقات غير خطية، لا حاجة لتحجيم الميزات
  • السلبيات: عرضة للتركيب الزائد، تباين عالي، غير مستقرة

4. الغابات العشوائية

سؤال المقابلة: "كيف تحسن الغابات العشوائية على أشجار القرار؟"

إطار الإجابة:

  • تقنية رئيسية: Bagging (Bootstrap Aggregating)
  • العملية:
    1. إنشاء N عينات bootstrap (عينة مع الاستبدال)
    2. تدريب شجرة قرار على كل، باستخدام مجموعة فرعية عشوائية من الميزات في كل تقسيم
    3. متوسط التنبؤات (انحدار) أو تصويت (تصنيف)
  • لماذا يعمل: يقلل التباين مع الحفاظ على تحيز منخفض

5. تعزيز التدرج (XGBoost، LightGBM)

سؤال المقابلة: "اشرح تعزيز التدرج ومتى تستخدمه على الغابات العشوائية."

إطار الإجابة:

  • تقنية رئيسية: Boosting (تجميع تسلسلي)
  • العملية:
    1. تدريب متعلم ضعيف (شجرة ضحلة)
    2. حساب البقايا (الأخطاء)
    3. تدريب الشجرة التالية للتنبؤ بالبقايا
    4. إضافة للتجميع بمعدل تعلم
    5. تكرار
  • الفرق عن bagging: تسلسلي (كل شجرة تصحح السابقة) مقابل متوازي

جدول مقارنة الخوارزميات

الخوارزمية قابلية التفسير السرعة الدقة خطر التركيب الزائد ضبط المعلمات الفائقة
الانحدار الخطي عالية سريع منخفض-متوسط منخفض الحد الأدنى
الانحدار اللوجستي عالية سريع متوسط منخفض الحد الأدنى
شجرة القرار متوسط-عالي سريع متوسط عالي متوسط
الغابة العشوائية منخفض متوسط عالي متوسط متوسط
تعزيز التدرج منخفض بطيء عالي جداً عالي إذا لم يتم ضبطه عالي

النقاط الرئيسية

  1. اعرف الأساسيات - كن قادراً على شرح الرياضيات والحدس
  2. افهم المقايضات - لا خوارزمية هي الأفضل لكل شيء
  3. التطبيق مهم - اعرف كيفية البرمجة من الصفر للمقابلات
  4. اربط بالخبرة - اربط بالمشاريع التي عملت عليها

ما التالي؟

في الدرس التالي، سنغطي مفاهيم الشبكات العصبية والتعلم العميق التي تظهر بشكل متكرر في مقابلات ML.

:::