البنية التحتية والنشر

البنية التحتية السحابية لـ ML

4 دقيقة للقراءة

خدمات ML الخاصة بالسحابة هي موضوعات مقابلات أساسية. اعرف المفاضلات بين الخدمات المدارة وKubernetes ذاتي الإدارة.

مقارنة المُدار مقابل ذاتي الإدارة

الجانب AWS SageMaker GCP Vertex AI K8s ذاتي الإدارة
وقت الإعداد ساعات ساعات أيام/أسابيع
التكلفة على نطاق واسع أعلى أعلى أقل
التخصيص محدود محدود تحكم كامل
توفر GPU عند الطلب عند الطلب مثيلات محجوزة
الارتباط بالمورد عالي عالي منخفض
الأفضل لـ POCs سريعة POCs سريعة الإنتاج على نطاق واسع

سؤال المقابلة: البناء مقابل الشراء

السؤال: "متى تستخدم SageMaker مقابل Kubernetes ذاتي الإدارة؟"

إطار الإجابة:

def choose_infrastructure(context):
    use_managed = (
        context["team_size"] < 5 and
        context["ml_models"] < 10 and
        context["budget"] > context["engineer_cost"] * 2 and
        context["time_to_market"] == "urgent"
    )

    use_kubernetes = (
        context["team_size"] >= 5 or
        context["ml_models"] >= 10 or
        context["multi_cloud"] is True or
        context["compliance"] in ["HIPAA", "PCI", "SOC2"] and
            context["requires_custom_controls"]
    )

    # الهجين غالباً هو الإجابة
    return {
        "training": "managed" if data_stays_in_cloud else "k8s",
        "serving": "kubernetes",  # زمن استجابة أقل، توسع أفضل
        "experimentation": "managed",  # تكرار أسرع
    }

تعمق في AWS SageMaker

المكونات الرئيسية للمعرفة:

# موضوعات مقابلات SageMaker
sagemaker_components:
  training:
    - مثيلات Spot لتخفيض التكلفة 70%
    - التدريب الموزع مع خوادم المعاملات
    - SageMaker Debugger لرؤى التدريب

  inference:
    - نقاط النهاية في الوقت الفعلي (متزامن)
    - Batch Transform (غير متزامن، مجموعات بيانات كبيرة)
    - نقاط نهاية متعددة النماذج (مشاركة التكلفة)
    - الاستدلال بدون خادم (الدفع لكل طلب)

  mlops:
    - SageMaker Pipelines (التنسيق)
    - Model Registry (الإصدارات)
    - Model Monitor (اكتشاف الانحراف)

سؤال المقابلة: "كيف تقلل تكاليف استدلال SageMaker؟"

الإجابة:

  1. نقاط نهاية متعددة النماذج: تحميل مئات النماذج على نقطة نهاية واحدة
  2. الاستدلال بدون خادم: الدفع فقط للطلبات، لكن زمن البدء البارد
  3. التوسع التلقائي: التقليص إلى صفر خارج ساعات العمل
  4. مثيلات Spot: للتدريب (ليس الاستدلال)، توفير 70%
  5. تحسين الاستدلال: استخدام مترجم Neuron لشرائح AWS Inferentia

تعمق في GCP Vertex AI

المميزات الرئيسية:

# موضوعات مقابلات Vertex AI
vertex_components:
  unique_features:
    - AutoML للتدريب بدون كود
    - Feature Store (تكامل أصلي)
    - Vizier لضبط المعاملات الفائقة
    - Matching Engine للبحث المتجهي

  training:
    - حاويات مخصصة على Vertex Training
    - دعم TPU (pods v4 متوفرة)
    - التدريب الموزع مع Reduction Server

  serving:
    - التوقع عبر الإنترنت (الوقت الفعلي)
    - التوقع الدفعي (نطاق واسع)
    - نقاط نهاية خاصة (أصلية VPC)

سؤال المقابلة: "متى تستخدم TPUs مقابل GPUs؟"

الإجابة:

  • TPUs: تدريب المحولات الكبيرة، محسنة لـ Google (BERT، T5)، المعالجة الدفعية
  • GPUs: الاستدلال، PyTorch المكثف، الهندسات المخصصة، التقديم في الوقت الفعلي
  • مقارنة التكلفة: TPU v4 pods يمكن أن تكون أكثر كفاءة 3 مرات للتدريب على نطاق واسع

أنماط السحابة المتعددة والهجين

# مناقشة هندسة ML متعددة السحابات
multi_cloud_reasons = [
    "توفر GPU أثناء النقص",
    "أفضل الخدمات (Vertex AutoML + AWS Endpoints)",
    "المتطلبات التنظيمية (إقامة البيانات)",
    "نفوذ التفاوض مع المورد"
]

# التقنيات الرئيسية للسحابة المتعددة
multi_cloud_stack = {
    "orchestration": "Kubeflow Pipelines (مستقل عن السحابة)",
    "model_registry": "MLflow (قابل للنقل)",
    "serving": "Seldon Core أو KServe",
    "monitoring": "Prometheus + Grafana",
    "infrastructure": "Terraform مع وحدات خاصة بالسحابة"
}

رؤية المقابلة: تسأل الشركات بشكل متزايد عن السحابة المتعددة بسبب نقص GPU وتحسين التكلفة. أظهر أنك تفهم كلاً من الخدمات المدارة وKubernetes ذاتي الإدارة.

الوحدة التالية تغطي أسئلة مقابلات خطوط أنابيب ML والتنسيق. :::

اختبار

الوحدة 2: البنية التحتية والنشر

خذ الاختبار