مشهد أمن الذكاء الاصطناعي

العقلية الأمنية لمطوري الذكاء الاصطناعي

2 دقيقة للقراءة

بناء تطبيقات ذكاء اصطناعي آمنة يتطلب طريقة تفكير مختلفة. إليك المبادئ الأساسية التي يجب أن توجه كل قرار.

مبادئ الأمان الأربعة

1. انعدام الثقة

لا تثق بأي مدخل أبداً، حتى من المستخدمين المصادق عليهم.

# خطأ: الوثوق بمدخلات المستخدم
def process_request(user, query):
    if user.is_authenticated:
        return llm.generate(query)  # المستخدم لا يزال يمكنه الحقن

# صحيح: التحقق بغض النظر عن المصادقة
def process_request(user, query):
    if user.is_authenticated:
        validated_query = validate_and_sanitize(query)
        return llm.generate(validated_query)

2. الدفاع العميق

ضع طبقات متعددة من ضوابط الأمان. إذا فشلت واحدة، الأخرى تحميك.

# طبقات متعددة من الدفاع
def secure_chat(user_input):
    # الطبقة 1: التحقق من المدخلات
    if not validate_input(user_input):
        return "مدخل غير صالح"

    # الطبقة 2: تصفية المحتوى
    filtered_input = filter_dangerous_patterns(user_input)

    # الطبقة 3: الحواجز
    response = guardrails.process(filtered_input)

    # الطبقة 4: التحقق من المخرجات
    safe_response = sanitize_output(response)

    # الطبقة 5: التسجيل للمراقبة
    log_interaction(user_input, safe_response)

    return safe_response

3. مبدأ الحد الأدنى من الصلاحيات

أعطِ نموذج اللغة الكبير فقط الصلاحيات التي يحتاجها.

ممارسة سيئة ممارسة جيدة
وصول كامل لقاعدة البيانات قراءة فقط لجداول محددة
جميع عمليات الملفات قراءة من مسارات مدرجة في القائمة البيضاء
استدعاءات API غير مقيدة رموز محدودة ومقيدة
وصول بريد المدير إرسال فقط، رسائل منسقة

4. افتراض الاختراق

صمم كأن نموذج اللغة الكبير سيُخترق.

# افتراض الاختراق: حد من نطاق الضرر
class SecureAgent:
    def __init__(self):
        # بيانات اعتماد منفصلة لكل قدرة
        self.read_db = DatabaseConnection(role="reader")
        self.write_db = DatabaseConnection(role="writer")

        # تدقيق كل شيء
        self.audit_log = AuditLogger()

        # انتهاء مهلة تلقائي
        self.max_operation_time = 30  # ثانية

        # تنفيذ في صندوق رمل
        self.sandbox = Sandbox(
            network=False,
            filesystem="read_only",
            max_memory="512MB"
        )

قائمة التحقق الأمني لكل ميزة

قبل نشر أي ميزة ذكاء اصطناعي، اسأل:

  1. ما أسوأ حالة؟ إذا تم استغلال هذا، ماذا سيحدث؟
  2. من يتحكم بالمدخل؟ المستخدمون، المستندات، أو أنظمة خارجية؟
  3. ماذا يمكن لـ LLM أن يفعل؟ الأدوات، الوصول للبيانات، الإجراءات؟
  4. كيف سنكتشف الإساءة؟ التسجيل، المراقبة، التنبيهات؟
  5. هل يمكننا تحديد الضرر؟ حدود المعدل، الصلاحيات، التراجع؟

شعار مطور الأمان

"نموذج اللغة الكبير سيفعل بالضبط ما يُطلب منه. تأكد أنك أنت فقط من يخبره."

كل مدخل لنموذج اللغة الكبير هو تعليمة. رسائل المستخدم، المستندات، مخرجات الأدوات - كلها تؤثر على السلوك. مهمتك هي ضمان وصول التعليمات المقصودة فقط للنموذج.

النقطة الرئيسية: الأمان ليس ميزة تضيفها لاحقاً. إنها عقلية تطبقها من أول سطر كود. :::

اختبار

الوحدة 1: مشهد أمن الذكاء الاصطناعي

خذ الاختبار