الحدود الوعرة للأمن السيبراني المعتمد على AI: النماذج الصغيرة (Small Models) مقابل الأساطير

١٢ أبريل ٢٠٢٦

AI Cybersecurity's Jagged Frontier: Small Models vs Mythos

ملخص

عندما أعلنت Anthropic عن Claude Mythos Preview في 7 أبريل 2026 — وهو نموذج فائق القدرة في العثور على ثغرات اليوم الصفر (zero-day) لدرجة أنه لن يتم إصداره للعامة — انتبه مجتمع الأمن السيبراني بشدة. وبعد يوم واحد فقط، نشرت شركة AISLE الناشئة للأمن بحثًا يظهر أن 8 من أصل 8 نماذج اختبرتها، بما في ذلك نموذج يحتوي على 3.6 مليار معلمة نشطة فقط وتكلفته 0.11 دولار لكل مليون توكن، اكتشفت نفس ثغرة FreeBSD (CVE-2026-4747) التي استخدمها Mythos كعرض رئيسي لقدراته. تتحدى هذه النتيجة الرواية القائلة بأن النماذج الرائدة المقيدة فقط هي التي يمكن أن تهدد أمن البرمجيات، وتقدم مفهوم "الحدود المتعرجة" (jagged frontier) في الأمن السيبراني للذكاء الاصطناعي: حيث تتغير تصنيفات النماذج تمامًا عبر المهام، ولا يهيمن نموذج واحد بمفرده.12


ما ستتعلمه

  • ما وجده بحث "الحدود المتعرجة" لشركة AISLE عند اختبار أكثر من 25 نموذجًا مقابل الثغرات التي عرضها Mythos
  • لماذا اكتشف نموذج بـ 3.6 مليار معلمة نفس خلل FreeBSD الحرج الذي اكتشفه أكبر نموذج رائد من Anthropic
  • كيف يمثل اكتشاف الثغرات واستغلالها مستويات قدرة مختلفة جوهريًا
  • ما يكشفه اختبار OWASP للنتائج الإيجابية الكاذبة حول القياس العكسي في الأمن السيبراني
  • لماذا قد تكمن الميزة التنافسية في الأمن السيبراني للذكاء الاصطناعي في النظام، وليس النموذج
  • ما يعنيه هذا للمؤسسات التي تبني برامج أمنية تعتمد على الذاء الاصطناعي

الخلفية: Claude Mythos Preview و Project Glasswing

في 7 أبريل 2026، أعلنت Anthropic عن Claude Mythos Preview إلى جانب Project Glasswing — وهو كونسورتيوم يضم 12 شريك إطلاق: AWS، و Anthropic، و Apple، و Broadcom، و Cisco، و CrowdStrike، و Google، و JPMorgan Chase، و Linux Foundation، و Microsoft، و NVIDIA، و Palo Alto Networks. التزمت Anthropic بتقديم ما يصل إلى 100 مليون دولار في شكل أرصدة استخدام و 4 ملايين دولار في شكل تبرعات مباشرة للعمل الأمني مفتوح المصدر (2.5 مليون دولار لـ Alpha-Omega و OpenSSF من خلال Linux Foundation، و 1.5 مليون دولار لمؤسسة Apache Software Foundation).34

كان الادعاء المركزي مذهلاً: اكتشف Mythos Preview بشكل مستقل آلاف الثغرات من نوع اليوم الصفر عبر كل أنظمة التشغيل والمتصفحات الرئيسية، بما في ذلك CVE-2026-4747، وهو خلل في تنفيذ التعليمات البرمجية عن بُعد عمره 17 عامًا في تنفيذ RPCSEC_GSS في FreeBSD، وثغرة TCP SACK عمرها 27 عامًا في OpenBSD. تم تسعير Mythos Preview بـ 25 دولارًا لكل مليون توكن إدخال و 125 دولارًا لكل مليون توكن إخراج — أي خمسة أضعاف تكلفة Claude Opus 4.6 (5 دولارات/25 دولارًا) — والوصول إليه مقتصر على المؤسسات التي تم فحصها فقط.56

كانت الرسالة واضحة: هذا النموذج خطير للغاية لدرجة أنه لا يمكن إصداره علنًا، وفقط جهد صناعي منسق يمكنه توجيه قدراته بأمان نحو الدفاع. (للحصول على تعمق في Mythos Preview و Project Glasswing، راجع تحليلنا الشامل لـ Claude Mythos Preview.)

ثم قامت AISLE بتشغيل نفس الثغرات عبر نماذج أصغر.


AISLE: من هم ولماذا يهم بحثهم

AISLE هي شركة أمن سيبراني تعتمد على الذكاء الاصطناعي بشكل أصيل، أسسها Ondrej Vlcek (الرئيس التنفيذي السابق لشركة Avast ورئيس Gen Digital)، و Jaya Baloo (CISO لثلاث مرات في Rapid7 و Avast و KPN Telecom)، و Stanislav Fort (كبير العلماء الذي شغل أدوارًا بحثية في Google DeepMind و Anthropic و Stability AI). تحظى الشركة بدعم من مستثمرين ملائكيين من بينهم Jeff Dean (كبير العلماء في Google)، و Thomas Wolf (كبير مسؤولي العلوم في Hugging Face)، و Olivier Pomel (الرئيس التنفيذي لشركة Datadog)، و Aparna Chennapragada (كبيرة مسؤولي المنتجات في Microsoft).78

الأهم من ذلك، أن AISLE ليست مجرد ناقد نظري. تقوم الشركة بتشغيل نظامها لاكتشاف الثغرات ومعالجتها المدعوم بالذكاء الاصطناعي ضد أهداف حية منذ منتصف عام 2025، محققة سجلًا حافلًا وموثقًا: جميع الـ 12 CVEs في إصدار OpenSSL المنسق في يناير 2026، و 5 CVEs في curl، وأكثر من 180 CVE تم التحقق منها خارجيًا عبر أكثر من 30 مشروعًا تشمل نواة Linux، و glibc، و Chromium، و Firefox، و WebKit، و Apache HTTPd، و GnuTLS، و OpenVPN، و Samba.910

في 8 أبريل 2026 — بعد يوم واحد من إعلان Anthropic — نشرت AISLE بحث "الأمن السيبراني للذكاء الاصطناعي بعد Mythos: الحدود المتعرجة"، إلى جانب مستودع مفتوح المصدر لمطالباتهم (prompts) وسجلاتهم على GitHub (stanislavfort/mythos-jagged-frontier).1


النتيجة الجوهرية: الاكتشاف أصبح سلعة

كانت منهجية AISLE مباشرة. قاموا بعزل مقتطفات التعليمات البرمجية المحددة من الثغرات التي عرضتها Anthropic، وصاغوا مطالبات مستهدفة، وقاموا بتشغيلها عبر أكثر من 25 نموذجًا من كل مختبر ذكاء اصطناعي رئيسي.1

FreeBSD CVE-2026-4747: كل النماذج وجدتها

الثغرة التي أبرزتها Anthropic بشكل كبير — وهي تجاوز سعة المخزن المؤقت المكدس (stack buffer overflow) في دالة svc_rpc_gss_validate() في FreeBSD حيث يتلقى مخزن مؤقت مكدس بسعة 128 بايت نسخة غير مفحوصة من جسم اعتماد RPCSEC_GSS — تم اكتشافها من قبل كل نموذج تم اختباره.211

ثمانية من أصل ثمانية نماذج حددت الخلل. أصغرها، الذي يحتوي على 3.6 مليار معلمة نشطة فقط وتكلفته 0.11 دولار لكل مليون توكن، حدد بشكل صحيح تجاوز سعة المخزن المؤقت المكدس، وحسب مساحة المخزن المؤقت المتبقية، وقيمه على أنه حرج مع إمكانية تنفيذ تعليمات برمجية عن بُعد. وكما خلصت AISLE: فإن اكتشاف هذا الخلل أصبح "سلعة".12

خلل OpenBSD SACK: أصعب، لكنه لا يزال متاحًا

تعد ثغرة OpenBSD TCP SACK التي يبلغ عمرها 27 عامًا أكثر تطلبًا من الناحية التقنية. فهي تتطلب فهم أن sack.start لا يتم التحقق منه أبدًا مقابل الحد الأدنى لنافذة الإرسال، وأن وحدات الماكرو SEQ_LT/SEQ_GT تتجاوز سعتها عندما تكون القيم متباعدة بنحو 2^31، وأن اختيار sack.start بعناية يمكن أن يلبي في نفس الوقت مقارنات متناقضة، وأنه إذا تم حذف جميع الثغرات، يحدث إلغاء مرجع مؤشر فارغ (null pointer dereference) في مسار الإلحاق.112

هذه الثغرة فصلت بين النماذج بشكل أكثر حدة. ومع ذلك، استعاد نموذج مفتوح بـ 5.1 مليار بارامتر نشط سلسلة التحليل الأساسية في مكالمة واحدة واقترح التخفيف الصحيح — وهو ما طابق بشكل أساسي تصحيح OpenBSD الفعلي.1


الحدود المتعرجة: إعادة ترتيب التصنيفات عبر المهام

نشأ مصطلح "الحدود المتعرجة" (jagged frontier) من دراسة أجرتها كلية هارفارد للأعمال ومجموعة بوسطن الاستشارية عام 2023 شملت 758 من العاملين في مجال المعرفة. أظهر البحث الأصلي، بقيادة فابريزيو ديل أكوا وإيثان موليك وزملائهما، أن المساعدة من الذكاء الاصطناعي تحسن الأداء في بعض المهام بينما تزيد الأمر سوءاً في مهام أخرى — حتى داخل نفس سير العمل وبمستويات صعوبة مماثلة. نُشر البحث رسمياً في Organization Science في مارس 2026.1314

يطبق AISLE هذا المفهوم على الأمن السيبراني مع نتيجة محددة: تصنيفات القدرات أعيد ترتيبها بالكامل عبر مهام أمنية مختلفة. لا يوجد "أفضل نموذج" مستقر للأمن السيبراني.1

اختبار OWASP للإيجابيات الكاذبة: قياس عكسي تقريباً

ربما كانت النتيجة الأكثر إثارة للدهشة في اختبار OWASP للإيجابيات الكاذبة، حيث أظهرت النتائج قياساً عكسياً تقريباً: تفوقت النماذج الصغيرة المفتوحة على معظم نماذج الواجهة (frontier models) من كل المختبرات الكبرى. وهذا يعني أن ضخ المزيد من البارامترات في المشكلة لم يحسن الأداء — وفي بعض الحالات أضر به فعلياً — في مهمة أمنية أساسية.1

ما يخبرنا به هذا

تعني الحدود المتعرجة ثلاثة أشياء للأمن السيبراني المعتمد على الذكاء الاصطناعي:

أولاً، قدرة الكشف متاحة على نطاق واسع اليوم. إذا كان الهدف هو العثور على أنماط الثغرات المعروفة في الكود — مثل buffer overflows، و integer overflows، و unchecked copies — فإن النماذج عبر مختلف الأحجام يمكنها تحقيق ذلك. تثبت نتيجة FreeBSD هذه النقطة: نموذج بتكلفة 0.11 دولار لكل مليون توكن وجد ما وجده نموذج بتكلفة 25 دولاراً لكل مليون توكن.12

ثانياً، المهام المختلفة تتطلب نماذج مختلفة. النموذج الذي يتفوق في اكتشاف الثغرات قد يعاني في تصفية الإيجابيات الكاذبة، والعكس صحيح. المؤسسات التي تبني خطوط إنتاج أمنية بالذكاء الاصطناعي لا يمكنها ببساطة اختيار أغلى نموذج وتوقع أداء موحد.1

ثالثاً، الاستغلال (Exploitation) هو مستوى قدرة مختلف. أقر AISLE بهذا التمييز: بينما أصبح الكشف سلعة متاحة، فإن الاستغلال الذاتي — ربط ثغرات متعددة، وتطوير JIT heap sprays، وبناء سلاسل ROP متعددة الأدوات — قد يتطلب حقاً تفكيراً من فئة نماذج الواجهة. لكن AISLE جادل بأن هذا التمييز يصب في مصلحة موقفهم: الغرض المعلن لـ Project Glasswing هو دفاعي، والدفاع يتعلق في المقام الأول بالكشف والمعالجة، وليس الاستغلال.15


النقاش الأوسع: أمان أم خندق تنافسي؟

جاء بحث AISLE وسط محادثة أوسع حول دوافع Anthropic. تساءل تحليل TechCrunch المنشور في 9 أبريل مباشرة: "هل تقيد Anthropic إصدار Mythos لحماية الإنترنت — أم لحماية Anthropic؟"15

للانتقاد عدة خيوط. تقييد الوصول إلى Mythos يخلق ميزة تنافسية لشركاء إطلاق Project Glasswing الـ 12 وأكثر من 40 منظمة إضافية تم فحصها، بينما يجب على المدافعين خارج الكونسورتيوم الاعتماد على بدائل أقل قدرة — ولكنها، كما أثبت AISLE، كافية في كثير من الأحيان. كما أن تسعير 25 دولاراً / 125 دولاراً لكل مليون توكن يخلق حاجزاً مالياً كبيراً حتى للمنظمات التي تحصل على حق الوصول.6

يرد المؤيدون بأن قدرة Mythos على الاستغلال الذاتي — وليس مجرد الكشف — تمثل تصعيداً حقيقياً. أظهرت اختبارات Anthropic الخاصة أن Mythos يمكنه ربط ما يصل إلى أربع ثغرات في استغلالات المتصفح، وتطوير تقنيات تجاوز KASLR، وبناء سلاسل ROP مكونة من 20 أداة، وكتابة هجمات ضد مكتبات التشفير. تم قياس تكلفة الاستغلال الذاتي بـ 1000 إلى 2000 دولار، مع أوقات إنجاز تتراوح من نصف يوم إلى يوم كامل.5 هذه قدرات تكون فيها الفجوة بين Mythos والنماذج الأصغر أوسع بكثير مما هي عليه في الكشف المحض.

الحقيقة تكمن على الأرجح في المنتصف. الكشف أصبح سلعة. الاستغلال بمستوى تعقيد Mythos ليس كذلك — بعد. لكن الحدود المتعرجة تعني أن الفجوة ستغلق بشكل غير متساوٍ عبر فئات الاستغلال المختلفة، ولا يمكن للمنظمات افتراض أن قدرات الواجهة اليوم ستظل حصرية لفترة طويلة.


ماذا يعني هذا لفرق الأمن

بالنسبة للمنظمات التي تبني برامج أمنية مدفوعة بالذكاء الاصطناعي، يقدم بحث AISLE إرشادات عملية:

لا تنتظر الوصول إلى نماذج الواجهة لتبدأ. إذا كان برنامج إدارة الثغرات لديك يفتقر إلى فحص الكود بمساعدة الذكاء الاصطناعي، فلا يوجد سبب لانتظار الوصول إلى Project Glasswing. يمكن للنماذج التي تكلفتها جزء بسيط من التكلفة تحديد فئات الثغرات الحرجة بما في ذلك buffer overflows، و integer overflows، وتجاوز المصادقة.12

ابنِ النظام، وليس التبعية للنموذج. حجة AISLE الشاملة هي أن "الخندق في الأمن السيبراني للذكاء الاصطناعي هو النظام، وليس النموذج". يتضمن خط الإنتاج الأمني الفعال للذكاء الاصطناعي التنسيق، وإدارة السياق، وتصفية الإيجابيات الكاذبة، وسير عمل الفرز، وأتمتة المعالجة. النموذج هو مكون واحد — ومكون قابل للاستبدال.1

اختبر نماذج متعددة لكل مهمة. بالنظر إلى أن التصنيفات تتغير عبر مهام الأمن السيبراني، فإن نهج النموذج الواحد سيترك ثغرات. فكر في نهج التجميع (ensemble) أو توجيه النماذج لمهام محددة، خاصة لسير العمل الحساس للإيجابيات الكاذبة حيث قد تتفوق النماذج الصغيرة على الكبيرة.1

تتبع حدود الاستغلال بشكل منفصل. بينما الكشف متاح على نطاق واسع، يظل الاستغلال الذاتي متعدد الخطوات قدرة من قدرات الواجهة. يجب على المنظمات التي تعد أهدافاً لخصوم متطورين مراقبة مدى سرعة انتشار قدرات الاستغلال إلى النماذج الأصغر.5


الخلاصة

لا يقلل بحث "الحدود المتعرجة" لشركة AISLE مما حققه Claude Mythos Preview — فاكتشاف واستغلال آلاف الثغرات من نوع zero-day بشكل ذاتي يعد إنجازاً حقيقياً. لكن البحث يثبت أن الجانب الدفاعي للأمن السيبراني المعتمد على AI، وهو الغرض المعلن لـ Project Glasswing، لا يتطلب وصولاً مقيداً للنماذج الرائدة. فقد وجد نموذج بتكلفة 0.11 دولار لكل مليون توكن نفس ثغرة FreeBSD التي تصدرت إعلان Anthropic. واستعاد نموذج مفتوح بـ 5.1 مليار بارامتر سلسلة التحليل لثغرة OpenBSD عمرها 27 عاماً.

الحدود المتعرجة حقيقية: لا يوجد "أفضل نموذج" مستقر للأمن السيبراني، والاكتشاف أصبح سلعة متاحة، والميزة التنافسية تكمن في النظام — التنسيق، والسياق، وسير عمل المعالجة — وليس في أي نموذج منفرد. بالنسبة لفرق الأمن، هذه أخبار جيدة. لست بحاجة لانتظار دعوة لـ Project Glasswing لبدء بناء دفاعات مدفوعة بالـ AI. الأدوات موجودة بالفعل.


المراجع

Footnotes

  1. AISLE, "AI Cybersecurity After Mythos: The Jagged Frontier," April 8, 2026. https://aisle.com/blog/ai-cybersecurity-after-mythos-the-jagged-frontier 2 3 4 5 6 7 8 9 10 11 12 13 14

  2. OfficeChai, "Smaller And Cheaper Models Also Managed To Discover The Same Security Bugs As Claude Mythos, Says AISLE Analysis," April 2026. https://officechai.com/ai/smaller-and-cheaper-models-also-managed-to-discover-the-same-security-bugs-as-claude-mythos-says-aisle-analysis/ 2 3 4 5

  3. Anthropic, "Project Glasswing: Securing critical software for the AI era," April 7, 2026. https://www.anthropic.com/glasswing

  4. Linux Foundation, "Introducing Project Glasswing: Giving Maintainers Advanced AI to Secure the World's Code," April 2026. https://www.linuxfoundation.org/blog/project-glasswing-gives-maintainers-advanced-ai-to-secure-open-source

  5. Anthropic، "تقييم قدرات Claude Mythos Preview في الأمن السيبراني"، 7 أبريل 2026. https://red.anthropic.com/2026/mythos-preview/ 2 3 4

  6. Wes Roth على X، "نموذج الأمن السيبراني شديد التقييد من Anthropic، Claude Mythos Preview يبلغ سعره 25 دولاراً لكل مليون توكن مدخلات و125 دولاراً لكل مليون توكن مخرجات"، أبريل 2026. 2

  7. Yahoo Finance / AISLE، "AISLE تخرج من مرحلة السرية بنظام استدلال سيبراني جديد يعتمد على الذكاء الاصطناعي"، أكتوبر 2025. https://finance.yahoo.com/news/aisle-emerges-stealth-ai-native-130000392.html

  8. SecurityWeek، "AISLE تخرج من مرحلة السرية بنظام استدلال يعتمد على الذكاء الاصطناعي لمعالجة الثغرات الأمنية فورياً"، أكتوبر 2025. https://www.securityweek.com/aisle-emerges-from-stealth-with-ai-based-reasoning-system-that-remediates-vulnerabilities-on-the-fly/

  9. AISLE، "AISLE اكتشفت 12 من أصل 12 ثغرة في OpenSSL"، 2026. https://aisle.com/blog/aisle-discovered-12-out-of-12-openssl-vulnerabilities

  10. AISLE، "كيف يبدو البحث الأمني بالذكاء الاصطناعي عندما ينجح"، 2026. https://aisle.com/blog/what-ai-security-research-looks-like-when-it-works

  11. SentinelOne، "CVE-2026-4747: ثغرة FreeBSD RPCSEC_GSS RCE." https://www.sentinelone.com/vulnerability-database/cve-2026-4747/

  12. GitHub، "stanislavfort/mythos-jagged-frontier — prompts/openbsd-sack.md." https://GitHub.com/stanislavfort/mythos-jagged-frontier/blob/main/prompts/openbsd-sack.md

  13. Harvard Business School، "التنقل في الحدود التكنولوجية المتعرجة"، سبتمبر 2023. https://www.hbs.edu/faculty/Pages/item.aspx?num=64700

  14. Organization Science، "التنقل في الحدود التكنولوجية المتعرجة: أدلة تجريبية ميدانية"، مارس 2026. https://pubsonline.informs.org/doi/10.1287/orsc.2025.21838

  15. TechCrunch، "هل تقيد Anthropic إصدار Mythos لحماية الإنترنت — أم لحماية Anthropic؟" 9 أبريل 2026. https://techcrunch.com/2026/04/09/is-anthropic-limiting-the-release-of-mythos-to-protect-the-internet-or-anthropic/

الأسئلة الشائعة

تشير الحدود المتعرجة إلى النتيجة التي تفيد بأن أداء نماذج AI في الأمن السيبراني لا يتوسع بسلاسة مع حجم النموذج أو جيله أو سعره. تتغير التصنيفات تماماً عبر المهام المختلفة — فالنموذج الذي يتصدر في اكتشاف الثغرات الأمنية قد ينخفض أداؤه في تصفية النتائج الإيجابية الكاذبة، وقد يتفوق نموذج صغير على نموذج رائد (frontier model) في مهام استنتاج أمني محددة.

نشرة أسبوعية مجانية

ابقَ على مسار النيرد

بريد واحد أسبوعياً — دورات، مقالات معمّقة، أدوات، وتجارب ذكاء اصطناعي.

بدون إزعاج. إلغاء الاشتراك في أي وقت.