Google تكتشف أول Zero-Day تم بناؤه بالذكاء الاصطناعي في هجوم واقعي
١٢ مايو ٢٠٢٦
أعلنت مجموعة استخبارات التهديدات التابعة لشركة Google (GTIG) في 11 مايو 2026 أنها حددت ما تعتقد أنه أول ثغرة أمنية "zero-day" معروفة تم تطويرها بمساعدة الذكاء الاصطناعي واستخدمها فاعل تهديد إجرامي في العالم الحقيقي. الثغرة — وهي تجاوز للمصادقة الثنائية (2FA) في أداة إدارة ويب مفتوحة المصدر ومنتشرة على نطاق واسع، تم تنفيذها كسكربت Python — تم اكتشافها وإصلاحها بهدوء قبل أن يتمكن المهاجمون من إطلاق ما تصفه GTIG بأنه "حدث استغلال جماعي" مخطط له.1
ما ستتعلمه
- ما وجدته GTIG بالفعل ولماذا يعد هذا علامة فارقة مختلفة عن أي شيء رأيناه من قبل
- البصمات التقنية التي كشفت عن أصل كود الاستغلال المولد بواسطة الذكاء الاصطناعي
- كيف يختلف هذا عن Claude Mythos من Anthropic و Project Glasswing — وهو مشروع دفاعي
- لماذا يهم تأطير John Hultquist بأن "الأمر قد بدأ بالفعل" لكل فريق أمني
- ما يجب على المدافعين فعله هذا الأسبوع، وهذا الربع، وهذا العام
ملخص
في 11 مايو 2026، كشفت مجموعة استخبارات التهديدات من Google أن مجموعة جرائم سيبرانية ذات دوافع مالية استخدمت نموذج ذكاء اصطناعي متطور لتطوير ثغرة zero-day فعالة لتجاوز المصادقة الثنائية (2FA) في نظام إدارة أدوات ويب شهير مفتوح المصدر. قدرت GTIG "بثقة عالية" أن كود الاستغلال تمت كتابته بمساعدة كبيرة من الذكاء الاصطناعي: احتوى سكربت Python على تعليقات توضيحية (docstrings) تعليمية مكثفة، و درجة CVSS وهمية (hallucinated) لثغرة لم يتم تخصيص CVE لها مطلقًا، وهيكل Pythonic "مثالي" يتميز به الكود المولد بواسطة نماذج اللغة الكبيرة (LLM). عملت Google مع المورد غير المعلن لإصلاح الثغرة بهدوء قبل أن يتمكن المهاجمون من تفجير "حدث استغلال جماعي". لم تذكر GTIG اسم المورد المتأثر، أو فاعل التهديد، أو نموذج الذكاء الاصطناعي المحدد الذي استخدمه المهاجمون — لكنها صرحت بوضوح أنها واثقة من أن النموذج لم يكن Gemini من Google ولا Mythos Preview من Anthropic. تحدّث هذه النتائج تقرير تهديدات الذكاء الاصطناعي الصادر عن GTIG في نوفمبر 2025 (PROMPTFLUX، FRUITSHELL) وتؤكد ما كان المجتمع الأمني يستعد له: لقد وصلت ثغرات zero-day المطورة بالذكاء الاصطناعي إلى أرض الواقع.2
لماذا تعد هذه علامة فارقة مختلفة
ليست هذه هي المرة الأولى التي يشارك فيها الذكاء الاصطناعي في هجوم سيبراني. يستخدم الخصوم نماذج اللغة الكبيرة (LLMs) منذ عام 2023 لترجمة طُعم التصيد الاحتيالي، وسكربتات الهندسة الاجتماعية، وأعمال الاستطلاع للمبتدئين، وتعديل البرامج الضارة الخفيفة. فهرس تقرير GTIG الخاص بشهر نوفمبر 2025 PROMPTFLUX، وهو برنامج إسقاط (dropper) بلغة VBScript يستدعي API الخاص بـ Gemini في وقت التشغيل لتغيير كود التهرب الخاص به، و FRUITSHELL، وهو غلاف عكسي (reverse shell) بلغة PowerShell مشفر بداخلة مطالبات (prompts) مصممة للتلاعب بالأدوات الدفاعية القائمة على نماذج اللغة الكبيرة. هذه استخدامات حقيقية للذكاء الاصطناعي في الواقع، وهي مثيرة للقلق.3
ما يميز اكتشاف 11 مايو هو الملكية الكاملة من البداية إلى النهاية لخط إنتاج ثغرات zero-day بواسطة الذكاء الاصطناعي. لم يقم النموذج بترجمة رسالة تصيد أو صياغة حمولة بشكل عشوائي — بل تقدر GTIG بثقة عالية أنه حدد خللاً منطقيًا دلاليًا (semantic logic flaw) لم يكن معروفًا من قبل، وحلل افتراض ثقة في المصادقة الثنائية (2FA)، وأنتج سكربت Python وظيفيًا حول هذا الخلل إلى تجاوز للمصادقة. هذه هي حلقة اكتشاف الثغرة ← تحويلها لسلاح ← كود الاستغلال التي يقضي باحثو الأمن الهجومي البشريون حياتهم المهنية في بناء المهارات فيها. صياغة GTIG الخاصة هي أن فاعل التهديد "استغل نموذج ذكاء اصطناعي لدعم اكتشاف هذه الثغرة وتحويلها إلى سلاح".4
البصمات التقنية التي كشفت الأمر
تعتمد ثقة GTIG في الأصل المدعوم بالذكاء الاصطناعي لسكربت الاستغلال على ثلاث إشارات ملموسة في سكربت Python نفسه:
- درجة CVSS وهمية. تشير وثائق السكربت إلى درجة خطورة CVSS للثغرة الأساسية — باستثناء أن الثغرة لم يتم الكشف عنها مطلقًا، ولم يتم تخصيص CVE لها مطلقًا، وبالتالي لم يكن لها حساب CVSS رسمي أبدًا. يبدو أن الدرجة قد تم فبركتها بواسطة نموذج الذكاء الاصطناعي بناءً على نمط بيانات التدريب الخاصة به حول كيفية توثيق كود الاستغلال، وليس من أي عملية تقييم حقيقية. هذا هو بالضبط نوع التفاصيل "التي تبدو معقولة ولكنها مستحيلة موضوعيًا" والتي تميز الكود المولد بواسطة نماذج اللغة الكبيرة عن الكود الذي يكتبه البشر.5
- تعليقات توضيحية (docstrings) تعليمية مفرطة. السكربت مليء بنصوص المساعدة، والتعليقات التوضيحية المضمنة، والتعليقات المنظمة بكثافة لا ينتجها أي مؤلف لثغرات استغلال حقيقية. عادةً ما يكون كود الاستغلال الحقيقي من المجموعات الإجرامية غامضًا، ومقتضبًا، ومجهزًا للتخفي — وليس نثراً بأسلوب الكتب المدرسية مثل "تقوم هذه الوظيفة بإجراء فحص حتمي مقابل المعلمة X" كما لاحظت GTIG.6
- هيكل Pythonic نظيف ومثالي. يستخدم السكربت تخطيطًا منظمًا — فئة ألوان ANSI
_Cمرتبة لمخرجات الجهاز الطرفي، وقوائم مساعدة مفصلة، وشكل كود عام تصفه GTIG بأنه "مميز للغاية لبيانات تدريب نماذج اللغة الكبيرة". نادرًا ما تبدو مجموعات أدوات الاستغلال الإجرامية مثل دروس Python التعليمية؛ لكن هذا السكربت بدا كذلك.7
الثغرة الأساسية هي أيضًا درس مستفاد. وصف GTIG الخاص هو أن تجاوز المصادقة الثنائية (2FA) "ينبع من خلل منطقي دلالي عالي المستوى ناتج عن افتراض ثقة مشفر بداخل الكود، وهو أمر تبرع نماذج اللغة الكبيرة في اكتشافه." بعبارة أخرى: يضع الكود افتراضًا حول من هو موثوق به، وهذا الافتراض يظل صحيحًا في التدفق الطبيعي ولكنه ينهار تحت مدخلات معادية، والنموذج جيد في ملاحظة هذا النوع من الأخطاء بالضبط. يقرأ النموذج الكود، ويحلل الافتراض، ويظهر الحالة التي يمكن فيها انتهاكه. هذا عمل فكري، وليس مجرد مطابقة أنماط.8
مشهد التهديدات الأوسع: PROMPTFLUX و FRUITSHELL والآن هذا
يعد كشف GTIG في مايو 2026 تحديثًا لتقريرها الصادر في نوفمبر 2025، بعنوان التقدم في استخدام فاعلي التهديد لأدوات الذكاء الاصطناعي. حدد ذلك التقرير السابق ثلاث فئات من استخدامات الذكاء الاصطناعي المعادية التي يجب على المجتمع تتبعها:9
| الفئة | مثال | ماذا تفعل |
|---|---|---|
| استدعاءات نماذج اللغة الكبيرة أثناء التنفيذ | PROMPTFLUX | يقوم برنامج إسقاط VBScript بالاستعلام من API الخاص بـ Gemini للحصول على كود تعمية جديد أثناء التشغيل |
| تحصين حقن المطالبات ضد المدافعين | FRUITSHELL | يحمل الغلاف العكسي PowerShell مطالبات مشفرة مصممة للتلاعب بالكشف القائم على نماذج اللغة الكبيرة |
| تطوير الثغرات بمساعدة الذكاء الاصطناعي | اكتشاف هذا الأسبوع | يستخدم فاعل التهديد نموذجًا متطورًا لتحديد ثغرة zero-day وإنتاج استغلال فعال |
يغلق اكتشاف 11 مايو الصف الثالث. كما يشير ضمنيًا إلى أن الفئات الأخرى آخذة في التوسع — كان PROMPTFLUX في مرحلة تطوير تجريبية عندما وثقته GTIG؛ وقد ضاقت فجوة الثقة لدى المجموعة بشأن مدى نضج سلاسل الأدوات هذه بشكل كبير.
ما لن تخبرك به Google — ولماذا يعد ذلك منطقيًا
هناك ثلاثة أشياء لم ترد في التقرير، عمدًا:
- اسم المورد الذي كانت أداته معرضة للخطر. عملت GTIG مع المورد لإصلاح الثغرة بهدوء. كان من شأن تسمية المنتج علنًا أن يفتح نافذة للمهاجمين الذين لم يقوموا بالتحديث بعد لاستغلال نفس الخلل قبل أن يقوم المستخدمون بالتحديث.
- اسم الجهة المهددة. تصف GTIG المجموعة فقط بأن لديها "سجلًا قويًا من الحوادث رفيعة المستوى والاستغلال الجماعي". تشير هذه اللغة بقوة إلى مجموعة راسخة ذات دوافع مالية قد يتعرف عليها مجتمع الأمن بالاسم. حجب هذا الاسم يحد من الوعي الظرفي للمهاجم حول كيفية عمل كشف Google.
- نموذج AI المحدد المستخدم. صرحت Google صراحةً أنها واثقة من أن النموذج ليس Gemini ولا Anthropic's Mythos Preview. يترك هذا مجالًا واسعًا: المرشحون الأكثر احتمالاً هم نماذج الـ frontier مفتوحة الأوزان التي يمكن تشغيلها بشكل خاص، أو واجهات برمجة تطبيقات (APIs) مدفوعة يتم الوصول إليها من خلال بيانات اعتماد مشتركة. اختيار GTIG عدم التحديد يتماشى مع عدم تقديم توصية للمهاجمين بـ "استخدم هذا النموذج، إنه يعمل".
هذا إفصاح مسؤول عن ادعاء بقدرة، وليس إعلانًا تسويقيًا. شكل النتيجة يهم أكثر من أسماء اللاعبين المحددين المعنيين.
اقتباس Hultquist الذي سيتم الاستشهاد به كثيرًا
John Hultquist، كبير المحللين في Google Threat Intelligence Group، صاغ الإفصاح بلغة وصلت إلى كل وسيلة إعلامية كبرى تغطي الخبر. في تصريحات نقلتها الصحافة حول الإفصاح، قال: "لقد وصل الأمر. عصر الثغرات والاستغلال المدفوع بـ AI موجود بالفعل." وفي الصياغة الرسمية لـ GTIG، وصف الاكتشاف بأنه "قمة جبل الجليد"، مضيفًا أن "هذه المشكلة ربما تكون أكبر بكثير؛ هذا مجرد أول دليل ملموس يمكننا رؤيته."10
هناك شيئان يستحقان التحليل في تلك الصياغة. أولاً، يقوم Hultquist صراحةً بتصحيح مفهوم خاطئ بأن التهديد في المستقبل القريب؛ إنه يضعه بحزم في زمن المضارع. ثانيًا، لغة "قمة جبل الجليد" تقر بأن كشف GTIG محدود الإشارة. يتطلب الكشف العثور على الآثار: درجات تقييم مهلوسة، هيكل كتابي مثالي، وسلاسل توثيق (docstrings) مفرطة. المهاجم الأكثر انضباطًا الذي يزيل تلك العلامات من الكود المولد بواسطة AI قبل النشر لا يترك بصمة واضحة لـ LLM. يقول Hultquist، بين السطور، إن المجموعة التي ضبطتها GTIG كانت "صاخبة"، ومن المرجح أن المجموعات الهادئة تعمل بالفعل.
كيف يتقاطع هذا مع Project Glasswing من Anthropic
المقارنة مع Project Glasswing من Anthropic، الذي تم إطلاقه في أبريل 2026، مذهلة. قيدت Anthropic الوصول إلى نموذجها الأكثر قدرة في المجال السيبراني — Claude Mythos Preview، الذي أُعلن عنه في 7 أبريل 2026 — خصيصًا للمدافعين، بناءً على نظرية أن منح 12 شريك إطلاق (AWS، Apple، Broadcom، Cisco، CrowdStrike، Google، JPMorgan Chase، Linux Foundation، Microsoft، NVIDIA، Palo Alto Networks، و Anthropic نفسها) بالإضافة إلى أكثر من 40 منظمة بنية تحتية حيوية إضافية وصولاً دفاعيًا مبكرًا سيسمح لهم بتحصين البرمجيات الحيوية قبل أن تصبح القدرة المماثلة متاحة على نطاق واسع للمهاجمين.11
تعد نتيجة GTIG في 11 مايو أقوى دليل تجريبي حتى الآن على أن رهان Anthropic مهم. المدافعون لا يسابقون نموذجًا مستقبليًا افتراضيًا — بل يسابقون مهاجمين لديهم بالفعل خط أنابيب استغلال تشغيلي مدعوم بـ AI. تمتلك منظمات شركاء Glasswing أسبقية تُقاس بالأسابيع، وليس بالسنوات. ما إذا كانت هذه الأسبقية كافية هو الآن السؤال التشغيلي المركزي لكل CISO يتضمن سطح هجومه أدوات إدارة مفتوحة المصدر — وهو تقريبًا كل CISO.
ما يجب على المدافعين فعله — هذا الأسبوع، هذا الربع، هذا العام
إفصاح GTIG يفتقر إلى النصائح الإرشادية، لكن تداعيات نمذجة التهديدات مباشرة.
هذا الأسبوع:
- قم بمراجعة أدوات إدارة الويب مفتوحة المصدر الخاصة بك للتأكد من عمق تنفيذ 2FA. الأداة المحددة التي تشير إليها GTIG غير مسمى، لكن الفئة — إدارة الأنظمة القائمة على الويب والمفتوحة المصدر مع بوابة 2FA — تصف عشرات المنتجات المنتشرة على نطاق واسع. ابحث تحديدًا عن افتراضات الثقة المبرمجة مسبقًا في مسار المصادقة: في أي مكان يقول فيه الكود الخاص بك "إذا تجاوز المستخدم الخطوة X، فافترض أن الخطوة Y صالحة أيضًا"، فهذه هي بالضبط فئة الثغرات التي سيلاحظها LLM.
- قم بالتحديث بقوة، حتى في الإصدارات الاستشارية فقط. قام المورد في هذه الحالة بإصلاح الثغرة بهدوء، مما يعني أن العديد من أنظمة الإنتاج تتلقى الإصلاح كترقية روتينية للإصدار بدلاً من كونه تنبيهًا عاجلاً. تعامل مع جميع التصحيحات المتعلقة بـ 2FA في أدوات الإدارة مفتوحة المصدر على أنها حرجة حتى يثبت العكس هذا الربع.
هذا الربع:
- أضف كشف بصمة LLM إلى خط أنابيب تحليل الاستغلال الخاص بك. حددت GTIG هذا الاستغلال من خلال سلاسل التوثيق النموذجية، ودرجة CVSS المهلوسة، وهيكل Python النظيف. يجب أن يكون محللو الاستجابة للحوادث مستعدين للتعرف على نفس البصمات عندما تظهر في حمولات مشبوهة على شبكتك. أصبح هذا فئة حقيقية من الإشارات الجنائية.
- اختبر قوة كشفك ضد البرمجيات الخبيثة المولدة بواسطة AI. تعني PROMPTFLUX و FRUITSHELL والآن خطوط أنابيب الاستغلال المطورة بواسطة AI أن افتراض "البرمجيات الخبيثة كتبها إنسان وتبدو وكأن إنسانًا كتبها" أصبح الآن خاطئًا. تمارين الفريق الأحمر (Red-team) التي تتضمن حمولات مولدة بواسطة LLM — والتي يسهل تكليفها داخليًا — ستكشف عن فجوات في الكشف لا تتوقعها كتيبات التشغيل الحالية لديك.
هذا العام:
- تعامل مع اكتشاف ثغرات zero-day المولد بواسطة AI كتهديد هيكلي، وليس عرضيًا. إذا كانت صياغة GTIG لـ "قمة جبل الجليد" صحيحة، فإن المعدل التشغيلي للاستغلال المطور بواسطة AI مهيأ للارتفاع بشكل غير خطي. المدافعون الذين يخططون لدورتهم 2026-2027 بناءً على افتراض أن الثغرات غير المفصح عنها سابقًا سيتم تحويلها إلى سلاح بشكل أسرع مما كانت عليه في أي وقت مضى في تاريخ الحوسبة سيكونون أقرب إلى الصواب من المدافعين الذين يخططون لاستمرار الجداول الزمنية لعام 2024.
ملخص
قضت صناعة الأمن السيبراني عامين في الجدال حول متى سيغير الذكاء الاصطناعي بشكل ملموس الجانب الهجومي من توازن الأمن. يحسم إفصاح GTIG في 11 مايو هذا الجدل. إن استغلال الثغرات الصفرية بمساعدة الذكاء الاصطناعي موجود في الواقع، وقد تم ضبطه بالصدفة في كود لم يتم تطهيره من بصمات نماذج اللغة الكبيرة (LLM)، ومن المؤكد تقريبًا أن هناك "أشقاء" أكثر هدوءًا وتطهيرًا يعملون بالفعل. يمتلك جانب المدافعين ميزته الخاصة في الذكاء الاصطناعي — مشروع Project Glasswing من Anthropic، واستخدام Google الدفاعي لـ Gemini، والبنية التحتية لتقييم AISI — لكن عدم التماثل أصبح الآن حقيقيًا وثنائي الاتجاه. خطط بناءً على ذلك.
Footnotes
-
Bloomberg, "Google Researchers Detect First AI-Built Zero-Day Exploit in Cyberattack" — bloomberg.com. ↩
-
Google Cloud, "Adversaries Leverage AI for Vulnerability Exploitation, Augmented Operations, and Initial Access" — cloud.google.com/blog/topics/threat-intelligence. ↩
-
Google Cloud, "GTIG AI Threat Tracker: Advances in Threat Actor Usage of AI Tools" (November 2025) — cloud.google.com/blog/topics/threat-intelligence. ↩
-
The Hacker News, "Hackers Used AI to Develop First Known Zero-Day 2FA Bypass for Mass Exploitation" — thehackernews.com. ↩
-
SecurityWeek, "Google Detects First AI-Generated Zero-Day Exploit" — securityweek.com. ↩
-
BleepingComputer, "Google: Hackers used AI to develop zero-day exploit for web admin tool" — bleepingcomputer.com. ↩
-
Cybernews, "First AI-assisted zero-day exploit discovered by Google" — cybernews.com. ↩
-
Help Net Security, "Google researchers uncover criminal zero-day exploit likely built with AI" — helpnetsecurity.com. ↩
-
Google Cloud Blog, GTIG AI Threat Tracker, November 2025 — cloud.google.com. ↩
-
Insurance Journal, "Hackers Pushing Innovation in AI-Enabled Hacking Operations, Google Says" — Hultquist quote — insurancejournal.com. ↩
-
Anthropic, "Project Glasswing" — anthropic.com/glasswing. ↩
-
CNBC, "Google says it likely thwarted effort by hacker group to use AI for 'mass exploitation event'" — cnbc.com. ↩
-
Infosecurity Magazine, "Hackers Observed Using AI to Develop Zero-Day for the First Time" — infosecurity-magazine.com. ↩
-
CyberScoop, "Google spotted an AI-developed zero-day before attackers could use it" — cyberscoop.com. ↩
-
The Register، "Google تقول إن المجرمين استخدموا ثغرة zero-day مطورة بالذكاء الاصطناعي في حملة اختراق جماعية مخططة" — theregister.com. ↩
-
SiliconANGLE، "Google تقول إن المجرمين استخدموا الذكاء الاصطناعي لبناء استغلال zero-day فعال لأول مرة" — siliconangle.com. ↩
-
Cybersecurity Dive، "باحثون يحذرون: استخدام الذكاء الاصطناعي لتطوير استغلال zero-day فعال" — cybersecuritydive.com. ↩