أمر ترامب بخصوص AI على غرار FDA: التراجع عن سياسة Mythos لعام
٩ مايو ٢٠٢٦
ملخص
تستعد إدارة ترامب في البيت الأبيض لصياغة أمر تنفيذي من شأنه إخضاع نماذج AI الجديدة لمراجعة سلامة على غرار أسلوب إدارة الغذاء والدواء (FDA) قبل طرحها للجمهور، حسبما صرح مدير المجلس الاقتصادي الوطني كيفن هاسيت لشبكة Fox Business يوم الأربعاء 6 مايو 2026.1 وكانت صحيفة نيويورك تايمز قد ذكرت قبل ذلك بيومين أن الإدارة تدرس إصدار أمر تنفيذي لإنشاء مجموعة عمل للذكاء الاصطناعي وعملية مراجعة حكومية رسمية لنماذج AI الجديدة، حيث أطلع مسؤولو البيت الأبيض التنفيذيين في Anthropic وGoogle وOpenAI على الخطط.2 وكان المحرك لهذا القرار هو نموذج Claude Mythos Preview من شركة Anthropic، الذي أُعلن عنه في 7 أبريل 2026، والذي اكتشف بشكل مستقل آلاف الثغرات الصفرية (zero-day) — بما في ذلك ثغرة في OpenBSD عمرها 27 عامًا و271 خللًا في Firefox.34 إذا تم التوقيع عليه، فسيمثل هذا الأمر التحول الأكثر حدة حتى الآن لإدارة ألغت أمر بايدن لسلامة الذكاء الاصطناعي في يومها الأول في يناير 2025.
ما ستتعلمه
- ما الذي سيتطلبه فعليًا أمر تنفيذي للذكاء الاصطناعي على غرار FDA، وما الذي لم يتقرر بعد
- كيف تسبب نموذج Claude Mythos Preview من Anthropic في هذا التحول في السياسة
- ماذا تعني اتفاقيات ما قبل النشر الجديدة لـ CAISI مع Google DeepMind وMicrosoft وxAI
- لماذا يمثل هذا تراجعًا حادًا عن الأمر التنفيذي رقم 14179 وخطة عمل الذكاء الاصطناعي لشهر يوليو 2025
- ماذا يعني تحذير "نافذة الستة إلى اثني عشر شهرًا" من الرئيس التنفيذي لشركة Anthropic للمدافعين عن البرمجيات
- ما الذي يجب على الشركات والمطورين الاستعداد له مع تبلور ملامح الأمر
ما الذي سيفعله الأمر التنفيذي للذكاء الاصطناعي على غرار FDA
في حديثه لبرنامج "Mornings with Maria" على قناة Fox Business يوم الأربعاء 6 مايو 2026، وصف هاسيت الاقتراح بمصطلحات مستعارة مباشرة من تنظيم الأدوية. وقال إن الإدارة "تدرس احتمال إصدار أمر تنفيذي لإعطاء خارطة طريق واضحة للجميع حول كيفية سير الأمور وكيف ينبغي أن تمر أنظمة AI المستقبلية التي قد تخلق ثغرات بعملية معينة بحيث يتم إطلاقها للعلن بعد إثبات سلامتها، تمامًا مثل أدوية FDA".1
هناك ثلاثة أمور واضحة من التقارير العامة حتى الآن. أولاً، الإطار صريح بشأن مراجعة السلامة قبل الإصدار — وليس تدقيق ما بعد النشر أو الإفصاح الطوعي. ثانيًا، قال هاسيت إنه "من المرجح تمامًا" أن تمتد أي متطلبات اختبار لتشمل جميع شركات AI، وليس فقط المختبرات الرائدة التي لديها بالفعل ترتيبات طوعية مع الحكومة الأمريكية.5 ثالثًا، تشير تقارير نيويورك تايمز الصادرة في 4 مايو — والمستندة إلى أشخاص اطلعوا على المحادثات بين التنفيذيين في Anthropic وGoogle وOpenAI وأعضاء الإدارة — إلى أن الاقتراح قيد الدراسة يتضمن مجموعة عمل للذكاء الاصطناعي وعملية مراجعة حكومية رسمية لنماذج AI الجديدة، مع قيام مجموعة العمل نفسها بالمساعدة في تحديد الوكالات المشاركة.2
ما ليس واضحًا هو ما إذا كان الاختبار سيكون إلزاميًا. حتى وقت كتابة هذا التقرير، تشير وسائل إعلام متعددة تنقل عن المسودة إلى أن هذا السؤال لا يزال مفتوحًا داخل الإدارة، حيث يفضل بعض المسؤولين نهجًا مرنًا بينما يدفع آخرون باتجاه فحص صارم وإلزامي.6 هذا التمييز يمثل أهمية قصوى: فالمراجعة الإلزامية قبل الإصدار ستكون أهم تنظيم للذكاء الاصطناعي في تاريخ الولايات المتحدة، بينما التوسع الطوعي سيقنن بشكل أساسي ما يحدث بالفعل على أساس التفاهم الودي.
لماذا تسبب نموذج Mythos من Anthropic في التحول في السياسة
لفهم سبب تحرك الإدارة، عليك أن تفهم ما يمكن لـ Mythos فعله.
أعلنت Anthropic عن Claude Mythos Preview في 7 أبريل 2026، ووصفته بأنه نموذج لغوي عام تبين، أثناء الاختبار، أنه قوي بشكل غير متوقع في الأمن السيبراني الهجومي.3 وفي الأسابيع التي تلت ذلك، كشفت Anthropic أن Mythos Preview قد حدد واستغل بشكل مستقل ثغرات صفرية عبر كل أنظمة التشغيل والمتصفحات الرئيسية — بما في ذلك ثغرة TCP SACK عمرها 27 عامًا في OpenBSD تم إصلاحها الآن، وخلل في ترميز H.264 عمره 16 عامًا في FFmpeg، وثغرة تنفيذ تعليمات برمجية عن بُعد في NFS عمرها 17 عامًا في FreeBSD يتم تتبعها الآن كـ CVE-2026-4747.7
كانت أرقام Firefox هي الأكثر تأثيرًا. كشفت Mozilla أن Firefox 150 تم شحنه مع إصلاحات لـ 271 ثغرة أمنية حددها Mythos Preview خلال التقييم المبكر — وهي قفزة هائلة من 22 ثغرة أمنية حساسة وجدها نموذج Opus 4.6 السابق من Anthropic في Firefox 148 قبل بضعة أشهر.4
لا تخطط Anthropic لإتاحة Mythos Preview بشكل عام.3 وبدلاً من ذلك، وبالتزامن مع الكشف عن Mythos Preview في 7 أبريل 2026، أطلقت الشركة Project Glasswing، وهو تحالف من 12 شريك إطلاق لديهم وصول مباشر إلى النموذج: AWS وApple وAnthropic وBroadcom وCisco وCrowdStrike وGoogle وJPMorganChase وLinux Foundation وMicrosoft وNVIDIA وPalo Alto Networks.8 تم منح وصول موسع لأكثر من 40 منظمة إضافية تدير بنية تحتية برمجية حيوية. والتزمت Anthropic بتقديم ما يصل إلى 100 مليون دولار في شكل أرصدة استخدام عبر هذه الجهود و4 ملايين دولار في شكل تبرعات مباشرة لأعمال الأمن مفتوحة المصدر.8
جاءت اللحظة السياسية الوشيكة في 5 مايو 2026، عندما وصف داريو أمودي، الرئيس التنفيذي لشركة Anthropic، علنًا "لحظة خطر" — وهي نافذة مدتها ستة إلى اثني عشر شهرًا تحتاج فيها المؤسسات إلى إصلاح عشرات الآلاف من الثغرات التي كشفها Mythos قبل أن يلحق بها الذكاء الاصطناعي المعادي.9 وقدر أمودي أن المختبرات الرائدة الغربية الأخرى تتأخر بشهر إلى ثلاثة أشهر عن Mythos في القدرة السيبرانية الهجومية، بينما تتأخر النماذج الصينية بستة إلى اثني عشر شهرًا.10 وبحلول يوم الأربعاء، كان هاسيت على شاشة التلفزيون يستشهد بـ FDA.
لدى CAISI بالفعل اتفاقيات ما قبل النشر مع ثلاثة مختبرات
لم يأتِ نقاش الأمر التنفيذي من فراغ. ففي يوم الثلاثاء 5 مايو 2026 — اليوم السابق لظهور هاسيت على Fox Business — أعلنت وزارة التجارة أن Center for AI Standards and Innovation (CAISI)، الموجود داخل المعهد الوطني للمعايير والتكنولوجيا (NIST)، قد وقع تعاونات موسعة مع Google DeepMind وMicrosoft وxAI لإجراء تقييمات ما قبل النشر لنماذج AI الرائدة.11
تتمتع الاتفاقيات الجديدة بعدة خصائص بارزة. سيتم اختبار النماذج في بيئات مصنفة، ويركز التقييم بشكل صريح على "المخاطر القابلة للإثبات" — الأمن السيبراني، والأمن البيولوجي، ومخاطر الأسلحة الكيميائية بدلاً من القدرة العامة أو التحيز.12 وقد أجرى مركز CAISI حتى الآن حوالي 40 تقييماً من هذا القبيل، بما في ذلك بعض النماذج التي لم يتم إصدارها بعد.6 وتستند الصفقات الجديدة إلى الاتفاقيات التطوعية الأصلية لعام 2024 مع OpenAI وAnthropic — وهي الأولى من نوعها — والتي ورثتها إدارة Trump واختارت تمديدها بدلاً من تفكيكها.11
ما لا تفعله اتفاقيات 5 مايو هو جعل الاختبار إلزامياً. لا يزال دور CAISI استشارياً، وتشارك المختبرات طواعية. وسيكون الأمر التنفيذي المقترح على غرار أسلوب FDA هو الآلية لتحويل ذلك النظام التطوعي إلى نظام ملزم — إذا اختارت الإدارة اتخاذ تلك الخطوة.
تحول حاد: من الأمر التنفيذي 14179 إلى الفحص على طراز FDA
هذا التحول هو ما يجعل هذه القصة ذات أهمية سياسية. كانت سياسة الذكاء الاصطناعي لإدارة Trump، حتى هذا الشهر، محددة بإلغاء القيود التنظيمية:
| التاريخ | الإجراء | الاتجاه |
|---|---|---|
| 20 يناير 2025 | Trump يلغي الأمر التنفيذي 14110 لـ Biden (30 أكتوبر 2023) في غضون ساعات من توليه منصبه | إلغاء القيود التنظيمية |
| 23 يناير 2025 | Trump يوقع الأمر التنفيذي 14179، "إزالة الحواجز أمام القيادة الأمريكية في الذكاء الاصطناعي" | إلغاء القيود التنظيمية |
| 23 يوليو 2025 | البيت الأبيض يصدر "الفوز بالسباق: خطة عمل أمريكا للذكاء الاصطناعي" مع 90 موقفاً للسياسة الفيدرالية | إلغاء القيود التنظيمية |
| 11 ديسمبر 2025 | Trump يوقع الأمر التنفيذي 14365، "ضمان إطار سياسة وطني للذكاء الاصطناعي"، مستهدفاً قوانين الذكاء الاصطناعي في الولايات عبر الأسبقية الفيدرالية | إلغاء القيود التنظيمية (لكن مع الفدرلة) |
| 6 مايو 2026 | Hassett يطرح أمراً تنفيذياً للفحص قبل الإصدار على طراز FDA | تحول نحو الرقابة |
لن يؤدي الأمر المقترح إلى إلغاء أي من التحركات السابقة لإلغاء القيود التنظيمية بشكل مباشر، ولكنه سيعيد تقديم آلية — مراجعة السلامة قبل الإصدار — التي كان الأمر التنفيذي 14110 قد أرساها جزئياً والتي كانت سبباً رئيسياً في قيام Trump بإلغائه. فرض الأمر التنفيذي 14110 متطلبات إبلاغ بموجب قانون الإنتاج الدفاعي على المختبرات التي تدرب نماذج أساسية كبيرة مزدوجة الاستخدام؛ والأمر الذي يتم دراسته على طراز FDA سيذهب إلى أبعد من ذلك من خلال جعل الإصدار مشروطاً بمراجعة فيدرالية.
هذا هو السبب في أن التغطية من وسائل الإعلام عبر مختلف الأطياف قد صاغت هذا الأسبوع على أنه إدارة Trump "تتبنى أفكاراً للرقابة على الذكاء الاصطناعي كانت قد رفضتها سابقاً".13 هذا الصياغة دقيقة: فالإدارة التي قضت أكثر من خمسة عشر شهراً في المجادلة بأن تنظيم الذكاء الاصطناعي الفيدرالي كان عائقاً أمام القيادة الأمريكية، تجادل الآن بأن تنظيم الذكاء الاصطناعي الفيدرالي هو المتطلب الأساسي لها. المتغير الذي تغير هو Mythos.
نافذة الستة إلى الاثني عشر شهراً: لماذا يهم التوقيت
إن صياغة Amodei لـ "لحظة الخطر" تؤدي دوراً حقيقياً في نقاش السياسات، وتستحق أن تؤخذ على محمل الجد بدلاً من اعتبارها مجرد تسويق.
تسير الحجة على النحو التالي: لقد كشف Mythos عن تراكم لثغرات أمنية تعود لعقود لم يكن المدافعون يعرفون عنها. وطالما ظل Mythos والنماذج الأخرى من فئة Mythos مقتصرة على المدافعين — شركاء Project Glasswing، والوكالات الحكومية، والباحثين المعتمدين — يمكن لدورة التصحيح أن تسبق المهاجمين. وبمجرد تسرب نموذج ذو قدرة مماثلة، أو تطويره بشكل مستقل من قبل مختبر أقل اهتماماً بالسلامة، أو استنساخه في الصين، ينهار هذا التباين.9
أعطى تقييم معهد أمن الذكاء الاصطناعي في المملكة المتحدة (UK AISI)، المنشور في أبريل 2026، التحذير وزناً تجريبياً. وجد AISI أن Mythos Preview نجح في 73% من تحديات "الاستحواذ على العلم" (capture-the-flag) على مستوى الخبراء، وكان أول نموذج يكمل بشكل مستقل محاكاة هجوم على شبكة شركات مكونة من 32 خطوة من البداية إلى النهاية — وهو تمرين متعدد الخطوات قدر AISI أنه سيستغرق مشغلاً بشرياً حوالي 20 ساعة.14
بالنسبة لصانع السياسة الأمريكي، هذا هو المبرر للتحرك بسرعة. الأمر التنفيذي على طراز FDA هو، في الواقع، المكمل الهيكلي لـ Project Glasswing: يحاول Glasswing استخدام قدرات فئة Mythos للدفاع قبل أن يمتلكها المهاجمون؛ ويحاول الأمر التنفيذي التأكد من أن النموذج التالي من فئة Mythos — أياً كان من يبنيه — لا يظهر للعلن دون مراجعة فيدرالية للسلامة أولاً.
ماذا يعني هذا لشركات ومطوري الذكاء الاصطناعي
إذا تم توقيع الأمر وكان نموذجاً بشكل عام على وصف Hassett، فإليك الصورة التشغيلية الواقعية:
- المختبرات الرائدة المشاركة بالفعل في برنامج CAISI (Anthropic، OpenAI، Google DeepMind، Microsoft، xAI) ستواجه أقل قدر من الاضطراب على المدى القريب. من المرجح أن تكون اتفاقياتهم الحالية هي النموذج لنظام أكثر رسمية.
- المختبرات الرائدة الأصغر ومطورو النماذج مفتوحة الأوزان يواجهون أكبر قدر من عدم اليقين. ما إذا كان الأمر ينطبق على الإصدارات مفتوحة الأوزان — وعلى النماذج المعدلة (fine-tunes) المبنية فوق النماذج الأساسية — هو أحد الأسئلة التي لم يتم حلها داخل الإدارة.
- مشترو الذكاء الاصطناعي في الشركات يجب أن يتوقعوا إشارة ذات صلة بالمشتريات: "تم تقييمه من قبل CAISI" أو "خاضع للمراجعة الفيدرالية قبل الإصدار" ستصبح خانة ذات مغزى في قوائم التحقق من العناية الواجبة للموردين، على غرار ترخيص FedRAMP لخدمات الحوسبة السحابية.
- فرق الأمن يجب ألا تنتظر الأمر التنفيذي للتحرك بناءً على إفصاحات Mythos. يقوم برنامج Project Glasswing بالفعل بدفع التصحيحات إلى البنية التحتية الحيوية، لكن البرامج المستضافة ذاتياً لا تزال معرضة للخطر. فئات الثغرات التي وجدها Mythos — عيوب المنطق الدلالي التي فاتتها أدوات الفحص العشوائي (fuzzers) — هي التي يجب على كل فريق أمني إعادة ترتيب أولوياتها الآن.
السؤال الأكبر المفتوح هو السؤال الذي تعمد Hassett عدم الإجابة عليه: ما إذا كان نظام الاختبار سيكون إلزامياً أم تطوعياً. النظام التطوعي يكرس أساساً إعلان CAISI في 5 مايو ويوسعه ليشمل مختبرات إضافية. أما النظام الإلزامي فهو جديد حقاً في سياسة الذكاء الاصطناعي الأمريكية وسيتطلب مباركة الكونجرس في نهاية المطاف للصمود أمام التقاضي.
الخلاصة
كان يوم 6 مايو 2026 هو اليوم الذي بدأت فيه إدارة تدعو لإلغاء القيود التنظيمية تتحدث عن الذكاء الاصطناعي كما تتحدث عن الأدوية. كان المحفز هو نموذج واحد من Anthropic اكتشف ثغرات عمرها عقود في برمجيات تعمل على معظم أجهزة الكمبيوتر في العالم. وسواء كان الأمر التنفيذي الذي سيظهر في النهاية إلزامياً أو طوعياً، أو مقتصر النطاق على المخاطر الأمنية أو مطبقاً بشكل واسع على جميع القدرات الرائدة، فإن ذلك سيحدد ما إذا كان هذا استجابة لمرة واحدة لنموذج واحد أو بداية لنظام أمان دائم للذكاء الاصطناعي في الولايات المتحدة.
في الوقت الحالي، التأثير العملي مرئي بالفعل: انضمت Google DeepMind وMicrosoft وxAI للتو إلى OpenAI وAnthropic في برنامج CAISI؛ ويسابق شركاء Project Glasswing الزمن لإصلاح الثغرات التي وجدها Mythos؛ وبقية الصناعة تقرأ نفس قصة New York Times وتحاول معرفة كيف سيكون شكل الامتثال.
إذا كنت تريد سياقاً حول كيفية وصول Mythos إلى هنا، فإن إعلان Project Glasswing الأصلي والتقييم المستقل من AISI هما المصادر الأساسية وراء عناوين الأخبار هذا الأسبوع. ويعد تحليل "الحدود المتعرجة" (jagged-frontier) من AISLE هو أقوى حجة مضادة تشير إلى أن النماذج الأصغر وغير المقيدة يمكنها بالفعل القيام بالمزيد مما يفعله Mythos عما يوحي به تأطير البيت الأبيض — وهو في حد ذاته سبب لأهمية الجدل حول الأمر التنفيذي.
Footnotes
-
"Hassett: White House may review AI models 'like an FDA drug.'" The Hill, May 6, 2026. https://thehill.com/policy/technology/5866292-white-house-ai-evaluation-process/ ↩ ↩2
-
New York Times reporting, May 4, 2026 (https://www.nytimes.com/2026/05/04/technology/trump-ai-models.html), as summarized in Pearl, Mike. "Trump Reportedly Considering Executive Order Aimed at Vetting New AI Models." Gizmodo, May 5, 2026. https://gizmodo.com/trump-reportedly-considering-executive-order-aimed-at-vetting-new-ai-models-2000754493 ↩ ↩2 ↩3
-
Anthropic Frontier Red Team. "Assessing Claude Mythos Preview's cybersecurity capabilities." red.anthropic.com, April 7, 2026. https://red.anthropic.com/2026/mythos-preview/ ↩ ↩2 ↩3 ↩4
-
Holley, Bobby. "The zero-days are numbered." Mozilla Blog, April 21, 2026. https://blog.mozilla.org/en/privacy-security/ai-security-zero-day-vulnerabilities/ ↩ ↩2
-
"White House Prepares Order to Boost AI Security, Hassett Says." Bloomberg, May 6, 2026. https://www.bloomberg.com/news/articles/2026-05-06/white-house-preps-order-to-boost-ai-security-hassett-says ↩
-
"WH 'studying' AI security executive order." Federal News Network, May 6, 2026. https://federalnewsnetwork.com/artificial-intelligence/2026/05/wh-studying-ai-security-executive-order/ ↩ ↩2 ↩3
-
Anthropic. "Project Glasswing: Securing critical software for the AI era." https://www.anthropic.com/glasswing ↩
-
Anthropic. Project Glasswing program announcement, April 7, 2026. https://www.anthropic.com/glasswing ↩ ↩2
-
"الرئيس التنفيذي لشركة Anthropic يحذر من 'لحظة خطر' سيبرانية مع كشف الذكاء الاصطناعي لآلاف الثغرات." CNBC، 5 مايو 2026. https://www.cnbc.com/2026/05/05/anthropic-ceo-cyber-moment-of-danger-mythos-vulnerabilities.html ↩ ↩2 ↩3
-
"الرئيس التنفيذي لشركة Anthropic يتوقع أن أمام الشركات 6 أشهر لإصلاح ثغرات البرمجيات." PYMNTS، مايو 2026. https://www.pymnts.com/artificial-intelligence-2/2026/anthropic-ceo-predicts-firms-have-6-months-to-patch-software-vulnerabilities/ ↩
-
"مركز CAISI التابع لـ NIST يعلن عن اتفاقيات اختبار جديدة لنماذج Frontier AI مع Google DeepMind و Microsoft و xAI." HPCwire، 5 مايو 2026. https://www.hpcwire.com/off-the-wire/nists-caisi-announces-new-frontier-ai-testing-agreements-with-google-deepmind-microsoft-xai/ ↩ ↩2 ↩3
-
"مركز الذكاء الاصطناعي بوزارة التجارة سيقوم بتقييم نماذج Google DeepMind و Microsoft و xAI." Nextgov/FCW، 5 مايو 2026. https://www.nextgov.com/artificial-intelligence/2026/05/commerce-ai-center-will-evaluate-google-deepmind-microsoft-and-xai-models/413349/ ↩
-
"إدارة ترامب تتبنى فجأة أفكار الرقابة على الذكاء الاصطناعي التي رفضتها سابقاً." Fortune، 6 مايو 2026. https://fortune.com/2026/05/06/trump-administration-embraces-ai-oversight-policies-it-once-rejected-anthropic-mythos-caisi/ ↩ ↩2
-
"تقييمنا للقدرات السيبرانية لنموذج Claude Mythos Preview." معهد أمن الذكاء الاصطناعي (AISI)، 13 أبريل 2026. https://www.aisi.gov.uk/blog/our-evaluation-of-claude-mythos-previews-cyber-capabilities ↩
-
"الأمر التنفيذي 14110." Wikipedia. https://en.wikipedia.org/wiki/Executive_Order_14110 ↩