سباق رقائق الذكاء الاصطناعي المخصصة في 2026: Meta و Google و Amazon و Microsoft ضد Nvidia

٢٥ مارس ٢٠٢٦

The Custom AI Chip Race in 2026: Meta, Google, Amazon, and Microsoft vs. Nvidia

ملخص

  • كل مزود سحابي رئيسي ومختبر ذكاء اصطناعي يصمم الآن رقائق ذكاء اصطناعي مخصصة — وهو تحول استراتيجي مدفوع بالتكلفة، ومخاطر الإمداد، والحاجة إلى تحسين الأداء لمهام محددة.1234
  • أعلنت Meta عن أربعة أجيال من رقائق MTIA (300–500) في مارس 2026، مبنية على RISC-V، مع زيادة في قدرة الحوسبة تصل إلى 25 ضعفاً عبر التشكيلة.1
  • تقدم رقاقة Trillium (TPU v6e) من Google قدرة حوسبة قصوى تبلغ 4.7 ضعفاً مقارنة بـ TPU v5e، مع 32 جيجابايت من ذاكرة HBM لكل رقاقة، وهي متاحة بشكل عام مع نشر أكثر من 100,000 رقاقة.2
  • توفر رقاقة Trainium3 من Amazon قدرة حوسبة تبلغ 2.52 PFLOPs بتنسيق FP8، و144 جيجابايت من ذاكرة HBM3e، وتستخدمها بالفعل Anthropic وOpenAI للتدريب والاستنتاج.3
  • تعتمد Maia 200 من Microsoft على تقنية TSMC 3nm مع أكثر من 140 مليار ترانزستور و216 جيجابايت HBM3e، وتدعي أداءً في FP4 يبلغ 3 أضعاف أداء Trainium3.4
  • تظل Nvidia مهيمنة مع B300 Blackwell Ultra (288 جيجابايت HBM3e، و15 PFLOPs dense FP4)، لكن الفجوة تضيق.5

ما ستتعلمه

  1. لماذا تستثمر أكبر شركات التكنولوجيا المليارات في رقائق ذكاء اصطناعي مخصصة بدلاً من الاعتماد الكلي على Nvidia.
  2. ماذا تقدم كل رقاقة رئيسية — مع مواصفات مؤكدة وبيانات نشر حقيقية.
  3. كيف تتقارن هذه الرقائق من حيث الذاكرة، والحوسبة، وكفاءة الطاقة، والنطاق.
  4. ماذا يعني هذا للمطورين، وتكاليف السحابة، ونظام الذكاء الاصطناعي البيئي.
  5. أين تقف Nvidia — وهل هيمنتها مهددة حقاً.

المتطلبات الأساسية

هذا الدليل مكتوب للمطورين، والمهندسين، وعشاق التكنولوجيا الذين يرغبون في فهم طبقة الأجهزة التي تشغل الذكاء الاصطناعي الحديث. إلمام أساسي بـ:

  • ما تفعله وحدات معالجة الرسومات GPUs والمسرعات في أعباء عمل الذكاء الاصطناعي (التدريب والاستنتاج).
  • مفاهيم الحوسبة السحابية (AWS، Azure، GCP).
  • مصطلحات مثل FLOPs، HBM، ودقة FP8/FP4.

إذا سبق لك حجز مثيل GPU أو تساءلت عن سبب ارتفاع فاتورة الاستنتاج الخاصة بك، فأنت في المكان الصحيح.


مقدمة: نهاية عصر المورد الواحد

على مدار العقد الماضي، هيمنت شركة واحدة على حوسبة الذكاء الاصطناعي: Nvidia. أصبحت وحدات معالجة الرسومات الخاصة بها — من V100 إلى A100 وصولاً إلى H100 — المعيار الفعلي لتدريب وتشغيل نماذج الذكاء الاصطناعي. حققت السنة المالية 2026 لشركة Nvidia (المنتهية في يناير 2026) إيرادات بلغت 215.9 مليار دولار، بزيادة قدرها 65% على أساس سنوي، مدفوعة بالكامل تقريباً بالطلب على مراكز البيانات.5

لكن هذه الهيمنة خلقت مشكلة. عندما يتحكم مورد واحد في المكون الأكثر أهمية في بنية الذكاء الاصطناعي، يصبح كل عميل عرضة للخطر من الناحية الاستراتيجية. بحلول أوائل عام 2026، كانت كل من Microsoft وMeta وAmazon تدير أساطيل من وحدات معالجة الرسومات تقدر بالملايين من مكافئات H100 — وجميعها مستمدة أساساً من مورد واحد.6 قيود التصدير، واختناقات الإمداد، وقوة التسعير كلها تمر عبر علاقة واحدة.

في عام 2026، الرد واضح: ابنِ رقائقك الخاصة.

تقوم كل من Meta وGoogle وAmazon وMicrosoft بنشر — أو توسيع نطاق — سيليكون مخصص مصمم لأعباء عمل الذكاء الاصطناعي الخاصة بها. هذه ليست خارطة طريق بعيدة المدى؛ فهذه الرقائق موجودة في مراكز البيانات الإنتاجية اليوم.

دعونا نلقي نظرة على ما بنته كل شركة، وكيف تتقارن الرقائق، وماذا يعني كل ذلك للصناعة.


Meta: MTIA 300–500 — رهان RISC-V

قامت Meta بأكبر خطوة لها في مجال الأجهزة حتى الآن في مارس 2026، حيث كشفت عن أربعة أجيال من رقائق MTIA — وهي 300، 400، 450، و500 — المصممة للتعامل مع كل شيء من تصنيف الإعلانات إلى استنتاج الذكاء الاصطناعي التوليدي.1

المعمارية والتصنيع

تم بناء جميع الرقائق الأربع على معمارية مجموعة التعليمات RISC-V مفتوحة المصدر، وتم تصنيعها بواسطة TSMC، وتطويرها بالتعاون مع Broadcom. هذا أمر لافت للنظر: اختارت Meta معمارية RISC-V على Arm، مراهنة على معمارية مفتوحة تمنحها مرونة أكبر وتتجنب التبعيات المتعلقة بالترخيص.1

تحليل الرقائق بالتفصيل

الرقاقة الحالة عبء العمل الأساسي المواصفات الرئيسية
MTIA 300 في مرحلة الإنتاج تدريب التصنيف والتوصيات أول MTIA يتم نشرها على نطاق واسع
MTIA 400 اكتمل الاختبار، سيتم النشر قريباً استنتاج GenAI نطاق توسع يضم 72 مسرعاً
MTIA 450 قيد التطوير استنتاج GenAI (محسن) ضعف عرض نطاق HBM مقارنة بـ MTIA 400
MTIA 500 قيد التطوير الجيل القادم من استنتاج GenAI 1.5 ضعف عرض نطاق HBM مقارنة بـ MTIA 450

عبر التشكيلة الكاملة، أبلغت Meta عن زيادة قدرها 4.5 ضعفاً في عرض نطاق HBM و زيادة قدرها 25 ضعفاً في حوسبة FLOPs من MTIA 300 إلى MTIA 500.1

لماذا يهم هذا

نهج Meta هجومي: جيل جديد من الرقائق كل ستة أشهر. تريد الشركة تشغيل أثقل أعباء عمل الذكاء الاصطناعي لديها — توليد الصور، وتوليف الفيديو، وأنظمة التوصية التي تدعم أعمالها الإعلانية — على السيليكون الخاص بها. وهذا يعني عمليات شراء أقل من Nvidia، وتكاليف أقل لكل عملية استنتاج، وتكاملاً أوثق بين الأجهزة وأطر عمل الذكاء الاصطناعي في Meta.


Google: Trillium (TPU v6e) — اللاعب المخضرم في السيليكون المخصص

تقوم Google ببناء رقائق ذكاء اصطناعي مخصصة لفترة أطول من أي شركة أخرى. تم إطلاق TPU الأصلي في عام 2016. في عام 2026، أصبح جيلها السادس من الرقائق — Trillium — متاحاً بشكل عام ومنتشراً على نطاق واسع عبر Google Cloud.2

المواصفات الرئيسية

المقياس Trillium (TPU v6e) مقارنة بـ TPU v5e
ذروة الحوسبة لكل شريحة أعلى بـ 4.7x
سعة HBM لكل شريحة 32 جيجابايت HBM 2x (ارتفاعاً من 16 جيجابايت)
نطاق تردد HBM ~1,600 جيجابايت/ثانية 2x
نطاق تردد الربط البيني بين الشرائح (ICI) 2x
كفاءة الطاقة أفضل بنسبة 67%

يقدم Trillium أيضاً الجيل الثالث من SparseCore، وهو مسرع متخصص للتضمينات (embeddings) فائقة الضخامة المستخدمة في مهام التصنيف والتوصية.2

النطاق

يتيح الحاسوب الفائق للذكاء الاصطناعي (AI Hypercomputer) من Google عمليات نشر لـ أكثر من 100,000 شريحة Trillium لكل نسيج شبكة Jupiter، مع 13 بيتابت/ثانية من نطاق التردد ثنائي الاتجاه. يتوسع الـ Pod الواحد إلى 256 وحدة TPU. وباستخدام تقنية multislice ووحدات Titanium IPU، يمكن لعشرات الآلاف من الشرائح تكوين حاسوب فائق بحجم مبنى كامل.2

في اختبارات التوسع، حقق Trillium كفاءة توسع بنسبة 99% عبر 3,072 شريحة (12 Pods) و كفاءة بنسبة 94% عبر 6,144 شريحة (24 Pods) عند التدريب المسبق لنموذج GPT-3-175B.2

لماذا يهم هذا؟

يعد برنامج TPU من Google أكثر جهود السيليكون المخصصة نضجاً في الصناعة. Trillium ليس مجرد منافس لأحدث إصدارات Nvidia؛ بل هو متاح بنطاق لا يستطيع سوى القليلين مضاهاته. بالنسبة لعملاء Google Cloud، تمثل وحدات TPU بشكل متزايد المسار الأكثر فعالية من حيث التكلفة للتدريب والاستدلال على نطاق واسع.


Amazon: Trainium3 — رهان البنية التحتية السحابية

تطورت استراتيجية السيليكون المخصصة من Amazon — التي تشمل كلاً من خط معالجات Graviton ومسرعات الذكاء الاصطناعي Trainium/Inferentia — من تجربة هادئة إلى عمل تجاري بمعدل تشغيل سنوي مجمع يزيد عن 10 مليارات دولار داخل AWS.3 يمثل Trainium3، الذي تم الإعلان عنه في re:Invent 2025 وهو الآن قيد الإنتاج، الطموح الأكبر لجانب مسرعات الذكاء الاصطناعي حتى الآن.

المواصفات الرئيسية

المقياس Trainium3 مقارنة بـ Trainium2
حوسبة FP8 2.52 PFLOPs 2x
سعة HBM 144 جيجابايت HBM3e 1.5x
نطاق تردد الذاكرة 4.9 تيرابايت/ثانية 1.7x
كفاءة الطاقة (لكل شريحة) أفضل بنسبة 40%
كفاءة الطاقة (على مستوى النظام، UltraServer) أفضل بـ 4x
أقصى نطاق للشرائح (عناقيد UltraServer) مليون شريحة 10x

يتم تصنيع Trainium3 بتقنية 3 نانومتر ويتم نشره في تكوينات Trn3 UltraServer التي تربط آلاف المسرعات معاً.3

تبني العملاء

الأمر المثير للإعجاب في Trainium3 ليس فقط المواصفات — بل قائمة العملاء. تم تأكيد استخدام Anthropic و OpenAI لـ Trainium3 في مهام التدريب والاستدلال. كما أشادت Apple بجهود Amazon في السيليكون المخصص، على الرغم من أن استخدامها الموثق علناً يتركز على Graviton بدلاً من Trainium تحديداً.3 عندما تفوز شريحة الذكاء الاصطناعي الخاصة بك بثقة الشركات التي تبني النماذج الرائدة، فهذه إشارة مصداقية لا يمكن لأي تسويق تكرارها.

لماذا يهم هذا؟

انتقل عمل الشرائح في AWS من "تجربة مثيرة للاهتمام" إلى بنية تحتية أساسية. إن الجمع بين الأداء الخام لـ Trainium3، وكفاءة الطاقة، والتكامل العميق مع خدمات AWS (مثل SageMaker و Bedrock و EC2) يجعله بديلاً حقيقياً لـ Nvidia لمهام الذكاء الاصطناعي القائمة على السحابة.


Microsoft: Maia 200 — متخصص الاستدلال

تركز استراتيجية Microsoft في السيليكون المخصص بشكل دقيق على الاستدلال (inference) — وهو عبء العمل الذي يقدم الذكاء الاصطناعي فعلياً للمستخدمين النهائيين. Maia 200، الذي تم الإعلان عنه في يناير 2026، منتشر الآن في مراكز بيانات Azure.4

المواصفات الرئيسية

المقياس Maia 200
دقة التصنيع TSMC 3nm
عدد الترانزستورات أكثر من 140 مليار
سعة HBM 216 جيجابايت HBM3e
نطاق تردد HBM 7 تيرابايت/ثانية
SRAM على الشريحة 272 ميجابايت
دعم الدقة نوى Tensor أصلية FP8/FP4

تزعم Microsoft أن Maia 200 يقدم 3 أضعاف أداء FP4 مقارنة بـ Trainium3 من Amazon و أداء FP8 يتفوق على الجيل السابع من TPU الخاص بـ Google. كما تذكر Microsoft أنها تحقق أداءً أفضل بنسبة 30% لكل دولار مقارنة بأحدث جيل من الأجهزة في أسطولها الخاص — وهي مقارنة داخلية تشمل Maia 100 السابق ووحدات GPU من جهات خارجية والمنتشرة عبر Azure.4

النشر

يتم نشر Maia 200 في منطقة مركز بيانات وسط الولايات المتحدة التابعة لـ Microsoft بالقرب من دي موين، آيوا، مع التخطيط لمنطقة غرب الولايات المتحدة 3 (فينيكس، أريزونا) تالياً. وهو يشغل نماذج GPT-5.2 من OpenAI، و Microsoft Foundry، و Microsoft 365 Copilot.4

لماذا يهم هذا؟

استراتيجية Microsoft متميزة: فهي لا تحاول استبدال Nvidia في جميع أعباء العمل. بدلاً من ذلك، تستهدف عنق زجاجة الاستدلال — وهو عبء العمل حيث تؤثر التكلفة لكل رمز (token) بشكل مباشر على تنافسية Azure. من خلال التحسين خصيصاً لخدمة نماذج الذكاء الاصطناعي على نطاق واسع، يعالج Maia 200 الواقع الاقتصادي المتمثل في أن معظم الإنفاق على حوسبة الذكاء الاصطناعي ينتقل من التدريب إلى الاستدلال.


أين تقف Nvidia؟

Nvidia لا تقف مكتوفة الأيدي. تظل شريحة B300 Blackwell Ultra، التي تم شحنها في يناير 2026، هي الرائدة في الأداء في عدة مقاييس.5

المواصفات الرئيسية لـ B300

المقياس B300 Blackwell Ultra
التصنيع TSMC 4NP
الترانزستورات 208 مليار (قالب مزدوج، NV-HBI)
سعة HBM 288 جيجابايت HBM3e
نطاق تردد HBM 8 تيرابايت/ثانية
حوسبة FP4 الكثيفة 15 PFLOPs لكل شريحة
استهلاك الطاقة 1,400 واط لكل وحدة GPU (تبريد سائل)

على مستوى الرف (rack)، يوفر نظام GB300 NVL72 (المكون من 36 شريحة Grace Blackwell Superchips متصلة عبر NVLink 5) قدرة 1.1 exaFLOPS من حوسبة FP4 الكثيفة.5

مزايا Nvidia

لا تزال Nvidia تمتلك ثلاثة خنادق دفاعية لم تخترقها الشرائح المخصصة بالكامل بعد:

النظام البيئي للبرمجيات (CUDA). تظل عقود من المكتبات، وأطر العمل، والأدوات المبنية على CUDA هي المسار الأسهل لمعظم المطورين. تتطلب الهجرة إلى TPU، أو Trainium، أو MTIA تغييرات غير بسيطة في الكود.

الهيمنة على التدريب. بينما تتفوق الرقائق المخصصة في الاستنتاج (inference) وأعباء عمل محددة، تظل وحدات معالجة الرسومات من Nvidia هي الخيار الافتراضي لتدريب النماذج الرائدة. من الصعب مضاهاة أداء B300 في العمليات الحسابية (FLOPs)، وعرض نطاق الذاكرة، والتوسع عبر العقد المتعددة من خلال NVLink.

اتساع النظام البيئي. تعمل أجهزة Nvidia في كل مكان — في كل سحابة، وكل نشر محلي (on-prem)، وكل مختبر أبحاث. أما الرقائق المخصصة فهي محصورة في النظام البيئي للشركة الأم.

نقاط ضعف Nvidia

لكن اتجاه السوق واضح. السيليكون المخصص يلتهم سوق الاستنتاج أولاً، وسيلحق به التدريب. يتم استخدام Trainium3 من AWS بالفعل من قبل المختبرات الرائدة للتدريب. وتخطط Meta لتدريب نماذج الجيل القادم على أجهزة MTIA. كما قامت Google بتدريب نماذج Gemini الخاصة بها على وحدات TPU لسنوات.

السؤال ليس ما إذا كانت الرقائق المخصصة ستحل محل Nvidia — بل هو مقدار الحصة السوقية التي ستحتفظ بها Nvidia بينما يتحول كل عميل رئيسي إلى منافس.


المقارنة الكاملة

الرقاقة الشركة عملية التصنيع سعة HBM عرض نطاق HBM عبء العمل الرئيسي الحالة (مارس 2026)
B300 Blackwell Ultra Nvidia TSMC 4NP 288 GB HBM3e 8 TB/s التدريب + الاستنتاج قيد الشحن
Maia 200 Microsoft TSMC 3nm 216 GB HBM3e 7 TB/s الاستنتاج منشورة في Azure
Trainium3 Amazon 3nm 144 GB HBM3e 4.9 TB/s التدريب + الاستنتاج منشورة في AWS
Trillium (TPU v6e) Google 32 GB HBM لكل رقاقة ~1,600 GB/s التدريب + الاستنتاج متاحة بشكل عام في Google Cloud
MTIA 300 Meta TSMC (RISC-V) تدريب التصنيف/التوصية في مرحلة الإنتاج
MTIA 400 Meta TSMC (RISC-V) استنتاج GenAI سيتم نشرها قريباً

ماذا يعني هذا للمطورين

تكاليف السحابة ستنخفض

المنافسة تدفع الأسعار للهبوط. ومع تولي الرقائق المخصصة المزيد من أعباء عمل الاستنتاج، يمكن لمزودي السحابة تقديم أسعار أقل لكل رمز (token). أبلغت AWS بالفعل عن تخفيضات كبيرة في تكاليف الاستنتاج لعملاء Trainium3.3

الطلاقة في التعامل مع رقائق متعددة تصبح ذات قيمة

إذا كنت تقوم بنشر الذكاء الاصطناعي على نطاق واسع، فإن فهم المفاضلات بين وحدات معالجة الرسومات من Nvidia، وTPUs، وTrainium، وMaia أصبح مهارة حقيقية. لكل رقاقة ملفات تعريف ذاكرة مختلفة، وتنسيقات دقة، وخصائص توسع مختلفة. المطور الذي يمكنه التحسين للأجهزة المناسبة سيقوم بالشحن بشكل أسرع وأرخص.

قابلية نقل أطر العمل تهم أكثر من أي وقت مضى

أدوات مثل JAX، و PyTorch's XLA backend، و ONNX Runtime تجرد الاختلافات بين الأجهزة. مع تفتت مشهد الرقائق، لم تعد قابلية النقل على مستوى إطار العمل مجرد ميزة إضافية — بل أصبحت ضرورية. توقع تسارع الاستثمار في هذه التجريدات.

الاستنتاج هو ساحة المعركة الجديدة

تدريب النموذج هو تكلفة تدفع لمرة واحدة. أما تقديمه لملايين المستخدمين فهو نفقات مستمرة. سباق الرقائق المخصصة هو في الأساس سباق استنتاج، مما يعني أن اقتصاديات تشغيل تطبيقات الذكاء الاصطناعي — وليس بناءها — هي ما يتغير حقاً.


نظرة إلى المستقبل

سباق رقائق الذكاء الاصطناعي المخصصة يتسارع. تتعاون OpenAI مع Broadcom و TSMC لإنتاج رقاقة مخصصة خاصة بها بحلول أواخر عام 2026.6 ولدى Amazon بالفعل Trainium4 قيد التطوير.3 وتخطط Meta لإصدار جيل جديد من MTIA كل ستة أشهر.1

بالنسبة للمطورين، الخلاصة عملية: طبقة الأجهزة تتنوع، والتكاليف تنخفض، والأدوات اللازمة للعمل عبر منصات الرقائق تنضج. أفضل وقت لفهم مشهد السيليكون المخصص هو الآن.


المراجع

Footnotes

  1. Meta. "Expanding Meta's Custom Silicon to Power Our AI Workloads." March 2026. about.fb.com 2 3 4 5 6

  2. Google Cloud. "Trillium TPU is GA." 2026. cloud.google.com 2 3 4 5 6

  3. TechCrunch. "جولة حصرية داخل مختبر Trainium التابع لشركة Amazon." مارس 2026. techcrunch.com 2 3 4 5 6 7

  4. Microsoft. "Maia 200: مسرع الذكاء الاصطناعي المصمم للاستدلال." يناير 2026. blogs.microsoft.com 2 3 4 5

  5. NVIDIA. "نظرة من الداخل على NVIDIA Blackwell Ultra: الشريحة التي تدعم عصر مصانع الذكاء الاصطناعي." 2025. developer.nvidia.com 2 3 4

  6. TechTimes. "حروب شرائح الذكاء الاصطناعي: كيف أصبحت معالجات الذكاء الاصطناعي، وشرائح NVIDIA، والسيليكون المخصص ساحة المعركة الجديدة لشركات التكنولوجيا الكبرى." فبراير 2026. techtimes.com 2


نشرة أسبوعية مجانية

ابقَ على مسار النيرد

بريد واحد أسبوعياً — دورات، مقالات معمّقة، أدوات، وتجارب ذكاء اصطناعي.

بدون إزعاج. إلغاء الاشتراك في أي وقت.