Google TPU 8t و TPU 8i: انقسام الرقائق في عصر الوكلاء الذكيين

٢٣ أبريل ٢٠٢٦

Google TPU 8t and TPU 8i: The Agentic-Era Chip Split

ملخص

في 22 أبريل 2026، في مؤتمر Google Cloud Next في لاس فيجاس، كشفت Google عن عائلة الجيل الثامن من وحدات TPU — ولأول مرة على الإطلاق، قسمتها إلى شريحتين مخصصتين لغرض معين: TPU 8t (الاسم الكودي Sunfish)، وهو مسرع تدريب تم تصميمه بالتعاون مع Broadcom، و TPU 8i (الاسم الكودي Zebrafish)، وهو مسرع استدلال (inference) تم تصميمه بالتعاون مع MediaTek12. يوفر TPU 8t المخصص للتدريب أداءً مقابل السعر أفضل بنسبة تصل إلى 2.7 مرة من Ironwood للتدريب واسع النطاق، بينما يحقق TPU 8i المخصص للاستدلال أداءً مقابل الدولار أفضل بنسبة 80% لخدمة نماذج Mixture-of-Experts ذات زمن الاستجابة المنخفض34. يتوسع الـ superpod الواحد من TPU 8t إلى 9,600 شريحة واثنين بيتابايت من ذاكرة HBM المشتركة، ليصل إلى 121 FP4 exaFLOPS لكل pod5. وفوق ذلك، يمكن لنسيج شبكة Virgo Network الجديد من Google ربط 134,000 شريحة TPU 8t في نسيج مركز بيانات واحد وأكثر من مليون شريحة عبر مواقع متعددة — وهي الركيزة المادية لتشغيل ما وصفه الرئيس التنفيذي Sundar Pichai بـ "المؤسسة الوكيلية" (agentic enterprise)6.

ستصل كلتا الشريحتين إلى التوفر العام في وقت لاحق من عام 202614.


ما ستتعلمه

  • ما الجديد في الجيل الثامن من TPU من Google، ولماذا قسمته Google إلى وحدتين (SKUs)
  • مواصفات TPU 8t (Sunfish) و TPU 8i (Zebrafish) وادعاءات الأداء
  • كيف يختلف ترابط Boardfly الجديد عن 3D torus الكلاسيكي
  • ماذا تضيف شبكة Virgo Network — 134,000 شريحة في نسيج واحد، وأكثر من مليون عبر المواقع
  • كيف يتناسب TPU 8 مع صفقة Anthropic مع Google التي تصل إلى مليون شريحة
  • أين تقف الشراكة مع Nvidia في مؤتمر Google Cloud Next 2026

لماذا قسمت Google الجيل الثامن من TPU

كان كل جيل من أجيال TPU حتى الآن عبارة عن شريحة واحدة يُطلب منها القيام بكل شيء — التدريب المسبق (pre-training)، والضبط الدقيق (fine-tuning)، والتعلم المعزز (reinforcement learning)، والاستدلال (inference). كان Ironwood، الجيل السابع من TPU من Google الذي تم تقديمه في أبريل 2025 وأصبح متاحًا بشكل عام في نوفمبر 2025، قد تم تقديمه بالفعل كـ "أول Google TPU لعصر الاستدلال"، ولكن من الناحية المادية كان لا يزال تصميماً واحداً للسيليكون78.

مع TPU 8، غيرت Google ذلك. الجيل الثامن عبارة عن شريحتين:

  • TPU 8t (Sunfish) — مسرع تدريب تم تصميمه بالتعاون مع Broadcom، مبني حول قالبي (dies) حوسبة، و chiplet واحدة للإدخال والإخراج (I/O)، وثماني مجموعات بارتفاع 12 من ذاكرة HBM3e2.
  • TPU 8i (Zebrafish) — مسرع استدلال تم تصميمه بالتعاون مع MediaTek، يستخدم قالب حوسبة واحداً، وقالب إدخال وإخراج واحداً، وست مجموعات من ذاكرة HBM3e2.

المنطق وراء ذلك بسيط. لقد تباعد التدريب والاستدلال إلى أشكال مختلفة من أعباء العمل. يتطلب التدريب مجموعات هائلة وكثيفة من الكل إلى الكل (all-to-all) عبر عشرات الآلاف من الشرائح. أما الاستدلال — خاصة لنماذج Mixture-of-Experts (MoE) المتفرقة التي تشغل أعباء عمل وكيلية بميزانيات زمن استجابة صارمة — فيتطلب شبكات ذات قطر أقل، وذاكرة أكبر على الشريحة، وأداءً أفضل مقابل الدولار لكل رمز (token) يتم تقديمه. إن مطالبة شريحة واحدة بالتحسين لكليهما يجعل القالب أكبر وأكثر سخونة وأغلى مما يحتاجه أي من عبئي العمل فعلياً.

يتيح تقسيم الوحدات (SKUs) لشركة Google دفع كل هدف إلى أقصى حدوده.


TPU 8t (Sunfish): حصان العمل للتدريب

تم تصميم TPU 8t ليكون الشريحة التي تبني عليها النماذج الرائدة (frontier models). تدعي Google أنه يمكنه "تقليل دورة تطوير النماذج الرائدة من أشهر إلى أسابيع".

مواصفات الشريحة الواحدة

  • الحوسبة: ما يصل إلى 12.6 FP4 petaFLOPS لكل شريحة5
  • HBM: سعة 216 جيجابايت من HBM3e لكل شريحة3
  • نطاق تردد HBM: سعة 6.5 تيرابايت/ثانية لكل شريحة3
  • الترابط بين الشريحة والأخرى: ما يصل إلى 19.2 تيرابت/ثانية5

نطاق الـ Pod والنسيج

  • Superpod: يضم 9,600 شريحة، متصلة ببعضها بواسطة توبولوجيا 3D torus المثبتة من Google5
  • الذاكرة المشتركة لكل pod: اثنان بيتابايت من HBM6
  • حوسبة الـ Pod بتنسيق FP4: تصل إلى 121 exaFLOPS5 (رقم 42.5 EFLOPS الأكثر تداولاً لـ Ironwood هو بتنسيق FP8، لذا فإن نسبة 121 مقابل 42.5 تخلط بين الدقة؛ عنوان Google الرئيسي هو "ما يقرب من 3 أضعاف الحوسبة لكل pod")
  • نسيج شبكة Virgo Network: ما يصل إلى 134,000 شريحة TPU 8t في نسيج مركز بيانات واحد، وأكثر من مليون شريحة عبر مراكز بيانات متعددة في عنقود تدريب واحد6

ادعاءات الأداء مقابل Ironwood

المقياسTPU 8t مقابل Ironwood (TPU 7)
حوسبة التدريب لكل podما يقرب من 3 أضعاف35
الأداء مقابل السعر للتدريب واسع النطاقما يصل إلى 2.7 ضعف3
الأداء مقابل الواطما يصل إلى ضعفين4
ذروة مستوى الـ Pod: TPU 8t (FP4) مقابل Ironwood (FP8)121 EFLOPS مقابل 42.5 EFLOPS5

ملاحظة على الصف الأخير: رقم 121 EFLOPS لـ TPU 8t هو رقم FP4، بينما رقم 42.5 EFLOPS الأكثر تداولاً لـ Ironwood هو FP8. قدم TPU 8t تنسيق FP4 الأصلي مع مضاعفة إنتاجية MXU، لذا فإن المقارنات مع pods الجيل السابق غالباً ما تخلط بين الدقة — اقرأ "حوالي 3 أضعاف الحوسبة لكل pod" كعنوان رئيسي لشركة Google بدلاً من فرق صافٍ بين FP4 و FP4.

بشكل منفصل: هذه هي أرقام Google الخاصة، والتي تقارن TPU الجديد بـ TPU السابق. إنها ليست اختبارات أداء مباشرة ضد Blackwell من Nvidia أو Vera Rubin الأحدث، ولم تنشر Google مثل هذه المقارنات عند الإطلاق4. إذا كنت تقيم TPU 8t مقابل بنية تعتمد على Nvidia، فستحتاج إلى أرقام أعباء العمل الخاصة بك.


TPU 8i (Zebrafish): متخصص الاستدلال

إذا كان TPU 8t يتعلق بتدريب النماذج الرائدة بشكل أسرع، فإن TPU 8i يتعلق بتشغيلها — وخدمة الملايين من الوكلاء المتزامنين — بسعر لا تستطيع Nvidia مضاهاته على وحدات معالجة الرسومات الكثيفة.

مواصفات الشريحة الواحدة

  • الحوسبة: 10.1 FP4 petaFLOPS لكل شريحة9
  • SRAM على الشريحة: 384 ميجابايت لكل شريحة — ثلاثة أضعاف الكمية في Ironwood4
  • HBM: سعة 288 جيجابايت من HBM3e لكل شريحة9
  • نطاق HBM الترددي: 8.6 تيرابايت/ثانية لكل شريحة9
  • نطاق ICI الترددي: 19.2 تيرابت/ثانية لكل شريحة، وهو ضعف الجيل السابق ومعدل خصيصاً لحركة مرور MoE all-to-all9

لاحظ أن TPU 8i يحمل في الواقع HBM أكثر من TPU 8t (288 جيجابايت مقابل 216 جيجابايت) ونطاق ترددي أعلى للذاكرة. هذا مقصود: الاستدلال لنماذج MoE الكبيرة مقيد بنطاق ذاكرة الترددي، وليس بالحوسبة. الشريحة التي تقدم الرموز (tokens) تحتاج إلى بث الأوزان وذاكرة التخزين المؤقت KV بشكل أسرع من الشريحة التي تدربها.

يتخلى TPU 8i أيضاً عن SparseCores المخصصة في Ironwood لصالح محرك تسريع جماعي جديد (CAE) يقوم بإخراج الاتصالات الجماعية من نوى التنسور (tensor cores)، مما يبقي وحدات الرياضيات أكثر انشغالاً خلال مراحل all-to-all9.

Boardfly: ترابط جديد لمجموعات الاستدلال (inference pods)

أكبر خروج معماري في TPU 8i ليس في القالب — بل في الشبكة. يحافظ TPU 8t على تقنية 3D torus المثبتة. أما TPU 8i فيتخلى عنها.

Boardfly هو ترابط Google الجديد عالي الشعاع (high-radix)، المنظم في ثلاث طبقات9:

  1. لبنات البناء: تشكل كل صينية حلقة من أربع شرائح.
  2. المجموعات: ثماني لوحات متصلة بالكامل بكابلات نحاسية.
  3. Pod: ما يصل إلى 36 مجموعة — 1,024 شريحة نشطة — مرتبطة من خلال مفاتيح الدوائر الضوئية (OCS).

المكسب هو قطر الشبكة. في تكوين مكون من 1,024 شريحة، يمكن أن يتطلب 3D torus ما يصل إلى 16 قفزة بين شرائح عشوائية. يضغط Boardfly تلك الحالة الأسوأ إلى سبع قفزات — وهو انخفاض بنسبة 56% في القطر، وتحسن يصل إلى 50% في زمن انتقال اتصالات all-to-all9. بالنسبة لاستدلال MoE، حيث يتم توجيه كل رمز عبر مجموعة فرعية مختلفة من الخبراء الذين قد يتواجدون على شرائح مختلفة، تترجم القفزات الأقل بشكل مباشر تقريباً إلى زمن انتقال ذيل (tail latency) أقل.

ادعاء Google الرئيسي للاستدلال: أداء مقابل الدولار أفضل بنسبة 80% للاستدلال منخفض الكمون على نماذج MoE الكبيرة، مقارنة بـ Ironwood4.


مقارنة جنباً إلى جنب: TPU 8t مقابل TPU 8i

المواصفاتTPU 8t (Sunfish)TPU 8i (Zebrafish)
الدورالتدريبالاستدلال
شريك التصميم المشتركBroadcomMediaTek
حوسبة FP4 لكل شريحة12.6 PFLOPS10.1 PFLOPS
SRAM على الشريحة128 ميجابايت384 ميجابايت
سعة HBM216 جيجابايت288 جيجابايت
نطاق HBM الترددي6.5 تيرابايت/ثانية8.6 تيرابايت/ثانية
النطاق الترددي من شريحة لشريحةيصل إلى 19.2 تيرابت/ثانية19.2 تيرابت/ثانية
طوبولوجيا الترابط3D torusBoardfly (high-radix)
حجم الـ Pod9,600 شريحة (superpod)1,024 شريحة (Boardfly pod)
الادعاء الرئيسيأداء مقابل السعر أفضل بـ 2.7 مرة من Ironwood للتدريبأداء مقابل الدولار أفضل بنسبة 80% لاستدلال MoE

المصادر: 23459.


شبكة Virgo: النسيج وراء مليون شريحة

لا يزال الـ superpod محدوداً. كانت قصة البنية التحتية الأكبر لـ Google في مؤتمر Next 2026 هي شبكة Virgo — نسيج التوسع الذي يربط الـ superpods في مجموعات تدريب على مستوى مركز البيانات ومراكز بيانات متعددة6.

أرقام Virgo الرئيسية:

  • نسيج واحد: يربط ما يصل إلى 134,000 شريحة TPU 8t في مركز بيانات واحد مع ما يصل إلى 47 بيتابت/ثانية من نطاق bisection الترددي غير المحظور6
  • مواقع متعددة: أكثر من مليون شريحة TPU 8t عبر مراكز بيانات متعددة، في مجموعة تدريب واحدة6
  • النطاق الترددي لكل مسرع: يصل إلى 4 أضعاف الجيل السابق6
  • زمن انتقال النسيج غير المحمل: أقل بنسبة 40% من الجيل السابق6

هذا هو الأساس الذي تحتاجه Google للوفاء بصفقات مثل اتفاقية Anthropic التي تصل إلى مليون TPU من أكتوبر 2025 (وهو التزام تم التعهد به جنباً إلى جنب مع صفقة Anthropic بقيمة 100 مليار دولار مع AWS Trainium متعددة السحاب) — لا يمكن لمركز بيانات واحد وحده استيعاب هذا العدد الكبير من المسرعات، لذا يجب أن يتصرف النسيج بين مراكز البيانات كآلة واحدة.


كيف يرتبط TPU 8 بصفقة Anthropic

في 23 أكتوبر 2025، أعلنت Anthropic أنها ستوسع استخدامها لـ Google Cloud، مما يتيح لها الوصول إلى ما يصل إلى مليون شريحة TPU وأكثر من جيجاوات من السعة التي ستدخل الخدمة في عام 2026، في صفقة تبلغ قيمتها عشرات المليارات من الدولارات1011. كان ذلك بالفعل أكبر التزام لـ TPU من قبل الشركة.

في أبريل 2026، ومع تصاعد وتيرة إنتاج TPU 8t، وسعت Anthropic الصفقة مرة أخرى — حيث وقعت اتفاقية جديدة متعددة السنوات مع Google و Broadcom للحصول على سعة إضافية تبلغ 3.5 جيجاوات من الجيل القادم من وحدات TPU التي ستدخل الخدمة في عام 2027، بالإضافة إلى 1 جيجاوات بدأت بالفعل في عام 2026، ليصل إجمالي بصمة Google TPU إلى حوالي 4.5 جيجاوات12. وقد تجاوز معدل الإيرادات السنوي لشركة Anthropic حاجز 30 مليار دولار — ارتفاعاً من حوالي 9 مليارات دولار في نهاية عام 2025 — ولديها الآن أكثر من 1000 عميل ينفقون أكثر من مليون دولار سنوياً على Claude12.

تعد TPU 8t و TPU 8i هي السيليكون الذي تقوم عليه هذه الصفقة. تصمم Broadcom شريحة التدريب TPU 8t؛ بينما تصمم MediaTek شريحة الاستدلال TPU 8i2. وكلاهما يتم تصنيعه بواسطة TSMC. ليست Google هي المورد الوحيد لشركة Anthropic — حيث يعمل Claude أيضاً على Amazon Trainium ومعالجات رسوميات Nvidia بموجب استراتيجيتها السحابية المتعددة — ولكن بصمة TPU هي الأكبر بفارق كبير، و TPU 8 هو ما تُبنى عليه السعة الجديدة.

بعيداً عن Anthropic، يشمل عملاء Google Cloud TPU العامون كلاً من Midjourney (التي نقلت غالبية أسطول استدلال Stable Diffusion XL و Flux إلى TPU v6e في الربع الثاني من عام 2025)، و Safe Superintelligence (الشركة الناشئة لـ Ilya Sutskever التي اختارت وحدات TPU على معالجات رسوميات Nvidia لأبحاثها)، و Salesforce، و Citadel Securities4.


ومع ذلك، لا تزال Nvidia حاضرة في المشهد

الأمر المثير للدهشة في مؤتمر Google Cloud Next 2026 ليس إعلان Google عن شرائحها الخاصة — بل إعلانها عنها جنباً إلى جنب مع شراكة موسعة مع Nvidia في نفس اليوم. إن AI Hypercomputer — وهو المظلة التي تضع Google Cloud تحتها بنيتها التحتية للذكاء الاصطناعي — يمتد الآن ليشمل TPU 8، و Vera Rubin من Nvidia، ومعالجات Axion المستندة إلى Arm من Google13.

تضمن جانب Nvidia من الإعلان ما يلي:

  • مثيلات A5X bare-metal المدعومة بأنظمة Nvidia Vera Rubin NVL72 على مستوى الرفوف (rack-scale)، مع ادعاء Google بخفض تكلفة الاستدلال لكل رمز (token) بنسبة تصل إلى 10 مرات وزيادة إنتاجية الرموز لكل ميجاوات بنسبة 10 مرات مقارنة بالجيل السابق13
  • توسيع نطاق A5X عبر بطاقات Nvidia ConnectX-9 SuperNICs وشبكات Virgo — ما يصل إلى 80,000 وحدة معالجة رسوميات Rubin في عنقود (cluster) واحد في موقع واحد، وما يصل إلى 960,000 عبر مواقع متعددة13
  • Gemini على Google Distributed Cloud، الذي يعمل على معالجات رسوميات Nvidia Blackwell و Blackwell Ultra، وهو متاح الآن في نسخة المعاينة — مما يسمح للعملاء بتشغيل Gemini مع بيانات حساسة داخل بيئاتهم الخاصة13

الرسالة من Google هي أن TPU و Nvidia ليسا خيارين متناقضين لعملائها. فبعض أعباء العمل تعمل بشكل أفضل على TPU، وبعضها يعمل بشكل أفضل على GPU، وسيقدم لك AI Hypercomputer أيهما أكثر منطقية للمهمة المطلوبة.


صياغة عصر الوكلاء الذكيين

قام Sundar Pichai بصياغة الإطلاق صراحةً حول الوكلاء الذكيين (AI agents). إليك الاقتباس من خطابه في مؤتمر Next 20261:

لقد تحول الحوار من "هل يمكننا بناء وكيل؟" إلى "كيف ندير الآلاف منهم؟" لهذا السبب نقدم منصة Gemini Enterprise Agent Platform الجديدة. إنها توفر النسيج الضام الآمن والمتكامل الذي تحتاجه لبناء وتوسيع وحوكمة وتحسين وكلائك بثقة — إنها غرفة تحكم للمؤسسات القائمة على الوكلاء.

تتمثل وجهة نظر Google في أن تقسيم TPU 8t/8i هو التعبير المادي (الأجهزة) عن هذا التحول. فتدريب وكلاء أكبر يحتاج إلى مجموعات (pods) كثيفة وعالية الأداء (FLOPs) التي يوفرها TPU 8t. أما تشغيل ملايين الوكلاء في وقت واحد — لكل منهم نافذة سياق خاصة به، واستدعاءات أدوات، وميزانية زمن استجابة (latency) محددة — فيحتاج إلى تصميم الاستدلال الغني بالذاكرة ومنخفض القفزات في TPU 8i. هذا التقسيم في الشرائح هو الطريقة التي تحاول بها Google جعل الوكلاء رخيصين بما يكفي للعمل على نطاق المؤسسات.

سواء كانت الجدوى الاقتصادية ستسير بهذا الاتجاه فعلاً، فهذا سيعتمد على أرقام التكلفة لكل مليون رمز ($/1M-token) لـ TPU 8i بمجرد شحن الشرائح وبدء تشغيل أعباء العمل عليها. لم تنشر Google أسعار تجزئة مستقلة؛ حيث كانت سعة TPU تُباع تاريخياً من خلال اتفاقيات مخصصة للمؤسسات بدلاً من قوائم أسعار عامة.


الجدول الزمني في لمحة

التاريخالحدث
9 أبريل 2025تقديم Ironwood (TPU 7) في مؤتمر Google Cloud Next 25
23 أكتوبر 2025Anthropic تعلن عن صفقة تصل إلى مليون وحدة TPU مع Google، بسعة تزيد عن 1 جيجاوات في عام 2026
أواخر نوفمبر 2025وصول Ironwood إلى التوفر العام
7 أبريل 2026Anthropic تضيف 3.5 جيجاوات من سعة Google TPU عبر Broadcom، بدءاً من عام 2027
22 أبريل 2026Google تكشف عن TPU 8t و TPU 8i في مؤتمر Google Cloud Next 2026
في وقت لاحق من عام 2026من المتوقع وصول TPU 8t و TPU 8i إلى التوفر العام

المصادر: 14781012.


ملخص

TPU 8 هو المرة الأولى التي تتعامل فيها Google مع التدريب والاستدلال كمشكلتين مختلفتين على مستوى السيليكون، وهي تراهن على أن عصر الوكلاء (agentic era) سيكافئ هذه البنية. TPU 8t هو نسخة أكبر وأسرع من مجموعة التدريب المفهومة جيداً، مع وجود Broadcom في الداخل وشبكات Virgo حولها. أما TPU 8i فهو تصميم جديد حقاً للاستدلال — المزيد من HBM، والمزيد من SRAM، وناقل ربط جديد، وشريك تصميم مختلف وهو MediaTek.

الأرقام التي يجب مراقبتها هي 2.7x، و80%، ومليون. 2.7x هو ادعاء Google لسعر الأداء في التدريب مقارنة بـ Ironwood — وهو كبير بما يكفي ليكون مهماً إذا صمد أمام أعباء عمل العملاء، وصغير بما يكفي ليتأثر بالجيل القادم من Nvidia. و80% هو ادعاء سعر الأداء في الاستدلال، وهو المكان الذي تعيش فيه اقتصاديات الوكلاء فعلياً. ومليون هو عدد شرائح TPU 8 التي تقتضيها صفقة Anthropic والتي يجب أن تكون Google قادرة على ربطها معاً كآلة واحدة.

إذا صمدت هذه الأرقام الثلاثة عند استخدامها من قبل عملاء الإنتاج، فإن فرضية الموجة الثانية من السيليكون المخصص — Google TPU و Amazon Trainium و Meta MTIA و Microsoft Maia التي تقضم جميعاً من هوامش أرباح Nvidia — ستصبح أكثر مصداقية بكثير. وإذا لم يحدث ذلك، فسنرى ذلك في دورة الأرباح القادمة أيضاً.


Footnotes

Footnotes

  1. Sundar Pichai shares news from Google Cloud Next 2026 — Google blog, April 22, 2026. 2 3 4 5

  2. Google Splits TPUv8 Strategy Into Two Chips, Handing Broadcom Training and MediaTek Inference Duties — Wccftech, April 2026. 2 3 4 5 6

  3. Google unveils chips for AI training and inference in latest shot at Nvidia — CNBC, April 22, 2026. 2 3 4 5 6 7

  4. Google Cloud launches two new AI chips to compete with Nvidia — TechCrunch, April 22, 2026. 2 3 4 5 6 7 8 9 10 11 12 13

  5. الجيل الثامن من وحدات TPU الخاصة بنا: شريحتان لعصر الوكلاء الذكيين — مدونة Google، 22 أبريل 2026. 2 3 4 5 6 7 8 9

  6. تقديم شبكة Virgo لمركز بيانات فائق النطاق — مدونة Google Cloud، أبريل 2026. 2 3 4 5 6 7 8

  7. Ironwood: أول وحدة Google TPU لعصر الاستنتاج — مدونة Google، 9 أبريل 2025. 2

  8. Google تكشف عن Ironwood، الجيل السابع من وحدات TPU، لمنافسة Nvidia — CNBC، 6 نوفمبر 2025. 2

  9. تعمق تقني في TPU 8t و TPU 8i — مدونة Google Cloud، 22 أبريل 2026. 2 3 4 5 6 7 8 9

  10. Anthropic توسع استخدامها لوحدات Google Cloud TPU وخدماتها — صحافة Google Cloud، 23 أكتوبر 2025. 2 3

  11. Google و Anthropic تعلنان عن صفقة سحابية بقيمة عشرات المليارات من الدولارات — CNBC، 23 أكتوبر 2025.

  12. Anthropic توسع شراكتها مع Google و Broadcom — Anthropic، أبريل 2026. 2 3 4

  13. NVIDIA و Google Cloud تتعاونان لتطوير الذكاء الاصطناعي الوكيل والفيزيائي — مدونة Nvidia، 22 أبريل 2026. 2 3 4 5

الأسئلة الشائعة

TPU 8t (Sunfish) هي شريحة تدريب تم تصميمها بالتعاون مع Broadcom، وهي محسنة للحوسبة الكثيفة عبر مجموعات فائقة (superpods) تضم 9,600 شريحة على هيكل 3D torus. أما TPU 8i (Zebrafish) فهي شريحة استدلال تم تصميمها بالتعاون مع MediaTek، مع ذاكرة HBM أكبر، وناقل Boardfly جديد، وتركيز على تقديم نماذج Mixture-of-Experts بزمن استجابة منخفض. هذه هي المرة الأولى التي تشحن فيها Google شرائح مخصصة للتدريب والاستدلال في نفس الجيل 2 4 .

نشرة أسبوعية مجانية

ابقَ على مسار النيرد

بريد واحد أسبوعياً — دورات، مقالات معمّقة، أدوات، وتجارب ذكاء اصطناعي.

بدون إزعاج. إلغاء الاشتراك في أي وقت.