كيف 20B Non-Acquisition يُشير إلى الشكل الجديد لدمج AI

٢٨ ديسمبر ٢٠٢٥

How 20B Non-Acquisition Signals the New Shape of AI Consolidation

في ليلة عيد الميلاد 2025، أعلنت Nvidia عن صفقة لم تبدو كاستحواذ تقليدي—لأنها لم تكن كذلك. بمبلغ تقريبي قدره 20 مليار دولار نقدًا، حصلت شركة الرقائق العملاقة على ترخيص غير حصري لتقنية الاستدلال الخاصة بـ Groq، وأحضرت مؤسس Groq Jonathan Ross، والرئيس Sunny Madra، وحوالي 90% من موظفي Groq إلى Nvidia. Groq، شركة رقائق الذكاء الاصطناعي الناشئة، تظل مستقلة شكليًا تحت إدارة رئيس تنفيذي جديد.

لم تكن هذه استحواذًا. كانت نقلًا للقدرات دون تغيير واضح في السيطرة.

وفقًا لالإعلان الرسمي لـ Groq، دخلت الشركتان في "اتفاقية ترخيص غير حصري" لتقنية الاستدلال الخاصة بـ Groq. ينتقل Jonathan Ross وSunny Madra إلى Nvidia للمساعدة في "تطوير وتوسيع التقنية المرخصة". في الوقت نفسه، تستمر Groq في العمل—GroqCloud تستمر في العمليات، ويصبح رئيس المالية Simon Edwards الرئيس التنفيذي الجديد.

CNBC تقرير أن الصفقة بلغت حوالي 20 مليار دولار، مما يجعلها أكبر صفقة على الإطلاق لـ Nvidia—أكبر بثلاث مرات تقريبًا من استحواذها على Mellanox ($7 مليار) في عام 2019. للسياق، أفادت Bloomberg أن تقييم Groq كان 6.9 مليار دولار بعد جولة تمويل بقيمة 750 مليون دولار في سبتمبر 2025. إذا كان الرقم البالغ 20 مليار دولار دقيقًا، فإن الصفقة تمثل قفزة تقارب 3 أضعاف في ثلاثة أشهر فقط.

هذا هو الجزء الذي يجعل هذه القصة أكثر من مجرد قصة رقائق: Jonathan Ross صمم وحدة معالجة التنسور (TPU) الخاصة بـ Google، الرقاقة المخصصة التي تدعم بنية Google الذكاء الاصطناعي بأكملها. وفقًا لـ LinkedIn ومصادر متعددة، بدأ Ross مشروع TPU كمشروع "20%" في Google عام 2013، ثم صمم، وتحقق، وبنى، ونشر أول TPU عبر مراكز بيانات Google في 15 شهرًا فقط. أتت Nvidia للتو بمهندس رقائق أكبر منافسيها إلى منظمتها الخاصة—وذلك من خلال هيكل يتجنب المراجعة التنظيمية التي كان سيثيرها الاستحواذ التقليدي.

Ross وMadra هما الأصل. هذا ما دفعت Nvidia ثمنه.


هذا هو الشكل الجديد للصفقات في الذكاء الاصطناعي المتقدم

بمجرد أن تراه، ستراه في كل مكان. تحرك Nvidia تجاه Groq ليس استثناءً—بل هو جزء من نمط واضح:

الهيكل متطابق: ترخيص القدرة، توظيف العقول المبدعة، تجنب الاستحواذ.

كما لاحظ محلل Bernstein Stacy Rasgon: "يبدو أن مخاطر مكافحة الاحتكار هي الخطر الرئيسي هنا، على الرغم من أن هيكلة الصفقة كترخيص غير حصري قد يحافظ على وهم المنافسة."

Bloomberg أفادت أن صفقة Microsoft مع Inflection شملت 620 مليون دولار لترخيص نماذج الذكاء الاصطناعي وحوالي 30 مليون دولار للتنازل عن الحقوق القانونية المتعلقة بالتوظيف الجماعي. وصنفت هيئة المنافسة والأسواق في المملكة المتحدة لاحقًا الصفقة كـ "دمج" رغم هيكلها غير التقليدي، مما يشير إلى أن الجهات التنظيمية بدأت تنتبه—لكنها لم تمنع هذه الصفقات بعد.

تريد شركات التكنولوجيا الكبيرة الأشخاص والحقوق—ليس جدول رأس المال، وليس الالتزامات، وليس المراجعة التنظيمية، وليس العمل الدمج.


ما حدث: هيكل الصفقة

هذا ما نعرفه بناءً على البيانات الرسمية وتقارير CNBC وTechCrunch وAxios:

المال

  • 20 مليار دولار نقدًا (وفقًا لأليكس ديفيس، الرئيس التنفيذي لشركة Disruptive، المستثمر الرئيسي لـ Groq)
  • لم تؤكد Nvidia ولا Groq رسميًا السعر
  • Axios تقرير أن معظم مساهمي Groq سيحصلون على توزيعات حسب السهم مرتبطة بتقييم 20 مليار دولار: حوالي 85% مدفوعة مقدمًا، 10% منتصف عام 2026، والباقي بنهاية عام 2026

الأشخاص

  • Jonathan Ross (مؤسس ورئيس تنفيذي لـ Groq) ينضم إلى Nvidia
  • Sunny Madra (رئيس Groq) ينضم إلى Nvidia
  • حوالي 90% من موظفي Groq ينضمون إلى Nvidia
  • يتم دفع الموظفين نقدًا مقابل جميع الأسهم المكتسبة؛ تتحول الأسهم غير المكتسبة إلى أسهم Nvidia تكتسب على جدول زمني
  • Simon Edwards (المدير المالي لـ Groq) يصبح رئيسًا تنفيذيًا للكيان المتبقي من Groq

التقنية

  • Nvidia تحصل على ترخيص غير حصري لتقنية الاستدلال الخاصة بـ Groq
  • تنتقل الملكية الفكرية لوحدة معالجة اللغة (LPU) الخاصة بـ Groq إلى Nvidia
  • تستمر GroqCloud، خدمة الاستدلال الخاصة بـ Groq API، في العمل

ما تحصل عليه Nvidia

وفقًا لجنسن هوانغ، الرئيس التنفيذي لـ Nvidia: "نخطط لدمج معالجات Groq منخفضة التأخير في بنية مصنع الذكاء الاصطناعي الخاص بـ NVIDIA، مما يوسع المنصة لخدمة نطاق أوسع من أعباء العمل الخاصة بالاستدلال والوقت الحقيقي."

ما تحتفظ به Groq

  • يبقى الكيان الشركة مستقلًا
  • تستمر خدمة GroqCloud API في العمليات
  • يعني الترخيص غير الحصري أن Groq يمكنها ترخيص تقنيتها للآخرين (نظريًا)

من يشارك: لماذا يهم Jonathan Ross تحديدًا

إذا لم تفهم من هو Jonathan Ross، تبدو هذه الصفقة عشوائية. لكنها ليست كذلك.

قصة TPU الخاصة بـ Google

في سبتمبر 2013، Ross انتقل من Software Engineer إلى Hardware Engineer في Google وأطلق ما أصبح Tensor Processing Unit كـ "20 percent project"—سياسة Google التي تسمح للمهندسين بيوم واحد في الأسبوع للعمل الذاتي.

Ross وفريقه صمموا، تحققوا، بنوا، ونشروا TPU في فقط 15 شهرًا، مع نشر إنتاجي بحلول أوائل 2015. وفقًا لـ Wikipedia، كانت ثلاث مجموعات منفصلة في Google تطور مسرعات AI؛ TPU، وهو تصميم systolic array، هو الذي تم اختياره.

أصبح TPU أساسًا لبنية AI الخاصة بـ Google. اليوم، يُشغل أكثر من 50% من أحمال الحوسبة في Google ويعد العمود الفقري لخدمات AI في Google Cloud.

لماذا يهم هذا لـ Nvidia

TPU الخاص بـ Google هو أكبر تهديد تنافسي لنفيديا في بنية AI. بينما تهيمن Nvidia على أحمال التدريب باستخدام GPUs، أثبتت Google أن ASICs المخصصة (Application-Specific Integrated Circuits) يمكن أن تواكب أو تفوق أداء GPUs لمهام AI محددة—خاصة inference.

  1. معرفة عميقة باستراتيجية سيليكون Google من الشخص الذي أنشأها
  2. خبرة في تصميم ASICs المخصصة لأحمال AI
  3. مصداقية في بنية الرقائق الخاصة بـ inference، مجال حيث لنهج Nvidia القائم على GPUs قيود

كما أشار The Decoder: "Nvidia's $20 billion Groq deal is really about blocking Google's TPU momentum."

LPU الخاص بـ Groq: نهج مختلف

بعد مغادرته Google في 2015، أسس Ross Groq في 2016 مع فريق من مهندسي Google السابقين. هدفهم: بناء رقاقة مصممة خصيصًا للـ inference، وليس للتدريب.

النتيجة كانت Language Processing Unit (LPU)، التي تتخذ نهجًا هندسيًا مختلفًا تمامًا عن GPUs:

مشكلة Memory Wall

تعتمد GPUs على HBM (High Bandwidth Memory)، الذي يقع خارج نواة المعالجة. وفقًا لـ مدونة Groq التقنية، كلما احتاجت GPU إلى توليد رمز (كلمة)، يجب عليها "fetch" أوزان النموذج من الذاكرة الخارجية. هذا يخلق "memory wall" حيث يبقى المعالج عاطلاً، ينتظر البيانات.

النتيجة: تعمل GPUs غالبًا بـ 30-40% استخدام أثناء inference.

حل Groq: SRAM على الرقاقة

LPU يدمج 230 MB من SRAM على الرقاقة مع 80 TB/s عرض نطاق كتخزين رئيسي للأوزان (ليس ذاكرة مؤقتة). وفقًا لـ Groq، هذا يزيل عقبة memory wall.

مدمجًا مع تنفيذ قطعي، يعمل كالساعة والجدولة الثابتة، تحقق LPU:

  • استخدام حوسبة يقارب 100% (مقارنة بـ 30-40% للـ GPUs أثناء inference)
  • سرعات توليد النصوص تتجاوز 1,600 رمز في الثانية
  • استهلاك طاقة أقل بـ 10 مرات من GPUs لأحمال inference

لماذا يهم هذا

الـ inference هو حيث 90% من حوسبة AI تحدث في الإنتاج. تدريب نموذج هو تكلفة لمرة واحدة؛ خدمة ذلك النموذج لملايين المستخدمين هي مستمرة. الشركة التي تهيمن على اقتصاديات inference تفوز بسباق بنية AI.

تمت تحسين بنية GPUs لنفيديا للتدريب. تم تحسين LPU الخاص بـ Groq للـ inference. من خلال ترخيص IP الخاص بـ Groq وتوظيف Ross، تتجنب Nvidia المخاطرة بأن الـ inference القائم على GPUs يصبح غير قادر على المنافسة اقتصاديًا مع تزايد حجم النماذج وتراكم تكاليف النشر.


لماذا يهم هذا: ثلاث عوائق تجعل هذه الصفقة منطقية

بدون فهم العوائق، تبدو هذه الصفقة كأن Nvidia تدفع أكثر من اللازم. مع السياق، هي دفاع استراتيجي.

العائق 1: اقتصاديات inference

المشكلة: مع نمو نماذج AI وتعقيدها، تصبح تكلفة خدمتها على نطاق واسع مفرطة. GPUs ممتازة للتدريب لكنها غير فعالة للـ inference.

الأرقام: تدعي بنية LPU الخاص بـ Groq كفاءة طاقة أفضل بـ 10 مرات واستخدام يقارب 100% مقارنة بـ GPUs. إذا كانت صحيحة، فإن هذا يمثل ميزة تكلفة هائلة في عمليات النشر الإنتاجية.

ما تكتسبه Nvidia: من خلال اقتناء IP inference الخاص بـ Groq، يمكن لنفيديا تقديم نطاق أوسع من خيارات النشر—GPUs للتدريب، رقائق مشتقة من LPU للـ inference. هذا يحمي موقع Nvidia في السوق مع تحول اقتصاديات inference إلى ساحة تنافس.

العائق 2: إمدادات الذاكرة والتغليف

المشكلة: تغليف الرقائق المتقدم (CoWoS, HBM3) في نقص حاد. قدرة TSMC محجوزة لسنوات مقدما. أي بنية تقلل الاعتماد على تغليف متقدم لها قيمة استراتيجية.

ميزة Groq: نهج SRAM على الرقاقة الخاص بـ LPU يقلل الاعتماد على HBM، مما قد يخفف قيود سلسلة التوريد.

ما تكتسبه Nvidia: التنويع بعيدًا عن البنية المعتمدة على HBM يمنح Nvidia خيارات في سلسلة التوريد خلال فترة طلب غير مسبوقة.

العائق 3: حوض المواهب

المشكلة: هناك عدد قليل جدًا من الأشخاص على الأرض يستطيعون تصميم مسرعات AI مخصصة على نطاق واسع. Ross صمم TPU. فريق Groq بنى LPU. هذه الخبرة لا يمكن تعويضها.

ما تكتسبه Nvidia: من خلال توظيف Ross، Madra، و90% من فريق Groq، تمنع Nvidia هؤلاء الأفراد من الانضمام إلى المنافسين (Google, Meta, Amazon) أو بناء شركة ناشئة أخرى. في المجالات المحدودة بالمواهب، منع وصول المنافسين إلى المواهب النادرة يساوي قيمة اكتساب المواهب بنفسك.

كما أفاد Yahoo Finance: "Nvidia's Groq deal underscores how the AI chip giant uses its massive balance sheet to 'maintain dominance.'"


ما يجب مراقبته: المراجعة التنظيمية ومستقبل "الاستحواذات الوهمية"

آثار مكافحة الاحتكار

الهيكل "الترخيص + الاستحواذ على المواهب" مصمم لتجنب مراجعة M&A التقليدية، لكن الجهات التنظيمية تبدأ في الإدراك:

توقع أن تفحص لجنة التجارة الفيدرالية (FTC) ووزارة العدل الأمريكية (DOJ) صفقة Nvidia-Groq عن كثب. إذا قررت الجهات التنظيمية أن هذا الهيكل هو تجنب لمراجعة الدمج، فقد نرى إرشادات جديدة أو إجراءات تنفيذية.

ماذا يعني هذا للشركات الناشئة

إذا كنت تبني شركة بنية AI، فإن نموذج "الترخيص + الاستحواذ على المواهب" يغير معنى الخروج:

أخبار جيدة:

  • يمكن أن تكون التقييمات أعلى بكثير من عمليات الاستحواذ التقليدية (Groq: تقييم 6.9 مليار دولار → صفقة 20 مليار دولار)
  • الصفقات تُغلق بشكل أسرع مع مخاطر تنظيمية أقل
  • يحصل المساهمون على نقد دون استيعاب الشركة

أخبار سيئة:

  • نتائج الأسهم لم تعد تلقائية—تحتاج إلى قوة تفاوضية (مواهب نادرة، أصول فكرية حرجة)
  • قد تستمر الشركة كـ'كيان زومبي' بموظفين قليلين
  • قد يرى الموظفون المنقولون إلى المستحوذ تحويل حقوق الأسهم غير المكتسبة إلى أسهم المستحوذ مع جداول كسب جديدة

وفقًا لـ Axios، سيحصل موظفو Groq الذين ينضمون إلى Nvidia على تحويل أسهمهم غير المكتسبة إلى قيمة 20 مليار دولار عبر أسهم Nvidia تكتسب على جدول زمني—مما يعني أنها تخضع لأداء أسهم Nvidia المستقبلية و vesting cliffs.

هياكل التمويل التي يجب مراقبتها

Nvidia أنفقت 20 مليار دولار نقدًا—ثلث كنزها النقدي البالغ 60 مليار دولار. وهذا يضع سابقة لمدى استعداد Big Tech للإنفاق لحرمان المنافسين من الوصول إلى المواهب النادرة والأصول الفكرية الحرجة.

راقبوا:

  • مزيد من صفقات الترخيص غير الحصرية مع نقل المواهب
  • زيادة استخدام earnouts مرتبطة بمعالم تقنية بدلاً من الإيرادات
  • شركات ناشئة تُهيكل cap tables لتعظيم القوة التفاوضية في pseudo-acquisitions

حوار الموظفين

إذا كنت تعمل في شركة ناشئة للذكاء الاصطناعي، اسأل:

  1. ماذا يحدث لحقوق الأسهم غير المكتسبة؟ (نقد؟ أسهم المستحوذ؟ جداول كسب جديدة؟)
  2. هل الترخيص حصري أم غير حصري؟ (هل الشركة الناشئة ستستمر فعليًا، أم ستكون مجرد هيكل؟)
  3. من ينتقل ومن يبقى؟ (إذا غادر 90% من الفريق، فإن "الشركة المستقلة" هي وهم)
  4. ما هي شروط earnout؟ (نقد فوري مقابل مدفوعات متأخرة مرتبطة بمعالم)

تظهر صفقة Groq أن هذه الصفقات يمكن أن تكون مربحة للمساهمين والموظفين—لكن الشروط مهمة للغاية.


الخلاصة

صفقة Nvidia-Groq ليست مجرد معاملة بقيمة 20 مليار دولار. إنها خطة استراتيجية لكيفية دمج قدرات الذكاء الاصطناعي من قبل Big Tech دون إثارة مراجعة مكافحة الاحتكار:

  1. ترخيص الأصول الفكرية (غير حصريًا، للحفاظ على مظهر المنافسة)
  2. توظيف العقول (المؤسسين، التنفيذيين، 90% من الفريق)
  3. ترك الهيكل الشركاتي حيًا (بفريق عمل ضئيل واستمرار العمليات)
  4. دفع زيادة على التقييم الأخير (لتخطي اعتراضات المساهمين)
  5. هيكلة المدفوعات على مدى الوقت (للحفاظ على الموظفين الرئيسيين وإدارة المخاطر)

بالنسبة لـ Nvidia، هذه الصفقة تهدف إلى منع تقدم TPU الخاص بـ Google وتأمين المواهب والأصول الفكرية للمنافسة في inference—الحملة التي ستسيطر على إنفاق البنية التحتية للذكاء الاصطناعي خلال العقد القادم.

بالنسبة لصناعة الذكاء الاصطناعي، تؤكد هذه الصفقة أن المواهب هي الأصل الحقيقي، وليس cap tables. إذا كان لديك الأشخاص القادرين على الإنتاج، فإن لديك قوة تفاوضية. وإذا لم يكن لديك، فإن تقييمك نظري.

بالنسبة للجهات التنظيمية، هذه قضية اختبار. إذا سمحت FTC و DOJ لهذا الهيكل بالاستمرار، فتوقع أن تستخدمه كل شركات Big Tech. وإذا عارضوا، فقد نرى إرشادات جديدة حول ما يشكل 'merger' في عصر الذكاء الاصطناعي.

المخاطر واضحة: من يتحكم في inference infrastructure يتحكم في اقتصاديات نشر الذكاء الاصطناعي. و Nvidia أنفقت للتو 20 مليار دولار للتأكد من أنها هي من يتحكم.


المصادر


نشر على نيرد ليفل تك.كوم | فئة الأخبار | 28 ديسمبر 2025