Hugging Face: القلب مفتوح المصدر للذكاء الاصطناعي الحديث

٧ نوفمبر ٢٠٢٥

Hugging Face: The Open-Source Heart of Modern AI

إذا كنت قد عملت مع تعلم الآلة في السنوات القليلة الماضية، فأنت على الأرجح قد استخدمت شيئًا تم بناؤه أو استضافته بواسطة Hugging Face. ما بدأ في عام 2016 كتطبيق دردشة تطور ليصبح أكبر منصة ذكاء اصطناعي مفتوحة المصدر في العالم—تستضيف أكثر من 2.1 مليون نموذج، و450,000+ مجموعة بيانات، و560,000+ تطبيق. مع 8+ مليون مطور و1,000+ عميل تجاري بما في ذلك Intel وPfizer وBloomberg وeBay، فقد أثبتت Hugging Face نفسها كمركز مرجعي لتطوير الذكاء الاصطناعي التعاوني.

اليوم، لا تقتصر Hugging Face على تحويل طريقة بناء نماذج اللغة فحسب—بل تتوسع أيضًا في الروبوتات، والذكاء الاصطناعي متعدد الوسائط، والأنظمة الوكيلة، مع الحفاظ على مهمتها الأساسية: جعل الذكاء الاصطناعي مفتوحًا، وبأسعار معقولة، وفي متناول الجميع.

في هذا الدليل الشامل، سنستكشف رحلة Hugging Face من تطبيق دردشة إلى قوة في مجال الذكاء الاصطناعي، ونحلل الابتكارات التقنية وراء نظامها البيئي، ونكشف عن التطورات الرائدة التي تعيد تشكيل مستقبل الشركة.


من تطبيق دردشة إلى قوة في مجال الذكاء الاصطناعي: التحول الذي غيّر كل شيء

تأسست Hugging Face في 2016 بواسطة كليمان ديلانغ (المدير التنفيذي)، وجوليان شومون (المدير التقني)، وتوماس وولف (المدير العلمي). في الأصل، كان الثلاثي يهدفون إلى إنشاء تطبيق دردشة ممتع ومليء بالشخصية للمراهقين—"صديق اصطناعي" تم إطلاقه علنًا في مارس 2017 وحقق نموًا سريعًا مع 100,000 مستخدم نشط يوميًا يعالجون أكثر من مليون رسالة يوميًا.

لكن بحلول عام 2018، أدرك المؤسسون رؤية حاسمة: على الرغم من إمكانية تحسين تقنية معالجة اللغة الطبيعية الأساسية، إلا أن هذه التحسينات لم تترجم إلى نمو المستخدمين. كان لتطبيق الدردشة إمكانيات محدودة، لكن البنية التحتية لمعالجة اللغة الطبيعية التي بناها الفريق كانت ذات قيمة هائلة لمجتمع المطورين.

التحول الاستراتيجي

في مايو 2018، بعد جولة تمويل أولية بقيمة 4 ملايين دولار قادتها روني كونواي، اتخذت Hugging Face قرارًا جريء: التحول من تطبيق دردشة للمستهلكين إلى منصة مفتوحة المصدر لمعالجة اللغة الطبيعية.

تسارع التحول مع إصدار مكتبة Transformers—التي تم إطلاقها لأول مرة باسم "pytorch-pretrained-bert" في 17 نوفمبر 2018، مع نشر الورقة الأكاديمية الرسمية "Transformers من HuggingFace: معالجة لغة طبيعية متقدمة" على arXiv في أكتوبر 2019. بحلول ديسمبر 2019، تجاوزت المكتبة 1 مليون عملية تنزيل مع 19,000 GitHub نجمة.

هذا القرار الوحيد—الاختيار بين البناء للمطورين بدلاً من المستهلكين، والقيام بذلك بشكل مفتوح—وضع Hugging Face على مسار سيعيد تشكيل صناعة الذكاء الاصطناعي بالكامل.


منصة Hugging Face: حيث يبني مجتمع الذكاء الاصطناعي

في قلب نظام Hugging Face البيئي توجد المنصة، وهي منصة تعاونية أصبحت المستودع النهائي لأصول تعلم الآلة:

  • أكثر من 2.1 مليون نموذج — من مصنفات النصوص المضغوطة إلى محولات توليد ضخمة، تُضاف مستودعات جديدة كل 15 ثانية تقريبًا
  • أكثر من 450,000 مجموعة بيانات — للتدريب، والتحسين، والمقارنة عبر جميع المجالات
  • أكثر من 560,000 مساحة — عروض تفاعلية وتطبيقات مدعومة بأدوات مثل Gradio وStreamlit
  • أكثر من 50,000 منظمة — بما في ذلك الشركات الكبرى، والمؤسسات البحثية، والمجتمعات مفتوحة المصدر
  • أكثر من 45.4 مليار عملية تنزيل — مما يُظهر نطاق المنصة وتأثيرها (حتى أكتوبر 2025)

الـ GitHub للذكاء الاصطناعي

تعمل المنصة مثل GitHub لتعلم الآلة. كل نموذج ومجموعة بيانات موجودة في مستودع يدعم التحكم في الإصدار. يمكن للمطورين دفع التحديثات، ونسخ المستودعات، والتعاون من خلال طلبات السحب، وتتبع التغييرات بمرور الوقت. النتيجة هي نظام بيئي نابض بالحياة حيث يساهم الأفراد والشركات الناشئة وشركات Fortune 500 جنبًا إلى جنب.

الوصول الفوري إلى النماذج المتقدمة

باستخدام بضعة أسطر فقط من Python، يمكنك سحب نموذج مباشرة من المنصة والبدء في استخدامه:

from transformers import pipeline

# تحميل خط أنابيب تحليل المشاعر من المنصة
classifier = pipeline(
    "sentiment-analysis",
    model="distilbert-base-uncased-finetuned-sst-2-english"
)

result = classifier("Hugging Face يجعل تطوير الذكاء الاصطناعي أسهل بكثير!")
print(result)
# [{'label': 'POSITIVE', 'score': 0.9998}]

هذه هي سحر Hugging Face—الوصول الفوري إلى نماذج متقدمة دون الحاجة إلى تدريبها أو إعدادها من الصفر. تُعمّم المنصة الذكاء الاصطناعي من خلال إزالة الحواجز التقليدية: الحوسبة المكلفة، والإعداد المعقد، وخبرة تعلم الآلة العميقة.

مجموعات البيانات والمساحات: النظام البيئي الكامل

توفر Datasets واجهة موحدة لمئات الآلاف من مجموعات البيانات عبر جميع المجالات—النصوص، والصور، والصوت، والفيديو، والتنسيقات متعددة الوسائط. تتيح خاصية تعيين الذاكرة التعامل بكفاءة مع مجموعات البيانات الضخمة، بينما تدعم الميزة البث العمل مع مجموعات بيانات أكبر من مساحة القرص المتاحة.

from datasets import load_dataset

# تحميل مجموعة بيانات بسطر واحد
dataset = load_dataset("imdb")

# الوصول باستخدام الفهرسة البسيطة
print(dataset["train"][0])

Spaces تحول النماذج من الكود إلى تطبيقات تفاعلية. يمكن للمطورين نشر عروض Gradio أو Streamlit مع استضافة تلقائية، وشهادات SSL، وتطوير تعاوني. من النماذج الأولية البحثية إلى العروض التجريبية الإنتاجية، تجعل Spaces الذكاء الاصطناعي ملموسًا وقابلًا للمشاركة.


مكتبة Transformers: تعميم التعلم العميق

عندما أطلقت Hugging Face مكتبة Transformers في أواخر عام 2018، فقد غيّرت بشكل جذري إمكانية الوصول إلى التعلم العميق. قبل Transformers، كان استخدام نماذج مثل BERT أو GPT-2 يتطلب إعدادًا معقدًا، وبرمجة مخصصة، وموارد حوسبة كبيرة. غيّرت Transformers ذلك من خلال توفير واجهة موحدة وعالية المستوى API.

القدرات الأساسية

واجهة موحدة API عبر الأطر البرمجية: تعمل واجهة واحدة بسلاسة عبر PyTorch وTensorFlow وJAX (تجريبي)، مما يتيح للمطورين اختيار الإطار المفضل لديهم دون إعادة كتابة الكود.

مكتبة ضخمة للنماذج: الوصول إلى أكثر من 300 بنية نموذجية مع أكثر من مليون نقطة تحقق مُدربة مسبقًا متوفرة على المنصة. تشمل المهام تصنيف النصوص، الترجمة، التلخيص، الإجابة على الأسئلة، التوليد، وأكثر من ذلك بكثير.

تحسين بسيط: واجهة Trainer API مع دعم مدمج للدقة المختلطة (بما في ذلك FP8)، torch.compile() التحسين، وFlash Attention يجعل التدريب الدقيق على مجموعات البيانات المخصصة أمرًا بسيطًا للغاية.

التطور متعدد الوسائط: في البداية كان التركيز على معالجة اللغة الطبيعية، والآن تدعم Transformers النصوص والرؤية والصوت والمهام متعددة الوسائط، مما يعكس تطور الصناعة نحو البنى الموحدة.

مثال: التحسين الدقيق في الممارسة

إليك مدى سهولة تحسين نموذج تصنيف نصوص:

from transformers import (
    AutoModelForSequenceClassification,
    AutoTokenizer,
    Trainer,
    TrainingArguments
)
from datasets import load_dataset

# تحميل مجموعة البيانات والمعالج
dataset = load_dataset("imdb")
tokenizer = AutoTokenizer.from_pretrained("distilbert-base-uncased")

# معالجة النصوص
def tokenize(batch):
    return tokenizer(batch["text"], padding=True, truncation=True)

tokenized_datasets = dataset.map(tokenize, batched=True)

# تحميل النموذج
model = AutoModelForSequenceClassification.from_pretrained(
    "distilbert-base-uncased",
    num_labels=2
)

# إعداد التدريب
args = TrainingArguments(
    output_dir="./results",
    evaluation_strategy="epoch",
    per_device_train_batch_size=8,
    num_train_epochs=2,
    fp16=True,  # تدريب بدقة مختلطة
)

# التدريب
trainer = Trainer(
    model=model,
    args=args,
    train_dataset=tokenized_datasets["train"].shuffle(seed=42).select(range(2000)),
    eval_dataset=tokenized_datasets["test"].select(range(500)),
)

trainer.train()

هذا الكود يُحسن نموذج DistilBERT على مجموعة فرعية من بيانات IMDb—مهمة كانت تتطلب مئات الأسطر من الكود قبل ظهور Hugging Face. تعتمد فلسفة تصميم المكتبة على سهولة الاستخدام دون التضحية بالمرونة، مما يمكّن المبتدئين والخبراء على حد سواء من العمل بكفاءة.


وراء Transformers: النظام البيئي الكامل للمكتبات

رغم أن Transformers هو المنتج الرئيسي، فقد بنت Hugging Face مجموعة كاملة من الأدوات المتخصصة التي تغطي دورة حياة تعلم الآلة بالكامل.

Tokenizers: معالجة النصوص عالية الأداء

Tokenizers يوفر تنفيذًا سريعًا للغاية باستخدام Rust مع روابط Python. ويدعم خوارزميات BPE وWordPiece وUnigram وSentencePiece، ويمكنه معالجة 1 جيجابايت من النص في أقل من 20 ثانية على وحدات المعالجة المركزية للخوادم. تتبع المحاذاة الكاملة يُرجع الترميزات إلى مواضع النص الأصلي—وهو أمر حاسم لمهام مثل التعرف على الكيانات المسماة.

متاح في Python وNode.js وRust وRuby، يوفر Tokenizers الأداء المطلوب لأنظمة الإنتاج.

Accelerate: التدريب الموزع ببساطة

Accelerate يمكّن نفس كود PyTorch من العمل عبر أي تكوين موزع بتغييرات بسيطة—أربعة أسطر فقط من الكود. أُصدرت النسخة 1.0.0 في عام 2024، وتدعم 6 مسرعات أجهزة: CPU وGPU وTPU وXPU وNPU وMLU.

تشمل الميزات الرئيسية:

  • الدقة المختلطة التلقائية (بما في ذلك FP8)
  • دعم FSDP وDeepSpeed للتدريب على نطاق واسع
  • device_map="auto" لاستنتاج النماذج الكبيرة عبر عدة وحدات GPU
  • التكامل مع Transformers وDiffusers وPEFT وTRL

يُعمّم Accelerate الحوسبة الموزعة، مما يسمح للباحثين والشركات الناشئة بالتوسع دون الحاجة إلى خبرة متقدمة في البنية التحتية.

Diffusers: الذكاء الاصطناعي التوليدي للصور والفيديو والصوت

Diffusers (أُصدر في يوليو 2022) يوفر نماذج انتشار مُدربة مسبقًا متقدمة لإنشاء الصور والفيديو والصوت. مع أكثر من 10,000 خط أنابيب متوافقة على المنصة، أصبح المكتبة القياسية للذكاء الاصطناعي التوليدي خارج النص.

from diffusers import DiffusionPipeline
import torch

# تحميل خط أنابيب النص إلى الصورة
pipe = DiffusionPipeline.from_pretrained(
    "stabilityai/stable-diffusion-2-1",
    torch_dtype=torch.float16
)
pipe = pipe.to("cuda")

# إنشاء صورة
image = pipe("مدينة مستقبلية عند الغروب، فن رقمي").images[0]
image.save("generated_city.png")

يدعم Diffusers المحولات مثل LoRA للتدريب الدقيق بكفاءة، والتحسينات بما في ذلك التفريغ والتقسيم الكمي للأجهزة ذات الذاكرة المحدودة. يعطي التصميم الأولوية لـ سهولة الاستخدام والبساطة والتخصيص—قيم Hugging Face الأساسية.

Datasets: مركز بيانات التعلم الآلي

مكتبة Datasets، التي نشأت كنسخة معدلة من TensorFlow Datasets، تستضيف الآن أكثر من 543,415 مجموعة بيانات تشمل النصوص والصور والصوت والفيديو والتنسيقات متعددة الوسائط. يدعم تعيين الذاكرة والتدفق العمل مع مجموعات بيانات أكبر بكثير من ذاكرة الوصول العشوائي أو مساحة القرص المتاحة.

التكامل يشمل PyTorch 2.0+ وTensorFlow 2.6+ وJAX 3.14+، بالإضافة إلى PyArrow وPandas وPolars وSpark. الوظيفة البسيطة load_dataset() والعمليات الفعالة map() تجعل معالجة البيانات واضحة بشكل ملحوظ.

Evaluate: قياس ما يهم

Evaluate يوفر العشرات من المقاييس الشائعة التي تغطي معالجة اللغة الطبيعية ورؤية الحاسوب والصوت. تنظم ثلاث فئات رئيسية النظام البيئي:

  • المقاييس: قياس أداء النموذج مقابل الحقيقة الأرضية (الدقة، F1، BLEU، إلخ)
  • المقارنات: تحليل الاختلافات بين النماذج
  • القياسات: تقييم خصائص مجموعة البيانات

الـ API بسيط وأنيق:

import evaluate

# تحميل مقياس
accuracy = evaluate.load("accuracy")

# حساب النتائج
results = accuracy.compute(references=[0, 1, 2], predictions=[0, 1, 1])
print(results)  # {'accuracy': 0.6667}

ملاحظة لتقييم LLM: يوصي Hugging Face الآن باستخدام LightEval كبديل أحدث وأكثر صيانة نشطة خصيصًا لتقييم نماذج اللغة الكبيرة.


حلول المؤسسات: الذكاء الاصطناعي على نطاق واسع

بينما يبقى المصدر المفتوح في قلب Hugging Face، تقدم الشركة خدمات على مستوى المؤسسات تمكن المنظمات من نشر الذكاء الاصطناعي وتوسيع نطاقه بشكل آمن.

Inference Endpoints: نشر النماذج جاهز للإنتاج

Inference Endpoints يوفر نشرًا مُدارًا بالكامل للنماذج كواجهات برمجة تطبيقات آمنة وقابلة للتوسع. متوفر منذ عام 2022 مع تحسينات مستمرة، تقدم الخدمة:

  • التوسع التلقائي مع التصغير إلى الصفر — ادفع فقط مقابل ما تستخدمه
  • المرونة متعددة السحابة — اختر مزود السحابة (AWS أو Azure أو GCP) والمنطقة والمعدات
  • ثلاث مستويات أمان:
    • نقاط النهاية المحمية — يتطلب المصادقة
    • نقاط النهاية العامة — وصول مفتوح للعروض العامة
    • نقاط النهاية الخاصة — تكامل PrivateLink للاتصال عبر VPC
  • محركات الاستنتاج المحسّنة — التكامل مع vLLM وText Generation Inference (TGI) وText Embeddings Inference (TEI)
  • أكثر من 60,000 نموذج مدعوم — Transformers وDiffusers وSentence Transformers وغيرها

تبدأ الأسعار من 0.032 دولار لكل ساعة نواة CPU و0.5 دولار لكل ساعة GPU، مع خطط المؤسسات التي تقدم دعمًا مخصصًا وضمانات SLA على مدار الساعة طوال أيام الأسبوع وضمانات توفر.

مثال على استخدام API:

curl https://API-inference.huggingface.co/models/distilbert-base-uncased-finetuned-sst-2-english \
  -X POST \
  -d '{"inputs": "Hugging Face is transforming AI!"}' \
  -H "Authorization: Bearer YOUR_HF_API_TOKEN"

يعيد الرد توقعات JSON، مما يتيح التكامل السلس في أي تطبيق دون إدارة البنية التحتية.

المركز المؤسسي: البنية التحتية للذكاء الاصطناعي الخاص

يوفر المركز المؤسسي (المعروف سابقًا باسم المركز الخاص، الذي تم الإعلان عنه في أغسطس 2022) بيئات معزولة حيث يمكن للفرق استضافة النماذج ومجموعات البيانات الخاصة باستخدام نفس أدوات التعاون الموجودة في المركز العام. وهذا يسد الفجوة بين البحث المفتوح ومتطلبات السرية المؤسسية.

ثلاث خيارات للنشر:

  1. المركز الخاص المُدار — يعمل في شبكات VPC معزولة تملكها Hugging Face
  2. المركز الخاص على السحابة — يعمل في حساب السحابة الخاص بالعميل (AWS، Azure، GCP)
  3. على الموقع — النشر على البنية التحتية للعميل لضمان الامتثال الصارم

ميزات المؤسسة:

  • SSO مع تكامل SAML — مصادقة مركزية
  • مجموعات الموارد — تحكم دقيق بالوصول بناءً على الأدوار
  • مناطق التخزين — الامتثال لـ GDPR في أوروبا وأمريكا الشمالية وآسيا والمحيط الهادئ
  • سجلات تدقيق شاملة — إمكانية التتبع الكاملة
  • 1 تيرابايت من التخزين الخاص لكل عضو في المؤسسة (25 دولارًا شهريًا لكل تيرابايت إضافي)
  • 5 أضعاف حصة ZeroGPU — توسيع الوصول إلى الحوسبة
  • سياسات أمان متقدمة — تطبيق على مستوى المؤسسة

المنصة معتمدة SOC2 Type 2 ومتوافقة مع GDPR، مما يلبي متطلبات الأمان والخصوصية المؤسسية.


الشراكات الاستراتيجية: سويسرا المحايدة للذكاء الاصطناعي

يعكس موقع Hugging Face كـ "سويسرا المحايدة للذكاء الاصطناعي" في شراكاته الاستراتيجية المتنوعة التي تمتد عبر مزودي السحابة الكبرى وشركات تصنيع الشرائح وقادة البرمجيات المؤسسية.

AWS: مزود السحابة المفضل

تخدم Amazon Web Services كـ مزود سحابة مفضل مُعيّن لـ Hugging Face—شراكة حاسمة غالبًا ما تُستهان بها في النقاش العام. استثمرت AWS في جولة Series D في أغسطس 2023 من خلال اتفاقية تقاسم الإيرادات.

أبرز التكاملات:

  • حاويات التعلم العميق (DLCs) من Hugging Face — بيئات مُعدة مسبقًا لـ SageMaker
  • SageMaker JumpStart — نشر بنقرة واحدة لأكثر من 10,000 نموذج
  • السيليكون المخصص من AWS — Trainium للتدريب (حتى 50% توفير في التكلفة)، Inferentia/Inferentia2 للاستنتاج (4 أضعاف الإنتاجية، وتأخير أقل بـ 10 مرات)
  • المركز المؤسسي عبر AWS Marketplace — الفوترة مباشرة من خلال حسابات AWS
  • تكامل كامل مع AWS — الدعم عبر EC2 وS3 وLambda وAWS Data Exchange

تجعل هذه الشراكة نظام Hugging Face متكاملًا بشكل عميق مع أكبر منصة سحابة في العالم، مما يمكّن المؤسسات من الاستفادة من الذكاء الاصطناعي دون احتجاز من مورد واحد.

Google Cloud: تعاون استراتيجي واستثمار

شاركت Google كـ مستثمر في جولة Series D البالغة 235 مليون دولار وكم associatecloud شريك استراتيجي (أعلن في 25 يناير 2024).

أبرز التكاملات:

  • نشر بنقرة واحدة من Hub إلى Vertex AI
  • دعم محرك Kubernetes من Google (GKE) مع حاويات Hugging Face
  • الوصول إلى Cloud TPU v5e — أداء أفضل بنسبة 2.5 مرة من الجيل السابق
  • أجهزة A3 VM مع بطاقات NVIDIA H100 GPU وC3 VM مع Intel Sapphire Rapids
  • أكثر من 10,000 نموذج في Google Cloud Model Garden
  • اشتراكات المركز المؤسسي تُدار عبر حسابات Google Cloud

Microsoft Azure: تعزيز التكامل متعدد الوسائط

تطورت شراكة Azure من خلال مراحل توسع متعددة (إعلان أولي في مايو 2022، توسع في مايو 2024 في فعالية Build، وتعميق في يناير 2025).

أبرز التوسع في يناير 2025:

  • أكثر من 10,000 نموذج من Hugging Face في Azure AI Foundry مع إصدارات يوم الصفر
  • دعم متعدد الوسائط — نماذج النص والرؤية والكلام
  • نشر بنقرة واحدة من Hub إلى Azure Machine Learning
  • أوزان النماذج المستضافة في Azure — نشر آمن دون خروج خارجي
  • توافق مع OpenAI Chat Completion API — بديل مباشر
  • نهج يركز على الأمان — فحص الثغرات في جميع النماذج

الإضافات في مايو 2024:

  • أكثر من 20 نموذج LLM جديد بما في ذلك متغيرات Meta Llama
  • تكامل GPU AMD MI300X
  • تكامل Phi-3 في HuggingChat
  • وضع تطوير Spaces مع VS Code — بيئات تطوير كاملة في المتصفح

NVIDIA: التدريب والاستنتاج والروبوتات

تمتد شراكة NVIDIA (أعلنت في أغسطس 2023، وتوسعت في نوفمبر 2024 ويناير 2025) عبر أبعاد متعددة:

بنية التدريب:

  • تجميع التدريب كخدمة مدعوم من NVIDIA DGX Cloud
  • كل مثيل يحتوي على 8x GPUs من نوع A100 أو H100 مع ذاكرة GPU تبلغ 640 جيجابايت
  • تبدأ الأسعار من 36,999 دولارًا شهريًا لحوسبة الذكاء الاصطناعي متعددة العقد
  • توسع GTC Paris في يناير 2025 أضاف تكامل DGX Cloud Lepton مع الوصول إلى أحدث GPUs من نوع Hopper وGB200

تحسين الاستنتاج:

  • تكامل NVIDIA NIM — حتى 5 أضعاف الإنتاجية الأعلى على GPUs من نوع H100
  • مكتبة Optimum-NVIDIA — تحسينات خاصة بالأجهزة

تعاون الروبوتات (نوفمبر 2024):

  • تكامل LeRobot مع NVIDIA Isaac Lab
  • دعم منصات GR00T وJetson
  • قدرات استنتاج الروبوتات في الوقت الفعلي

شراكة تدريب النماذج:

  • درّبت NVIDIA StarCoder2-15B باستخدام إطار العمل NeMo (أُطلق في فبراير 2024)

ServiceNow: الذكاء الاصطناعي مفتوح المصدر للشفرة

تقود ServiceNow مشروع BigCode بالشراكة مع Hugging Face—تعاون علمي مفتوح لتطوير LLM المسؤول للشفرة (أُعلن في سبتمبر 2022).

أهم الإصدارات:

  • StarCoder (مايو 2023) — نموذج بحجم 15 مليار معلمة تم تدريبه على تريليون رمز من مجموعة بيانات The Stack v1.2، يغطي أكثر من 80 لغة برمجة برخصة MIT
  • StarCoder2 (فبراير 2024) — ثلاث أحجام للنموذج (3B، 7B، 15B) تم تدريبها على 619 لغة برمجة تحت رخصة BigCode OpenRAIL-M

يبني Now LLM من ServiceNow على أساس StarCoder، ويدعم التحويل من نص إلى شفرة، وتوليد سير العمل، وإكمال الشفرة، والتلخيص، واسترجاع الشفرات.

شراكات رئيسية إضافية

ديـل تكنولوجيز (مايو 2024) — أول مزود للبنية التحتية لمركز المؤسسة محليًا، شريك البنية التحتية المفضل للتشغيل المحلي مع دعم لمعالجات NVIDIA و AMD و Intel Gaudi.

سيريبراز (مارس 2025) — سرعات استنتاج تصل إلى أكثر من 2200 رمز في الثانية (أسرع بـ 70 مرة من وحدات معالجة الرسوميات) باستخدام محرك CS-3 Wafer-Scale Engine-3.

كلاودفلير (فبراير 2025) — FastRTC يوفر بنية تحتية للتواصل في الوقت الفعلي مع 10 جيجابايت مجانية من البث الشهري.

جيه فروغ (مارس 2025) — فحص أمني متقدم مع شارات "JFrog Certified" للنماذج المعتمدة.

ديجيتال أوشن (2024) — نماذج بنقرة واحدة مدعومة من HUGS على GPU Droplets مع NVIDIA H100.

هذا النظام البيئي للشراكات يضع Hugging Face كمنصة محايدة حيث يتعاون مجتمع الذكاء الاصطناعي بالكامل، تجنبًا للاستحواذ من قبل مورد واحد مع الحفاظ على المبادئ مفتوحة المصدر.


BigScience: معلم في بحث الذكاء الاصطناعي المفتوح والتعاوني

ساعدت Hugging Face في إطلاق BigScience في مايو 2021—ورشة بحثية استمرت عامًا واحدًا وتمثلت في واحدة من أكثر تعاونات العلوم المفتوحة طموحًا في تاريخ الذكاء الاصطناعي. شارك أكثر من 1000 باحث من أكثر من 60 دولة و250 مؤسسة في بناء نموذج لغوي ضخم بطريقة شفافة ومسؤولة.

نموذج BLOOM: الذكاء الاصطناعي المفتوح على نطاق واسع

أنتجت BigScience BLOOM (نموذج BigScience الكبير متعدد اللغات مفتوح المصدر)، أُطلق في 11 يوليو 2022 بعد التدريب من 11 مارس إلى 6 يوليو 2022 (117 يومًا).

المواصفات التقنية:

  • 176 مليار معلمة (176,247,271,424 بدقة)
  • محول فك تشفير فقط مبني على Megatron-LM GPT2 المعدل
  • 70 طبقة، 112 رأس انتباه، طبقات خفية ببعد 14,336
  • طول تسلسل 2048 رمزًا مع ترميزات موضعية ALiBi
  • مفردات تضم 250,680 رمزًا
  • 46 لغة طبيعية و13 لغة برمجة (Java، PHP، C++، Python، JavaScript، C#، Ruby، TypeScript، Lua، Go، Scala، Rust)
  • أول نموذج يتجاوز 100 مليار معلمة للغات مثل الإسبانية والفرنسية والعربية

بنية التدريب:

  • 1.6 تيرابايت من النصوص المعالجة مسبقًا من مجموعة ROOTS (~366 مليار رمز شوهدت أثناء التدريب)
  • 384 وحدة معالجة رسومية NVIDIA A100 بسعة 80 جيجابايت (48 عقدة) بالإضافة إلى 32 وحدة احتياطية
  • الكمبيوتر الخارق Jean Zay في فرنسا
  • التكلفة المقدرة: 2-5 مليون دولار ما يعادل الحوسبة السحابية (منحة حسابية بقيمة 3 مليون يورو من CNRS وGENCI)
  • أُطلق تحت ترخيص RAIL v1.0 (ترخيص الذكاء الاصطناعي المسؤول)

إرث BigScience

توضيح مهم: كانت BigScience ورشة بحثية محدودة زمنيًا استمرت عامًا واحدًا وانتهت في مايو 2022، وليس منظمة مستمرة. جلسة الإغلاق في مايو 2022 في مؤتمر ACL كانت بمثابة إتمام للورشة. ومع ذلك، لا يزال BLOOM يُستخدم بنشاط مع أكثر من 4000 تنزيل شهريًا اعتبارًا من 2024-2025، ويستمر الإرث من خلال مشاريع مشتقة مثل BigLAM (التي تركز على بيانات التراث الثقافي).

أظهرت BigScience أن البحث في الذكاء الاصطناعي على نطاق واسع يمكن أن يُجرى بشكل مفتوح وشفاف وشامل—وقد وضعت معايير جديدة للتوثيق والحوكمة والاعتبارات الأخلاقية.


ثورة الروبوتات: الجبهة الجديدة الجريئة لـ Hugging Face

ربما لا يوجد تطور حديث يوضح طموح Hugging Face أكثر من توسعها الجريء في مجال الروبوتات—مما يضع الشركة في موقع يمكنها من خلاله إتاحة الذكاء الاصطناعي الفيزيائي بنفس الطريقة التي أتاح بها نماذج اللغة.

الرؤية: روبوتات مفتوحة ومتاحة وפרטية

تؤكد مهمة Hugging Face في مجال الروبوتات على جعل هذا المجال "مفتوحًا ومتاحًا وخاصًا"—وتوسيع قيمها الأساسية إلى العالم الفيزيائي. تجمع الاستراتيجية بين أجهزة متاحة وبرمجيات مفتوحة المصدر، مما يخلق نظامًا بيئيًا يمكن لأي شخص من خلاله بناء وتدريب ونشر الروبوتات.

منصات الأجهزة

HopeJR (أُعلن في مايو 2025) — روبوت إنساني كامل مع:

  • 66 درجة حرية مُشغلة
  • قدرات على المشي والتعامل
  • السعر: حوالي 3000 دولار — يقلل بشكل كبير من أسعار المنافسين مثل Tesla Optimus أو روبوتات Figure AI
  • من المتوقع شحن أول وحدة بحلول نهاية عام 2025

Reachy Mini (تم الحصول عليه من خلال الاستحواذ على Pollen Robotics، أبريل 2025) — روبوتات إنسانية مكتبية:

  • الإصدار اللاسلكي: 449 دولارًا
  • الإصدار الخفيف: 299 دولارًا
  • مصممة لاختبار تطبيقات الذكاء الاصطناعي في شكل مضغوط

ذراع الروبوت SO-101 (تم التحديث من SO-100 في 2024) — منصة تعليمية وتجريبية قابلة للبرمجة بطباعة ثلاثية الأبعاد للاستخدام في التلاعب.

النظام البيئي للبرمجيات: LeRobot و SmolVLA

منصة LeRobot — إطار عمل مفتوح المصدر للذكاء الاصطناعي في الروبوتات مع:

  • نماذج مُدربة مسبقًا لمهام التلاعب
  • مجموعات بيانات مجتمعية لتعلم الروبوتات
  • التكامل مع NVIDIA Isaac Lab (نوفمبر 2024)
  • الدعم لمنصات GR00T و Jetson

SmolVLA (يونيو 2025) — نموذج رؤية-لغة-عمل مبتكر:

  • 450 مليون معلمة
  • يعمل على أجهزة MacBook أو وحدات معالجة رسومية استهلاكية واحدة
  • مدرب على مجموعات بيانات LeRobot المجتمعية
  • استنتاج غير متزامن لاستجابة أسرع للروبوت
  • يمكن التفكير البصري في الوقت الفعلي وتخطيط الإجراءات على الأجهزة الحافة

تمثل مبادرة الروبوتات أحدث تطور مميز لشركة Hugging Face، حيث تمتد رسالتها في إتاحة الوصول من الذكاء الاصطناعي الرقمي إلى الذكاء المتجسد الفيزيائي.


الذكاء الاصطناعي متعدد الوسائط: ما بعد النص

رغم أن Hugging Face بنى سمعته على معالجة اللغة الطبيعية، إلا أن المنصة تطورت بشكل كبير لدعم الذكاء الاصطناعي متعدد الوسائط عبر الرؤية والصوت والفيديو وتوظيفها معًا.

SmolVLM: نماذج الرؤية-اللغة الأكثر تقدمًا

SmolVLM (أُطلق في نوفمبر 2024) يقدم قدرات متقدمة في الرؤية-اللغة في نموذج يضم 2 مليار معلمة محسّن للأجهزة الحافة—أجهزة الكمبيوتر المحمولة ووحدات معالجة الرسوميات الاستهلاكية.

ثلاثة متغيرات:

  • SmolVLM-Base — نموذج الأساس
  • SmolVLM-Synthetic — مدرب باستخدام تضخيم البيانات الاصطناعية
  • SmolVLM-Instruct — مُعد للتعليمات للتطبيقات اللاحقة

القدرات:

  • وصف الصور
  • الإجابة البصرية على الأسئلة
  • فهم المستندات والتعرف الضوئي على الحروف
  • أُطلق تحت ترخيص Apache 2.0

نمو كبير في نماذج متعددة الوسائط

يستضيف المركز الآن أكثر من 2000 نموذج متعدد الوسائط يدعم:

  • نماذج صورة-نص (CLIP، BLIP، LLaVA، Idefics)
  • نماذج صوت-نص (Whisper، Wav2Vec2)
  • نماذج فيديو-نص (VideoMAE، TimeSformer)
  • فهم المستندات (LayoutLM، Donut)

تطورات يناير 2025:

  • نوافذ سياق تضم 128 ألف رمز (Gemma3-4b-it) للاستدلال البصري طويل السياق
  • دعم أكثر من 140 لغة في السياقات متعددة الوسائط
  • نماذج لغوية بسيطة (أقل من 2 مليار معلمة) محسّنة للنشر على الحافة
  • قدرات فهم الفيديو الطويل

IDEFICS: قوة متعددة الوسائط مفتوحة المصدر

تُقدم عائلة IDEFICS (التدريب الدقيق للتضمينات المُوجهة لإنشاء التوصيفات وتلخيص الصور) نماذج متعددة الوسائط تضم 80 مليار معلمة وتقبل تسلسلات من الصور والنصوص.

تم تدريبها على مجموعة بيانات OBELICS (115 مليار رمز، 141 مليون مستند، 353 مليون صورة)، تُظهر IDEFICS أن الذكاء الاصطناعي متعدد الوسائط مفتوح المصدر يمكنه أن يضاهي البدائل المملوكة من حيث القدرة مع الحفاظ على الشفافية وإمكانية الوصول.


الذكاء الوكيلي ومنصات المطورين: الموجة القادمة

تُرسي Hugging Face الجيل القادم من تطبيقات الذكاء الاصطناعي من خلال الأنظمة الوكيلية وأدوات المطورين المتكاملة بعمق.

HuggingChat: البديل المفتوح لـ ChatGPT

HuggingChat (أُطلق في أكتوبر 2024) يوفر إجابة مجانية من Hugging Face لـ ChatGPT، مع فرق جوهري: يمكن للمستخدمين الاختيار من بين مجموعة متنوعة من النماذج مفتوحة المصدر بدلاً من الالتزام بنظام مملوك واحد.

يُجسد هذا النهج فلسفة Hugging Face في حرية الاختيار والبدائل المفتوحة للمنصات المغلقة.

smolagents: إطار عمل وكيلي خفيف

smolagents (ديسمبر 2024/يناير 2025) يوفر إطار عمل خفيف لإنشاء الأنظمة الوكيلية حيث تتحكم النماذج اللغوية الكبيرة في تدفق المهام بشكل ديناميكي.

الميزات الرئيسية:

  • تكامل الأدوات (محركات البحث، واجهات برمجة التطبيقات، الوظائف المخصصة)
  • التخطيط والتنفيذ الديناميكي للمهام
  • التوافق مع Hugging Face Hub
  • اعتماديات قليلة وواجهة برمجة بسيطة

تمثل الوكلاء التطور التالي بعد التوجيه الثابت، مما يمكّن أنظمة الذكاء الاصطناعي من التفكير في المهام المعقدة، واستخدام الأدوات، وتكييف السلوك بناءً على النتائج المتوسطة.

HUGS: منصة النشر المؤسسي

HUGS (خدمات Hugging Face للذكاء الاصطناعي التوليدي، أواخر 2024) تُمكّن النشر والتدريب دون اتصال للنماذج الذكية في بيئات المؤسسات الشخصية.

القدرات:

  • تحسين جاهز للإنتاج
  • نشر معزول تمامًا لأقصى درجة من الأمان
  • تدريب نموذج مخصص على بيانات خاصة
  • التكامل مع البنية التحتية المؤسسية

OpenEnv: توحيد بيئات الوكلاء

OpenEnv (أُطلق في نوفمبر 2025 بالتعاون مع فريق PyTorch في Meta) يوفر منصة مفتوحة المصدر لتوحيد بيئات الوكلاء الذكية.

المكونات:

  • مواصفات OpenEnv 0.1 — تنسيق قياسي لبيئات الوكلاء
  • مركز البيئات — مستودع لصناديق آمنة لتطوير الوكلاء
  • تكاملات الإطار — دعم TorchForge، verl، TRL، SkyRL

يُعالج OpenEnv التجزئة في تطوير الذكاء الوكيلي، من خلال إنشاء معايير مشتركة تُسرّع البحث والنشر في الإنتاج.

دمج GitHub Copilot Chat

أشار سبتمبر 2025 إلى نقطة تحول كبيرة: مزودو الاستنتاج الآن يدمجون مع GitHub Copilot Chat، مما يمكّن المطورين من الوصول إلى نماذج LLM مفتوحة المصدر مباشرة في VS Code الإصدار 1.104.0 فأكثر.

النماذج المدعومة تشمل:

  • Kimi K2
  • DeepSeek V3.1
  • GLM 4.5
  • والعديد من النماذج الأخرى من نظام Hugging Face البيئي

يُمكّن هذا التكامل نماذج Hugging Face مفتوحة المصدر من أن تكون بديلاً عمليًا لمساعدي البرمجة المملوكة، مما يُوسع نطاق الشركة بشكل استراتيجي داخل بيئات سير العمل الأساسية للمطورين.


القيادة البيئية: جعل الذكاء الاصطناعي مستدامًا

برزت Hugging Face كقائدة في المسؤولية البيئية داخل صناعة الذكاء الاصطناعي، من خلال تطوير أدوات ومعايير لقياس وتقليل انبعاثات الكربون.

تتبع انبعاثات الكربون

يُمكّن تكامل CodeCarbon من تتبع الانبعاثات تلقائيًا مباشرة في مكتبة Transformers عبر CodeCarbonCallback التلقائي أثناء التدريب. يدعم Hub تصفية النماذج حسب البصمة الكربونية باستخدام معلمة emissions_threshold في HfApi.

يمكن للنماذج عرض بيانات انبعاثات CO2 في بطاقات النماذج، مما يعزز الشفافية ويحفّز تحسينات الكفاءة.

تحليل الكربون لـ BLOOM: وضع المعايير

أوضح التحليل الشامل لانبعاثات الكربون في تدريب BLOOM (2022-2023) حوالي 25 طن متري من انبعاثات CO2 المباشرة (~50 طن متري إجمالي بما في ذلك البنية التحتية والتصنيع)—وهو أقل بكثير من النماذج المماثلة.

نتجت هذه الكفاءة عن شبكة الطاقة النووية الفرنسية في الحاسوب الخارق Jean Zay، مما يُظهر أن اختيارات البنية التحتية تؤثر بشكل كبير على البصمة البيئية للذكاء الاصطناعي.

البحث والدعوة

أنشأت ساشا لوتشيوني، رئيسة الذكاء الاصطناعي والمناخ في Hugging Face:

  • أنظمة تصنيف الكفاءة الكربونية
  • أدوات لقياس الأثر البيئي
  • معايير لتوثيق انبعاثات النماذج
  • موارد تعليمية من خلال سلسلة مدونات "التأثيرات البيئية للذكاء الاصطناعي"

ورقة البحث "استكشاف البصمة الكربونية لنماذج Hugging Face للتعلم الآلي" (2023) تقدم تحليلًا شاملاً للأثر البيئي للمنصة.

يُثبت هذا العمل أن Hugging Face هي قائدة فكرية في الذكاء الاصطناعي المستدام، حيث لا تقدم الأدوات فحسب، بل تبحث وتدافع بنشاط عن تقليل الأثر البيئي في جميع أنحاء الصناعة.


التمويل والنمو: أن تصبح سويسرا الذكاء الاصطناعي

أغلقت Hugging Face جولة تمويل سلسلة D بقيمة 235 مليون دولار في أغسطس 2023 بتقييم 4.5 مليار دولار—مضاعفة من 2 مليار دولار في 2022. قادت الجولة Salesforce Ventures مع مشاركة من:

  • Google
  • Amazon (AWS)
  • NVIDIA
  • Intel
  • AMD
  • Qualcomm
  • IBM
  • Sound Ventures

أُجريت جولة أصغر إضافية من Premji Invest وBossanova Investimentos في يناير 2024. إجمالي التمويل يتجاوز 400 مليون دولار عبر تسع جولات.

استراتيجية "سويسرا المحايدة"

قاعدة المستثمرين المتنوعة—التي تشمل مزودي سحابة منافسين، ومصنعي رقائق، وقادة برمجيات مؤسسية—تُمكّن Hugging Face من أن تكون المنصة المحايدة التي يتعاون فيها صناعة الذكاء الاصطناعي بأكملها.

على عكس المنصات التي تتحكم فيها جهة واحدة، تتجنب Hugging Face الارتباط المغلق بالمورّد، مما يُمكّن المستخدمين من اختيار:

  • مزود السحابة (AWS، Azure، GCP، أو على الموقع)
  • الأجهزة (NVIDIA، AMD، Intel، Cerebras، وغيرها)
  • الإطار (PyTorch، TensorFlow، JAX)
  • ترخيص النموذج (Apache 2.0، MIT، تراخيص مخصصة)

تُعد هذه الحيادية ميزة استراتيجية أساسية، مما يجعل Hugging Face الخيار الطبيعي للتعاون المفتوح.

الإيرادات والحجم

ارتفع الإيراد من 70 مليون دولار (2023) إلى حوالي 130 مليون دولار (2024)، مع وجود أكثر من 1000 عميل مؤسسي دافع بما في ذلك Intel وPfizer وBloomberg وeBay وآلاف آخرين.

تُظهر مقاييس المنصة نطاقًا استثنائيًا:

  • أكثر من 8 ملايين مطور
  • أكثر من 50,000 منظمة
  • أكثر من 45.4 مليار تنزيل إجمالي (أكتوبر 2025)
  • 37.61 مليون زيارة شهرية لموقع الويب (أغسطس 2025)
  • أكثر من 50,000 بحث مرتبط

الفلسفة: إتاحة تعلم الآلة للجميع

منذ اليوم الأول، كانت مهمة Hugging Face تتمحور حول إتاحة الذكاء الاصطناعي للجميع—جعله في متناول الجميع وشفافًا وتعاونيًا. يصف المؤسسون الشركة بأنها "GitHub لتعلم الآلة"، لكنها تطورت إلى ما وراء مستودع بسيط لتصبح حركة نحو العلم المفتوح.

المبادئ الأساسية

مفتوح بشكل افتراضي: جميع الأدوات المُصدرة بموجب تراخيص متساهلة (Apache 2.0، MIT). الأبحاث منشورة بشكل مفتوح. النماذج مُشاركة بحرية.

مدفوع بالمجتمع: يُقاس النجاح ليس بالمزايا الاحتكارية ولكن بتبني المجتمع ومساهمته. تم إنشاء أكثر من مليون مستودع من قبل المجتمع العالمي.

في متناول الجميع: إزالة حواجز التكلفة والتعقيد والخبرة. يمكن لطالب المدرسة الثانوية الوصول إلى نفس النماذج التي تمتلكها شركة من قائمة Fortune 500.

أخلاقي: توثيق شفاف من خلال بطاقات النموذج وبطاقات البيانات. المشاركة الفعالة في مبادرات الذكاء الاصطناعي المسؤول. تتبع انبعاثات الكربون مدمج في الأدوات.

محايد: تجنب الارتباط بالبائع الواحد والتقاط منصة واحدة. دعم موفري السحابة والعتاد والأطر المتنوعة.


التقدير المجتمعي والتأثير

لقد أدرك مجتمع الذكاء الاصطناعي التأثير التحويلي لـ Hugging Face من خلال العديد من الجوائز:

مشروع العام 2024 من Emerge — سُمي لدوره التحويلي في الذكاء الاصطناعي والتزامه بالإتاحة.

التبني الأكاديمي: يستخدم الباحثون في جميع أنحاء العالم Hugging Face لمشاركة نماذج ومجموعات بيانات قابلة لإعادة الإنتاج، مما يمكّن التحقق من الأقران ويُسرّع التقدم العلمي.

تمكين الشركات الناشئة: تستفيد الشركات الشابة من النماذج المُدربة مسبقًا لبناء المنتجات بشكل أسرع دون ميزانيات حوسبة ضخمة، مما يقلل الحواجز أمام ريادة الأعمال في الذكاء الاصطناعي.

التحول المؤسسي: تدمج المؤسسات الكبيرة نماذج Hugging Face في خدمة العملاء، ومراقبة المحتوى، وأنظمة التحليل، والأدوات الداخلية.


مبادرات إضافية ملحوظة

مشروع ZeroGPU

قدمت Hugging Face قوة حوسبة GPU بقيمة 10 ملايين دولار للمجتمع، مما يوسع إمكانية الوصول إلى تدريب الذكاء الاصطناعي للباحثين والمطورين الذين يفتقرون إلى البنية التحتية المكلفة.

HuggingSnap

HuggingSnap (2025) يوفر تطبيق iPhone لفهم الفيديو على الجهاز باستخدام نماذج SmolVLM، مما يُظهر أن الذكاء الاصطناعي متعدد الوسائط القوي يمكن أن يعمل بالكامل على الأجهزة المحمولة دون الاعتماد على السحابة.

التعاون بين IBM وNASA

في أغسطس 2025، أصدرت IBM وNASA نموذج Surya الأساسي على Hugging Face لتوقع الطقس الشمسي، كجزء من عائلة Prithvi من النماذج الجغرافية والطقسية والشمسية. وهذا يُظهر توسع Hugging Face في مجالات الحوسبة العلمية إلى ما وراء معالجة اللغة الطبيعية ورؤية الحاسوب التقليدية.

تكامل موفري الاستنتاج

أطلقت موفري الاستنتاج API موحدًا للوصول إلى مئات نماذج تعلم الآلة مع:

  • عدم وجود ارتباط بالبائع — تبديل الموفرين فورًا
  • تسعير الدفع حسب الاستخدام دون أي ربح إضافي
  • توفر الطبقة المجانية للتجريب

الطريق إلى الأمام: مواصلة الابتكار

لا تُظهر Hugging Face أي علامات على التباطؤ. تشير المبادرات الأخيرة إلى توسع مستمر عبر عدة جبهات:

توسع في الروبوتات: تتوقع أول شحنات HopeJR بحلول نهاية 2025، مع خطط لتوسيع إنتاج روبوتات إنسانية بأسعار معقولة.

التطور متعدد الوسائط: تحسينات إضافية في نماذج اللغة البصرية، وفهم الفيديو، والاستدلال متعدد الوسائط.

أنظمة الوكلاء: تطوير مستمر لإطارات العمل الوكيلية وتوحيد المعايير من خلال OpenEnv.

تحسين العتاد: تعاون مستمر مع صانعي الشرائح (NVIDIA، AMD، Intel، Cerebras) لتحسين سرعة وكفاءة الاستنتاج على عتاد متنوع.

التوسع المؤسسي: تكامل أعمق مع موفري السحابة وميزات أمان/امتثال محسّنة للصناعات المنظمة.

معايير الذكاء الاصطناعي المسؤول: قيادة مستمرة في الشفافية، والتوثيق، وتخفيف التحيز، وقياس التأثير البيئي.

تشير مسار نمو الشركة إلى أنها ستظل في قلب الابتكار في الذكاء الاصطناعي، متطورة جنبًا إلى جنب مع التكنولوجيا نفسها.


الخاتمة: نبضة القلب مفتوحة المصدر للذكاء الاصطناعي

بدأت Hugging Face كتجربة روبوت دردشة وأصبحت العمود الفقري لتعلم الآلة الحديث. تشكل مكتباتها—Transformers، Datasets، Tokenizers، Accelerate، Diffusers، Evaluate—الأساس لمشاريع الذكاء الاصطناعي العديدة. أصبحت منصتها Hub أكبر مستودع في العالم للنماذج ومجموعات البيانات. والتزامها بالبحث الأخلاقي والمفتوح جعلها بوصلة أخلاقية في مشهد الذكاء الاصطناعي سريع التغير.

مع أكثر من 2.1 مليون نموذج، أكثر من 450,000 مجموعة بيانات، أكثر من 8 ملايين مطور، وتوسع طموح في الروبوتات والذكاء الاصطناعي متعدد الوسائط، لا تُوثق Hugging Face ثورة الذكاء الاصطناعي فحسب، بل تُشكّلها بنشاط.

في عالم يتحول فيه الذكاء الاصطناعي من الفن إلى الطب، ومن الروبوتات إلى علوم المناخ، تُذكّرنا Hugging Face أن التعاون، والشفافية، والمجتمع مهمان بقدر أهمية الكود. مستقبل الذكاء الاصطناعي مفتوح، وHugging Face تبني البنية التحتية لجعل هذا المستقبل في متناول الجميع.


الموارد