AirLLM: تشغيل نماذج 70B على GPU سعة 4GB — الضجة مقابل الواقع
AirLLM بيشغل 70B LLMs على GPU واحدة 4GB من خلال layer-wise inference — مفيش حاجة لـ quantization. بنختبر الادعاءات دي، وبنقيس الـ tradeoffs، وبنقارن البدائل.
AirLLM بيشغل 70B LLMs على GPU واحدة 4GB من خلال layer-wise inference — مفيش حاجة لـ quantization. بنختبر الادعاءات دي، وبنقيس الـ tradeoffs، وبنقارن البدائل.
Google Gemma 4 بيقدم ذكاء اصطناعي مفتوح بمستوى رائد في أربعة أحجام تحت رخصة Apache 2.0. موديل 31B بيحقق 89.2% في AIME 2026، وبيحتل المركز التالت في Arena AI، وبيشتغل محلياً.
تعمق في OpenCoder 4.7 — بنيته الهندسية، واختبارات الأداء، وعمليات النشر في العالم الحقيقي، وكيفية تشغيله بأمان في بيئة الإنتاج.
اتعلم إزاي تثبت، وتظبط، وتحترف LM Studio — تطبيق الكمبيوتر المجاني اللي بيخليك تشغل نماذج لغوية كبيرة مفتوحة المصدر محلياً مع تسريع GPU كامل وبدون أي اعتماد على Cloud.
- مراكز العمليات الأمنية المدعومة بالذكاء الاصطناعي (AI SOCs) تحول الأمن السيبراني من خلال الوكلاء المستقلين، وأوقات الاستجابة الأسرع، والابتكار مفتوح المصدر. دعونا نستكشف الاختراقات التي تعيد تشكيل الدفاع الرقمي.
بريد واحد أسبوعياً — دورات، مقالات معمّقة، أدوات، وتجارب ذكاء اصطناعي.
بدون إزعاج. إلغاء الاشتراك في أي وقت.