نظرة متعمقة في GLM-4.7: 355B MoE، و200K Context، و$0.60/M Tokens
٨ مارس ٢٠٢٦
شرح GLM-4.7 من Zhipu AI: معماريّة 355B MoE architecture، سياق 200K-token context، و multimodal inputs، و0.60$ in / 2.20$ out لكل مليون توكن على Z.ai.
شرح GLM-4.7 من Zhipu AI: معماريّة 355B MoE architecture، سياق 200K-token context، و multimodal inputs، و0.60$ in / 2.20$ out لكل مليون توكن على Z.ai.
بريد واحد أسبوعياً — دورات، مقالات معمّقة، أدوات، وتجارب ذكاء اصطناعي.
بدون إزعاج. إلغاء الاشتراك في أي وقت.