أول 10 أنماط
Chain-of-thought light: ورّيني شغلك
لأغلب مهام الكتابة اليومية، الموديل يقدر يجاوب فوراً من غير ما يعرض خطوات وسطى. بس للمهام اللي بتطلب تفكير — رياضيات، ألغاز منطقية، استنتاجات متعددة الخطوات، مقارنات دقيقة — لما تطلب من الموديل يفكر بصوت عالي قبل الإجابة بيحسن الدقة بشكل ملحوظ.
ده اسمه chain-of-thought prompting. كلمة "light" في عنوان الدرس مقصودة: في 2026، الموديلات الحديثة الكبيرة بتفكر باقتدار من غير prompt صريح. فمش هتحتاج تبالغ في الهندسة. تعليمة واحدة — "think step by step before answering" — كفاية عادةً.
مثال محلول
مسألة كلامية صغيرة بإجابة غلط مغرية لو ما فكرتش بعناية:
A bookstore offers a buy-2-get-1-free promo where the free book is the
cheapest of the three. I pick books priced 120, 90, and 60 EGP.
What do I pay?
Think step by step before answering. Then give the final number on its
own line as: ANSWER: <number> EGP.
الـ output الملتقَط:
I need to figure out what I pay under a buy-2-get-1-free promotion where the cheapest book is free.
The three books are priced at:
- 120 EGP
- 90 EGP
- 60 EGP
Under the buy-2-get-1-free promotion, the cheapest book (60 EGP) becomes free.
So I pay for:
- 120 EGP
- 90 EGP
Total payment: 120 + 90 = 210 EGP
ANSWER: 210 EGP
لقطة من Claude Sonnet 4.5 (claude-sonnet-4-5) في 2026-04-27. الـ re-runs ممكن تختلف شوية.
3 حاجات نجحوا:
- الموديل حدد الكتاب الأرخص (60 EGP) وطبّق القاعدة.
- عرض كل خطوة بصراحة — سرد الأسعار، حدد المجاني، جمع الباقي.
- الإجابة النهائية بالصيغة المطلوبة بالظبط —
ANSWER: 210 EGPفي سطرها الخاص، سهل تستخرجها برمجياً.
ليه ده بيساعد
لما الموديل "بيفكّر" بصوت عالي، كل خطوة بيكتبها بتبقى context للخطوة الجاية. الخطوات الوسطى بتخلي التفكير الغلط مرئي، والموديل نفسه كتير بيمسك زلّته في نص الكلام. من غير الورقة دي، الموديل بيرمي الإجابة في token واثق واحد بس — والثقة دي مش حماية من الغلط.
إمتى تستخدمها
اِلجأ للـ chain-of-thought لما:
- المهمة فيها حساب أو عد.
- المهمة فيها استنتاجات متعددة الخطوات ("لو A ومش B، يبقى C").
- المهمة بتطلب مقارنة خيارات بعدة معايير.
- شفت الموديل بيدّي إجابات غلط بثقة في مسائل شبيهة.
إمتى تتخطاها
تخطاها لما:
- المهمة تكون تنسيق أو إعادة صياغة صرف (من غير تفكير).
- محتاج إجابة من token واحد بسرعة (تصنيف، أيوة/لأ).
- زمن الاستجابة أو التكلفة مهمين والموديل بيتعامل معاهم كويس من غير تفكير بصوت عالي.
حيلة استخراج الصيغة
لاحظ مواصفات الـ output في المثال: "Then give the final number on its own line as: ANSWER: EGP." النمط ده دهب لأي نظام محتاج يحلل الإجابة برمجياً. سيب الموديل يفكر بحرية واختم بسطر ثابت قابل للـ parsing. أحسن ما في العالمين.
ذو صلة: "التفكير" في الموديلات الحديثة
في 2026، موديلات زي Claude وGPT ليها أوضاع "thinking" أصلية — استدلال ممتد بيحصل قبل الرد المرئي. لما يبقى شغّال، غالباً ما تحتاجش chain-of-thought prompt صريح. بس للدردشة العادية من غير thinking مفعّل، التقنية على مستوى الـ prompt في الدرس ده فضلت أبسط طريقة ترفع الدقة في مهام التفكير.
التالي: الـ self-critique — لما بتطلب من الموديل يقيّم إجابته الأولى. :::
سجّل الدخول للتقييم