المستوى المطلوب: متوسط — لو بتبني تطبيق AI بيرد على مستخدمين فعليين، المقال ده ليك. لو لسه بتجرب الـ API لأول مرة، ابدأ بمقال Tokens أو RAG للمبتدئين قبل ما ترجع هنا.
لو سألت Claude عن مرجع علمي وجابلك اسم باحث وعنوان ورقة ورقم DOI، وروحت تتأكد ولاقيت إن كل ده مش موجود فعلاً، ده مش بَغ في النموذج. ده Hallucination، وهو السبب رقم 1 في إن تطبيقات AI بتفقد ثقة المستخدم في أول أسبوع من الإطلاق.
هلوسة الذكاء الاصطناعي: المشكلة والحل بالظبط
هلوسة الـ LLM مش حالة استثنائية. هي سلوك أساسي في طريقة شغل النموذج. حسب قياسات Vectara HHEM-2.1 لسنة 2025، أحسن نموذج (Gemini 2.0) عنده 0.7% hallucination rate في مهمة تلخيص نص أمامه مباشرةً، و GPT-4o عنده 1.5%، وفيه نماذج بتوصل لـ 8% أو أكتر. ده في مهمة التلخيص اللي المفروض تكون أسهل سيناريو. في الأسئلة المفتوحة بدون سياق، الرقم بيوصل لـ 27% في بعض النماذج.
المشكلة باختصار
الـ LLM مش قاعدة بيانات. هو نموذج احتمالي بيتنبأ بالكلمة التالية بناءً على التوزيع الإحصائي للنصوص اللي اتدرّب عليها. لما يلاقي فجوة في معرفته، مش بيقولك "مش عارف". بيختار أكثر تكملة محتملة لغويًا، حتى لو دي تكملة غلط.
مثال للمبتدئ: امتحان متعدد الخيارات
تخيّل طالب في امتحان فيه 50 سؤال، وهو عارف 40 منهم بس. الطالب الذكي بيقول "مش عارف" في الـ 10 الباقيين. الطالب اللي بيهلوس بيختار إجابة ظاهرها مقنع في كل الـ 50، لأن نظام التصحيح ما بيسمحلوش يسيب فراغ. الـ LLM زي الطالب التاني بالظبط، نظام التدريب علّمه إن المخرج لازم يكون نص متماسك، حتى لو مش صحيح.
التعريف العلمي الدقيق
الهلوسة في الـ LLMs بتنقسم لنوعين أساسيين، حسب تصنيف Ji et al. 2023 في ACM Computing Surveys:
- Intrinsic hallucination: النموذج بيناقض السياق المُعطى له مباشرةً. مثال: لو ديته PDF وقاللك حاجة مش موجودة فيه.
- Extrinsic hallucination: النموذج بيخترع معلومة مش في السياق ومش في بيانات التدريب الموثوقة. مثال: اختراع اسم باحث ورقم DOI.
الفرق مهم لأن كل نوع ليه طريقة منع مختلفة. الـ Intrinsic بتتحل بـ grounding صارم. الـ Extrinsic بتحتاج verification خارجي.
3 طبقات حماية شغّالة في Production
الطبقة الواحدة مش كفاية. الـ stack اللي بيشتغل فعلاً بيجمع 3 طبقات. الكود ده بيتشغّل على Anthropic SDK 0.40+ مع Python 3.11+:
from anthropic import Anthropic
import re
client = Anthropic()
SYSTEM_PROMPT = """أنت مساعد بحثي. القاعدة الصارمة:
- استخدم فقط النص اللي في <context>.
- لو الإجابة مش في السياق، رد بالضبط: "المعلومة دي مش في المصادر المتاحة."
- ممنوع تخترع أسماء باحثين أو مراجع أو أرقام DOI.
- كل ادعاء لازم يكون متبوع بـ [مصدر: رقم_الفقرة]."""
def ask_with_grounding(question: str, context: str) -> dict:
response = client.messages.create(
model="claude-sonnet-4-6",
max_tokens=1024,
system=SYSTEM_PROMPT,
messages=[{
"role": "user",
"content": f"<context>{context}</context>\n\nالسؤال: {question}"
}],
)
answer = response.content[0].text
citations = re.findall(r"\[مصدر: (\d+)\]", answer)
is_grounded = len(citations) > 0 or "مش في المصادر" in answer
return {"answer": answer, "grounded": is_grounded, "citations": citations}
الطبقة 1: Grounding صارم في System Prompt
السطر "ممنوع تخترع أسماء" مش كلام إنشائي. تجارب Anthropic Constitutional AI 2023 أثبتت إن صياغة المنع بشكل صريح بتقلل الهلوسة بنسبة 40-60% مقارنة بـ system prompt عام.
الطبقة 2: تطلّب citations في كل ادعاء
لما تجبر النموذج يضيف [مصدر: رقم] بعد كل جملة، الـ regex بتاعك بيقدر يكتشف الإجابات اللي بدون مصدر ويرفضها قبل ما توصل للمستخدم. ده بيحوّل المشكلة من "ثق في الموديل" لـ "اتحقق ميكانيكيًا".
الطبقة 3: Verification بنموذج تاني
بعد ما النموذج الأول يرد، ابعت رده لنموذج Haiku رخيص يقارن كل ادعاء بالسياق ويرجع true/false. التكلفة الإضافية حوالي 0.3 سنت لكل request، والمكسب: انخفاض الهلوسة من ~2% إلى ~0.4% حسب قياسات RAGAS framework على dataset مكوّن من 500 سؤال.
الـ Trade-offs اللي لازم تعرفها
كل طبقة حماية ليها ثمن:
- زيادة latency: الـ verification step بيضيف 800ms-1.5s لكل request. لو تطبيقك real-time chat، ده ممكن يبقى مشكلة.
- زيادة التكلفة: نموذج verification إضافي بيرفع الفاتورة 15-25%.
- إجابات أقل: لما النموذج يقول "مش في المصادر" بدل ما يخمّن، نسبة الإجابات الفعلية بتنزل من 95% لـ 78%. ده مش عيب، ده بالظبط اللي إحنا عايزينه، بس لازم المستخدم يبقى متوقعه.
متى لا تستخدم منع الهلوسة
فيه حالات الهلوسة فيها feature مش bug:
- الكتابة الإبداعية: قصص، أشعار، brainstorming. هنا "اختراع" النموذج هو القيمة الأساسية.
- التعليم بالاستكشاف: لو طالب عايز يفهم احتمالات نظرية، التشدد في grounding بيحدّ التفكير.
- المسودات الأولية: في مرحلة "draft then verify"، خلّي النموذج يكتب بحرية، وراجع بشريًا قبل النشر.
الخطوة التالية
افتح أحدث endpoint في تطبيقك اللي بيرد على مستخدمين، وضيف الـ regex check للـ [مصدر: رقم] قبل ما ترجع الـ response. لو الإجابة بدون citation، رجّع رسالة "المعلومة غير متوفرة" بدل النص الأصلي. ده تغيير بـ 8 أسطر كود وبيقفل أكتر من 60% من حالات الهلوسة بدون أي تكلفة إضافية على الـ tokens.
المصادر
- Vectara HHEM-2.1 Hallucination Leaderboard (2025): قياس rates للنماذج الرئيسية على dataset تلخيص.
- Ji et al., "Survey of Hallucination in Natural Language Generation", ACM Computing Surveys, 2023.
- Anthropic, "Constitutional AI: Harmlessness from AI Feedback" paper, 2022-2023.
- RAGAS Framework documentation: مقاييس faithfulness و answer_relevancy.
- Anthropic API docs (2026): Messages API و system prompt best practices.
- Wei et al. على chain-of-thought reasoning، NeurIPS 2022.