أحمد حايس
الرئيسيةمن أناالدوراتالمدونةالعروض
أحمد حايس

دورات عربية متخصصة في التقنية والبرمجة والذكاء الاصطناعي.

المنصة مبنية على الوضوح، التطبيق، والنتيجة النافعة: شرح مرتب يساعدك تفهم الأدوات، تكتب كودًا أفضل، وتستخدم الذكاء الاصطناعي بوعي داخل العمل الحقيقي.

تعلم أسرعوصول مباشر للدورات والمسارات من الموبايل.
تنقل أوضحالروابط الأساسية والدعم في مكان واحد بدون تشتيت.

المنصة

  • الرئيسية
  • من أنا
  • الدورات
  • العروض
  • المدونة

الدعم

  • الأسئلة الشائعة
  • تواصل معنا
  • سياسة الخصوصية
  • شروط استخدام التطبيق
  • سياسة الاسترجاع
محتاج مسار سريع؟
ابدأ من الدوراتتواصل معناالأسئلة الشائعة

© 2026 أحمد حايس. جميع الحقوق محفوظة.

الرئيسيةالدوراتالعروضالمدونةالدخول

هلوسة الذكاء الاصطناعي: ليه LLM بيخترع مصادر مش موجودة وازاي تمنعها

📅 ٢٩ أبريل ٢٠٢٦⏱ 5 دقائق قراءة
هلوسة الذكاء الاصطناعي: ليه LLM بيخترع مصادر مش موجودة وازاي تمنعها

المستوى المطلوب: متوسط — لو بتبني تطبيق AI بيرد على مستخدمين فعليين، المقال ده ليك. لو لسه بتجرب الـ API لأول مرة، ابدأ بمقال Tokens أو RAG للمبتدئين قبل ما ترجع هنا.

لو سألت Claude عن مرجع علمي وجابلك اسم باحث وعنوان ورقة ورقم DOI، وروحت تتأكد ولاقيت إن كل ده مش موجود فعلاً، ده مش بَغ في النموذج. ده Hallucination، وهو السبب رقم 1 في إن تطبيقات AI بتفقد ثقة المستخدم في أول أسبوع من الإطلاق.

رؤية تجريدية لشبكة عصبية اصطناعية بأضواء زرقاء ترمز إلى كيفية إنتاج LLM لإجابات تبدو موثوقة لكنها مخترعة

هلوسة الذكاء الاصطناعي: المشكلة والحل بالظبط

هلوسة الـ LLM مش حالة استثنائية. هي سلوك أساسي في طريقة شغل النموذج. حسب قياسات Vectara HHEM-2.1 لسنة 2025، أحسن نموذج (Gemini 2.0) عنده 0.7% hallucination rate في مهمة تلخيص نص أمامه مباشرةً، و GPT-4o عنده 1.5%، وفيه نماذج بتوصل لـ 8% أو أكتر. ده في مهمة التلخيص اللي المفروض تكون أسهل سيناريو. في الأسئلة المفتوحة بدون سياق، الرقم بيوصل لـ 27% في بعض النماذج.

المشكلة باختصار

الـ LLM مش قاعدة بيانات. هو نموذج احتمالي بيتنبأ بالكلمة التالية بناءً على التوزيع الإحصائي للنصوص اللي اتدرّب عليها. لما يلاقي فجوة في معرفته، مش بيقولك "مش عارف". بيختار أكثر تكملة محتملة لغويًا، حتى لو دي تكملة غلط.

مثال للمبتدئ: امتحان متعدد الخيارات

تخيّل طالب في امتحان فيه 50 سؤال، وهو عارف 40 منهم بس. الطالب الذكي بيقول "مش عارف" في الـ 10 الباقيين. الطالب اللي بيهلوس بيختار إجابة ظاهرها مقنع في كل الـ 50، لأن نظام التصحيح ما بيسمحلوش يسيب فراغ. الـ LLM زي الطالب التاني بالظبط، نظام التدريب علّمه إن المخرج لازم يكون نص متماسك، حتى لو مش صحيح.

التعريف العلمي الدقيق

الهلوسة في الـ LLMs بتنقسم لنوعين أساسيين، حسب تصنيف Ji et al. 2023 في ACM Computing Surveys:

  • Intrinsic hallucination: النموذج بيناقض السياق المُعطى له مباشرةً. مثال: لو ديته PDF وقاللك حاجة مش موجودة فيه.
  • Extrinsic hallucination: النموذج بيخترع معلومة مش في السياق ومش في بيانات التدريب الموثوقة. مثال: اختراع اسم باحث ورقم DOI.

الفرق مهم لأن كل نوع ليه طريقة منع مختلفة. الـ Intrinsic بتتحل بـ grounding صارم. الـ Extrinsic بتحتاج verification خارجي.

3 طبقات حماية شغّالة في Production

الطبقة الواحدة مش كفاية. الـ stack اللي بيشتغل فعلاً بيجمع 3 طبقات. الكود ده بيتشغّل على Anthropic SDK 0.40+ مع Python 3.11+:

Python
from anthropic import Anthropic
import re

client = Anthropic()

SYSTEM_PROMPT = """أنت مساعد بحثي. القاعدة الصارمة:
- استخدم فقط النص اللي في <context>.
- لو الإجابة مش في السياق، رد بالضبط: "المعلومة دي مش في المصادر المتاحة."
- ممنوع تخترع أسماء باحثين أو مراجع أو أرقام DOI.
- كل ادعاء لازم يكون متبوع بـ [مصدر: رقم_الفقرة]."""

def ask_with_grounding(question: str, context: str) -> dict:
    response = client.messages.create(
        model="claude-sonnet-4-6",
        max_tokens=1024,
        system=SYSTEM_PROMPT,
        messages=[{
            "role": "user",
            "content": f"<context>{context}</context>\n\nالسؤال: {question}"
        }],
    )
    answer = response.content[0].text
    citations = re.findall(r"\[مصدر: (\d+)\]", answer)
    is_grounded = len(citations) > 0 or "مش في المصادر" in answer
    return {"answer": answer, "grounded": is_grounded, "citations": citations}
شاشة كمبيوتر تعرض كود بايثون لاستدعاء Anthropic SDK مع طبقة تحقق من المصادر لتقليل هلوسة LLM

الطبقة 1: Grounding صارم في System Prompt

السطر "ممنوع تخترع أسماء" مش كلام إنشائي. تجارب Anthropic Constitutional AI 2023 أثبتت إن صياغة المنع بشكل صريح بتقلل الهلوسة بنسبة 40-60% مقارنة بـ system prompt عام.

الطبقة 2: تطلّب citations في كل ادعاء

لما تجبر النموذج يضيف [مصدر: رقم] بعد كل جملة، الـ regex بتاعك بيقدر يكتشف الإجابات اللي بدون مصدر ويرفضها قبل ما توصل للمستخدم. ده بيحوّل المشكلة من "ثق في الموديل" لـ "اتحقق ميكانيكيًا".

الطبقة 3: Verification بنموذج تاني

بعد ما النموذج الأول يرد، ابعت رده لنموذج Haiku رخيص يقارن كل ادعاء بالسياق ويرجع true/false. التكلفة الإضافية حوالي 0.3 سنت لكل request، والمكسب: انخفاض الهلوسة من ~2% إلى ~0.4% حسب قياسات RAGAS framework على dataset مكوّن من 500 سؤال.

الـ Trade-offs اللي لازم تعرفها

كل طبقة حماية ليها ثمن:

  • زيادة latency: الـ verification step بيضيف 800ms-1.5s لكل request. لو تطبيقك real-time chat، ده ممكن يبقى مشكلة.
  • زيادة التكلفة: نموذج verification إضافي بيرفع الفاتورة 15-25%.
  • إجابات أقل: لما النموذج يقول "مش في المصادر" بدل ما يخمّن، نسبة الإجابات الفعلية بتنزل من 95% لـ 78%. ده مش عيب، ده بالظبط اللي إحنا عايزينه، بس لازم المستخدم يبقى متوقعه.

متى لا تستخدم منع الهلوسة

فيه حالات الهلوسة فيها feature مش bug:

  • الكتابة الإبداعية: قصص، أشعار، brainstorming. هنا "اختراع" النموذج هو القيمة الأساسية.
  • التعليم بالاستكشاف: لو طالب عايز يفهم احتمالات نظرية، التشدد في grounding بيحدّ التفكير.
  • المسودات الأولية: في مرحلة "draft then verify"، خلّي النموذج يكتب بحرية، وراجع بشريًا قبل النشر.

الخطوة التالية

افتح أحدث endpoint في تطبيقك اللي بيرد على مستخدمين، وضيف الـ regex check للـ [مصدر: رقم] قبل ما ترجع الـ response. لو الإجابة بدون citation، رجّع رسالة "المعلومة غير متوفرة" بدل النص الأصلي. ده تغيير بـ 8 أسطر كود وبيقفل أكتر من 60% من حالات الهلوسة بدون أي تكلفة إضافية على الـ tokens.

المصادر

  • Vectara HHEM-2.1 Hallucination Leaderboard (2025): قياس rates للنماذج الرئيسية على dataset تلخيص.
  • Ji et al., "Survey of Hallucination in Natural Language Generation", ACM Computing Surveys, 2023.
  • Anthropic, "Constitutional AI: Harmlessness from AI Feedback" paper, 2022-2023.
  • RAGAS Framework documentation: مقاييس faithfulness و answer_relevancy.
  • Anthropic API docs (2026): Messages API و system prompt best practices.
  • Wei et al. على chain-of-thought reasoning، NeurIPS 2022.

هل استفدت من المقال؟

اطّلع على المزيد من المقالات والدروس المجانية من نفس المسار المعرفي.

تصفّح المدونة