Model Context Protocol من Anthropic عدّى 97 مليون تثبيت في مارس 2026، وكل مزوّدي الذكاء الاصطناعي الكبار بقوا يشحنوا أدوات متوافقة معاه. لو بتبني أي شيء يربط LLM بـ data أو API، الاختيار بقى واضح: MCP بدل ما تبني تكاملًا مخصصًا من الصفر.
المشكلة باختصار
قبل MCP، كل مطور كان بيبني wrapper خاص عشان يوصّل Claude أو GPT بقاعدة بيانات أو بـ internal API. النتيجة: عشرات الملفات المتشابهة في كل مشروع، وكل موديل له طريقة استدعاء مختلفة. الـ switching cost بين موديل وموديل كان مرتفع بدون مبرر تقني حقيقي.
ليه الرقم ده مهم فعلاً
97 مليون تثبيت في أقل من سنة ونصف يعني إن MCP عدّى مرحلة الـ early adoption. المزوّدين الكبار (Anthropic، OpenAI، Google) بيدعموه رسميًا، والـ ecosystem دلوقتي فيه سيرفرات جاهزة لـ GitHub وPostgres وSlack وNotion وFigma. لو محتاج تربط LLM بأي أداة شائعة، غالبًا في MCP server جاهز ليها.
الافتراض هنا: إنت بتبني أداة داخلية أو أوتوميشن بيتعامل مع بيانات خارج الموديل. لو شغلك كله جوه chat prompt، MCP مش ضروري.
الاستخدام العملي — في 3 أسطر config
أبسط حالة: تربط Claude Desktop أو Claude Code بـ PostgreSQL محلي عشان الموديل يقدر يستعلم عن البيانات بنفسه. الـ config المطلوب:
{
"mcpServers": {
"postgres": {
"command": "npx",
"args": [
"-y",
"@modelcontextprotocol/server-postgres",
"postgresql://user:pass@localhost:5432/mydb"
]
}
}
}
بعد ما تحط الـ config ده في ~/.claude/claude_desktop_config.json، الموديل هيبقى عنده صلاحية تنفيذ SELECT على الـ DB، مع حماية افتراضية ضد أي DDL. لا wrapper، لا authentication code، لا parsing يدوي للنتايج.
Trade-offs — بتكسب إيه، بتخسر إيه
بتكسب: تكامل جاهز، وتوافق مع أي تحديثات تجي للموديل الأساسي من غير ما تعيد كتابة أي حاجة. بتخسر: التحكم الدقيق في كيف الموديل بيشوف الأدوات. الـ protocol بيفرض schema معين للـ tool definition، وده بيحدّ من قدرتك على الـ prompt engineering المخصّص للأداة الواحدة.
تقدير معقول مبني على تجارب فرق كتير: لو بتبني تكاملًا هتستخدمه في أكتر من مشروع، MCP بيوفر 60–70% من وقت الـ plumbing. لو التكامل لمرة واحدة فقط، السولوشن المخصّص أسرع.
متى لا تستخدم MCP
متلجأش له في الحالات دي: (1) الأداة عايزة latency تحت 50ms — في round-trip إضافي بيكلّف 20–40ms. (2) الموديل محتاج يوصل لـ binary blobs أكبر من 10MB — الـ protocol مش محسّن لده. (3) بتبني شيء عام يشتغل مع أي provider مش بس Claude أو GPT — الدعم خارج الأسماء الكبيرة لسه ضعيف.
الخطوة التالية
افتح claude_desktop_config.json عندك، وضيف سيرفر MCP واحد يناسب شغلك (filesystem لو بتتعامل مع ملفات كتير، أو git لو بتبص في repos كتير). جرّبه لمدة أسبوع على مهام فعلية، وقيس الفرق في وقت إنجاز المهمة. لو الفرق أقل من 15%، معناها MCP مش الحل المناسب لـ workflow بتاعك — مش كل مطور محتاجه.