أحمد حايس
الرئيسيةمن أناالدوراتالمدونةالعروض
أحمد حايس

دورات عربية متخصصة في التقنية والبرمجة والذكاء الاصطناعي.

المنصة مبنية على الوضوح، التطبيق، والنتيجة النافعة: شرح مرتب يساعدك تفهم الأدوات، تكتب كودًا أفضل، وتستخدم الذكاء الاصطناعي بوعي داخل العمل الحقيقي.

تعلم أسرعوصول مباشر للدورات والمسارات من الموبايل.
تنقل أوضحالروابط الأساسية والدعم في مكان واحد بدون تشتيت.

المنصة

  • الرئيسية
  • من أنا
  • الدورات
  • العروض
  • المدونة

الدعم

  • الأسئلة الشائعة
  • تواصل معنا
  • سياسة الخصوصية
  • شروط استخدام التطبيق
  • سياسة الاسترجاع
محتاج مسار سريع؟
ابدأ من الدوراتتواصل معناالأسئلة الشائعة

© 2026 أحمد حايس. جميع الحقوق محفوظة.

الرئيسيةالدوراتالعروضالمدونةالدخول

MCP Dev Summit NYC 2026: 3 قرارات لازم تاخدها على servers بتاعتك

📅 ٢٢ أبريل ٢٠٢٦⏱ 6 دقائق قراءة
MCP Dev Summit NYC 2026: 3 قرارات لازم تاخدها على servers بتاعتك

بين 2 و 3 أبريل 2026، حوالي 1,200 مطوّر اجتمعوا في New York Marriott Marquis علشان MCP Dev Summit North America. اللي اتعلن هناك بيغيّر بالظبط 3 قرارات على الـ stack بتاعك لو بتبني AI agents أو tools عليها. لو عندك MCP server شغّال دلوقتي، أقل من 30 دقيقة قراءة بتوفّر عليك شهور شغل في اتجاه غلط.

المشكلة باختصار

MCP (Model Context Protocol) بقى المعيار الفعلي لتوصيل LLMs بالـ tools والـ data. عدد الـ published servers عدّى 10,000، والتحميلات الشهرية فوق 110 مليون. بس لما البروتوكول ينمو بالسرعة دي، السؤال مش "أستخدمه؟"، السؤال بقى "أعتمد على فيتشر experimental ولا أستنى نسخة مستقرة؟". القرار الغلط هنا بيعني رجعة على الكود كل شهرين.

قاعة مؤتمر MCP Dev Summit NYC أبريل 2026 مع حضور مطوّرين وشاشات عرض كبيرة

مثال للمبتدئين: إيه هو MCP أصلاً؟

تخيّل إن عندك مترجم شاطر بيعرف يتكلم 100 لغة، لكن كل شركة بتوديله ورق مكتوب بصيغة مختلفة: واحدة PDF، واحدة Excel، واحدة email. المترجم بيضيّع نص يومه علشان يفهم الورق قبل ما يترجم. MCP هو اتفاقية إن كل الشركات دي تبعت الورق بشكل موحّد — الملف نفسه بنفس الترتيب. المترجم بيقرا مرة واحدة ويشتغل.

بالشكل العلمي الدقيق: MCP بروتوكول مفتوح المصدر مبني على JSON-RPC 2.0، بيعرّف كيف الـ LLM client (زي Claude Desktop أو Cursor) يتواصل مع servers بتقدّم tools و resources و prompts. الـ server بيوصف قدراته بصيغة ثابتة، والـ client يعرف بالظبط ازاي يناديه من غير كود مخصّص لكل integration.

قرار 1: AAIF governance — ايه اللي بيفرق معاك دلوقتي

في ديسمبر 2025، Anthropic تبرّعت بـ MCP لـ Linux Foundation تحت مظلة Agentic AI Foundation (AAIF). الـ foundation دي بقت فيها 170+ عضو، وGoogle و Microsoft و AWS و Bloomberg و Cloudflare كلهم داعمين كـ co-founders مع Anthropic و OpenAI و Block.

اللي بيفرق معاك كـ developer: البروتوكول مبقاش مربوط بشركة واحدة. يعني لو Anthropic غيّرت استراتيجيتها بكرة، MCP هيفضل شغال. قبل كده ده كان خطر حقيقي لمّا كنت تبني server على specification مش واضح مين بيملكه.

الـ trade-off هنا: governance pace بقت أبطأ. أي SEP (Standards Enhancement Proposal) بيعدي من working group مخصّص و public review period. مفيش فيتشر بيتضاف في أسبوع من غير مناقشة. بتكسب: استقرار طويل المدى. بتخسر: سرعة التغيير.

قرار 2: MCP Apps و tasks primitive — تبني عليهم دلوقتي؟

مثال للمبتدئين: ليه الـ tasks primitive مهم؟

تخيّل إنك طلبت من صديقك إنه يبحثلك في 50 ألف ملف عن كلمة معينة. لو وقف قدامك ساكت لحد ما يخلّص، هتزهق وتمشي. لكن لو قالك "تمام، هابحث، هابعتلك message أول ما أخلّص"، تقدر تكمّل شغلك العادي. tasks primitive بتعمل نفس الحاجة للـ AI: الـ server بيرجع "استلمت، كمّل شغلك"، وبعدين بيخبر الـ client لما الشغل يخلّص.

بالشكل العلمي: tasks primitive (المعروف بـ SEP-1686) اتشحن experimental في spec revision بتاع 25 نوفمبر 2025. الـ server بيرجع task handle فوري بدل ما يحجز الـ connection، والـ client يقدر يعمل query على الـ task status أو يستقبل notification لما يكتمل.

MCP Apps: UIs داخل الـ agent

في 26 يناير 2026 نزل MCP Apps: أول extension رسمي بيخلي الـ server يرجع UI (HTML + CSS + JavaScript) داخل sandboxed iframe. يعني MCP tool يقدر يعرض dashboard كامل جوا Claude Desktop أو Cursor 3 بدل ما يرجّع JSON بس. ده بيفتح حالات استخدام كانت صعبة قبل كده زي charts تفاعلية و forms متقدّمة.

مثال تنفيذي: MCP server بيشغّل tasks primitive

TypeScript

import { Server } from "@modelcontextprotocol/sdk/server";
import { TaskResponse } from "@modelcontextprotocol/sdk/tasks";

const server = new Server({ name: "data-indexer", version: "1.0.0" });

server.tool("reindex_catalog", async (args) => {
  const taskId = crypto.randomUUID();

  // ارجع handle فوري قبل ما تبدأ شغل طويل
  queueMicrotask(async () => {
    await reindexLargeCatalog(args.catalog_id);
    await server.notifyTaskComplete(taskId, { status: "done" });
  });

  return TaskResponse.pending({
    task_id: taskId,
    estimated_seconds: 180,
    progress_url: `/tasks/${taskId}/status`,
  });
});

المكسب: عمليات زي re-indexing أو deep search مبقتش بتكسر جلسة الـ agent بـ timeout. الافتراض هنا إن الـ client بيدعم tasks primitive — Claude Desktop و Cursor 3 بيدعموه افتراضيًا، الباقيين محتاج تتأكد قبل ما تعتمد عليه في الإنتاج.

قرار 3: Triggers working group — استنى ولا ابدأ؟

فريق AAIF أعلن في Summit عن Triggers and Events Working Group. الفكرة: webhooks لـ MCP، يعني الـ server يقدر يخبر الـ client بحدث جديد من غير ما الـ client يعمل polling كل N ثانية.

دلوقتي لسه charter بس، مفيش spec نهائي. لو شغلك محتاج real-time events (notification من Slack، تحديث stock prices، alert من monitoring)، قدامك طريقين:

  1. استنى الـ spec: اعتمد على polling من الـ client كل N ثانية. التكلفة: latency من 2 لـ 30 ثانية حسب الـ interval، وزيادة في الـ API calls.
  2. ابدأ دلوقتي: ابن الـ server بـ long-polling أو Server-Sent Events وحطّ abstraction layer تقدر تحوّله لما الـ triggers spec ينضج. التكلفة: تقريبًا 20% refactor لاحقًا.

القاعدة العملية: لو عندك أقل من 10K events/day والـ latency مش critical، استنى. لو فوق كده، ابدأ بالـ SSE الآن.

trade-offs وأرقام لازم تعرفها

  • MCP servers registry: وصل 10,000+ server منشور. معناه فرصتك إنك تلاقي server جاهز بيعمل اللي محتاجه بقت أعلى من الصفر. ابحث في الـ registry قبل ما تبدأ تكتب server من 0.
  • MCP gateways: StackLock و Solo.io طلّعوا gateway layer للـ MCP servers مع auth و rate limiting و audit logs. لو عندك أكتر من 5 servers داخليين، الـ gateway بيوفّر عليك أسبوع شغل على الـ auth code المكرّر.
  • A2A v1.0: بروتوكول Agent-to-Agent من Google وصل stable في بداية 2026. لو بتبني multi-agent system، دلوقتي هو وقت الترحيل من أي custom RPC كنت بتستخدمه.

متى لا تستخدم هذه الطريقة

MCP مش الحل الصح في كل الحالات. ماتعتمدش عليه لو:

  • الـ agent بتاعك بيشتغل offline بدون network — MCP بيفترض transport (stdio أو HTTP/SSE).
  • احتياجاتك single-LLM و single-tool بسيطة جدًا. function calling المباشر في OpenAI أو Anthropic SDK أبسط وأسرع في التطوير.
  • بتخدم latency حساس تحت 50ms لكل call — JSON-RPC overhead هيضيف 10 لـ 30ms في كل رحلة.
  • عندك رابط واحد فقط بين الـ LLM وtool واحد ومش متوقع تضيف tools تانية — المعيار بيبقى overkill في الحالة دي.

الخطوة التالية

افتح الـ MCP server الأقدم بتاعك دلوقتي. شوف هل بيستخدم tasks primitive ولا لسه بيعمل sync calls طويلة. لو الإجابة "sync" و عندك tool واحد على الأقل بياخد أكتر من 10 ثواني، حدّد أطول 3 tools عندك واعمل migration ليهم الأسبوع الجاي. الافتراض إنك بتستخدم SDK أحدث من v1.5.0 — لو أقدم، الـ upgrade الأول.

المصادر

  • Linux Foundation — AAIF Formation Press Release
  • GitHub Blog — MCP joins the Linux Foundation
  • Anthropic — Donating the Model Context Protocol
  • MCP Blog — 2026 Roadmap
  • InfoQ — AAIF MCP Summit Coverage (Gateways, gRPC, Observability)
  • MCP Dev Summit North America 2026 — LF Events
  • Agentic AI Foundation (AAIF) — Home

هل استفدت من المقال؟

اطّلع على المزيد من المقالات والدروس المجانية من نفس المسار المعرفي.

تصفّح المدونة