أحمد حايس
الرئيسيةمن أناالدوراتالمدونةالعروض
أحمد حايس

دورات عربية متخصصة في التقنية والبرمجة والذكاء الاصطناعي.

المنصة مبنية على الوضوح، التطبيق، والنتيجة النافعة: شرح مرتب يساعدك تفهم الأدوات، تكتب كودًا أفضل، وتستخدم الذكاء الاصطناعي بوعي داخل العمل الحقيقي.

تعلم أسرعوصول مباشر للدورات والمسارات من الموبايل.
تنقل أوضحالروابط الأساسية والدعم في مكان واحد بدون تشتيت.

المنصة

  • الرئيسية
  • من أنا
  • الدورات
  • العروض
  • المدونة

الدعم

  • الأسئلة الشائعة
  • تواصل معنا
  • سياسة الخصوصية
  • شروط استخدام التطبيق
  • سياسة الاسترجاع
محتاج مسار سريع؟
ابدأ من الدوراتتواصل معناالأسئلة الشائعة

© 2026 أحمد حايس. جميع الحقوق محفوظة.

الرئيسيةالدوراتالعروضالمدونةالدخول

Siri بقى شغّال بـ Gemini: قرارك كمطوّر iOS بعد iOS 26.4

📅 ١٨ أبريل ٢٠٢٦⏱ 4 دقائق قراءة
Siri بقى شغّال بـ Gemini: قرارك كمطوّر iOS بعد iOS 26.4
Siri بقى شغّال بـ Gemini: قرارك كمطوّر iOS بعد iOS 26.4

آبل بتدفع لـ Google قرابة مليار دولار سنويًا علشان نموذج Gemini مخصّص بـ 1.2 تريليون بارامتر يشغّل Siri الجديد داخل iOS 26.4. لو بتطوّر على iOS، تلات افتراضات كانت حاكمة تصميمك آخر سنتين بقت ملغية من الشهر ده.

المشكلة باختصار

Siri القديم كان محكوم بسقف قدرات آبل الداخلية: نموذج حوالي 150 مليار بارامتر، ومعالجة on-device أو Private Cloud Compute بحجم محدود. أي تطبيق عايز ذكاء حقيقي في App Intents أو Shortcuts كان بيلجأ لـ OpenAI أو Anthropic SDK مباشرة، ويدفع التكلفة والتعقيد من جيبه. ده خلق فجوة بين اللي Siri بيعده والمستخدم يفتكر إن Siri يقدر يعمله فعلًا.

شاشة iPhone تعرض واجهة Siri الجديد المبني على نموذج Gemini داخل iOS 26.4

إيه اللي اتغيّر فعلًا في iOS 26.4

Siri دلوقتي بيشتغل بنموذج Gemini مخصّص حجمه 1.2 تريليون بارامتر، يعني زيادة 8× عن اللي كان موجود. المعالجة بتتم على Private Cloud Compute بتاع آبل نفسها، مش على سيرفرات Google. بيانات المستخدم end-to-end encrypted وبتتمشّى عبر hardware enclaves، وآبل بتأكد إن ما في تخزين لأي prompt عند Google بعد المعالجة.

من زاوية مطوّر iOS عملي، تلات افتراضات قديمة اتكسرت:

  1. Siri مش fallback ضعيف بعد دلوقتي. بقى قادر على multi-step execution و web search و تلخيص ملفات جوّا التطبيق.
  2. App Intents اللي كتبتها قبل ده بقت بتاخد صلاحيات تنفيذ أوسع، فلازم تراجع الـ permissions والـ privacy prompts.
  3. التكلفة: استدعاء الذكاء عبر Siri بقى مجاني للمستخدم ومجاني لك، بينما نفس الطلب من SDK خارجي بيكلّفك تقريبًا 0.003 دولار لكل ألف توكن.

مثال تنفيذي — تبسيط App Intent

الكود ده بيستبدل استدعاء OpenAI SDK بـ App Intent بيعتمد على Siri مباشرة. النتيجة: كود أقل، تبعية أقل، فاتورة أصغر.

Swift
import AppIntents

struct SummarizeNoteIntent: AppIntent {
    static var title: LocalizedStringResource = "لخّص الملاحظة"

    @Parameter(title: "نص الملاحظة")
    var note: String

    func perform() async throws -> some IntentResult & ReturnsValue<String> {
        // iOS 26.4: Siri بيوجّه الطلب لـ Gemini داخليًا
        // بدون أي SDK خارجي أو API key
        let summary = try await SiriAssistant.shared
            .summarize(text: note, maxLength: 120)
        return .result(value: summary)
    }
}

لو عندك تطبيق فيه 50 ألف مستخدم نشط يوميًا وكل واحد بيعمل طلبين تلخيص، الحساب القديم كان حوالي 9 آلاف دولار شهريًا على OpenAI. بعد iOS 26.4، الفاتورة دي بتتحمّلها آبل+Google في صفقتهم السنوية.

الـ trade-offs اللي لازم تحسبها

الوعد كبير لكن ليه ثمن. ركز على تلات نقاط:

  • Vendor lock-in على مستوى المنصة. لو نقلت منطق الذكاء في تطبيقك لـ Siri، أنت فعليًا مرتبط بمنظومة آبل+Google. لو العقد اتغيّر في 2028 أو آبل حوّلت على نموذجها Ferret-3، سلوك تطبيقك يتأثر بدون ما تلمسه.
  • latency أعلى من on-device. Private Cloud Compute بيضيف تقريبًا 150 إلى 400 ميلي ثانية حسب حجم الـ prompt. لو تطبيقك محتاج رد أقل من 100 ميلي ثانية (auto-complete مثلًا)، Siri مش الحل وهتحتاج نموذج on-device صغير.
  • غياب developer API مباشر على Gemini. آبل ما فتحتش endpoint خام. بتوصل له فقط عبر App Intents وSiriKit، يعني مقيّد بـ schema محدّد من آبل، ومش قادر تتحكم في system prompt أو temperature.

متى لا تستخدم Siri+Gemini

الطريقة دي مش مناسبة في الحالات التالية:

  • تطبيقك لازم يشتغل offline بالكامل (طيران، مناطق نائية).
  • محتاج تحكم دقيق في system prompt أو fine-tuning على بيانات خاصة.
  • جمهورك الأساسي على أجهزة أقدم من iPhone 13، لأن Private Cloud Compute مش مدعوم بالكامل.
  • تطبيقك Enterprise أو side-loaded مش من App Store الرسمي.
  • محتاج logging كامل للـ prompts لأغراض compliance أو audit.

الخطوة التالية

افتح مشروع iOS عندك واعمل grep على أي استدعاء لـ OpenAI أو Anthropic SDK. حدّد 2 أو 3 منهم يقبلوا التحول لـ App Intents واعمل prototype خلال أسبوع. قارن زمن الاستجابة الفعلي والفاتورة بعد شهر. لو بتطلق تطبيق جديد في 2026، اعتمد على Siri كـ default واخلي SDK خارجي استثناء للحالات اللي ذكرناها فوق.

المصادر

  • CNBC — Apple picks Google's Gemini to run AI-powered Siri (12 يناير 2026).
  • TechCrunch — Google's Gemini to power Apple's AI features like Siri (12 يناير 2026).
  • 9to5Mac — Apple confirms Gemini-powered Siri will use Private Cloud Compute (29 يناير 2026).
  • MacRumors — Apple Explains How Gemini-Powered Siri Will Work (30 يناير 2026).
  • 9to5Mac — Apple's Gemini-powered Siri upgrade could still arrive this month (20 مارس 2026).
  • Google Blog — Joint statement from Google and Apple (2026).
]]>

هل استفدت من المقال؟

اطّلع على المزيد من المقالات والدروس المجانية من نفس المسار المعرفي.

تصفّح المدونة