أحمد حايس
الرئيسيةمن أناالدوراتالمدونةالعروض
أحمد حايس

دورات عربية متخصصة في التقنية والبرمجة والذكاء الاصطناعي.

المنصة مبنية على الوضوح، التطبيق، والنتيجة النافعة: شرح مرتب يساعدك تفهم الأدوات، تكتب كودًا أفضل، وتستخدم الذكاء الاصطناعي بوعي داخل العمل الحقيقي.

تعلم أسرعوصول مباشر للدورات والمسارات من الموبايل.
تنقل أوضحالروابط الأساسية والدعم في مكان واحد بدون تشتيت.

المنصة

  • الرئيسية
  • من أنا
  • الدورات
  • العروض
  • المدونة

الدعم

  • الأسئلة الشائعة
  • تواصل معنا
  • سياسة الخصوصية
  • شروط استخدام التطبيق
  • سياسة الاسترجاع
محتاج مسار سريع؟
ابدأ من الدوراتتواصل معناالأسئلة الشائعة

© 2026 أحمد حايس. جميع الحقوق محفوظة.

الرئيسيةالدوراتالعروضالمدونةالدخول

TurboQuant من Google: ضغط ذاكرة LLM 6× ومتى تعتمده فعلاً

📅 ٢٢ أبريل ٢٠٢٦⏱ 5 دقائق قراءة
TurboQuant من Google: ضغط ذاكرة LLM 6× ومتى تعتمده فعلاً

لو بتستضيف LLM في production وبتدفع في فاتورة GPU أكثر من 3000 دولار شهريًا، الخبر ده ممكن يخصم منها 40% قبل آخر السنة. Google Research نزّلت ورقة TurboQuant وهتعرضها في ICLR 2026 يوم 25 أبريل، وبتقول إنك تقدر تضغط الـ KV cache 6 أضعاف بدون ما تخسر دقة النموذج.

TurboQuant: ضغط KV cache 6× لتشغيل LLMs أسرع وأرخص

شريحة GPU مضاءة باللون الأزرق تمثل ضغط ذاكرة KV cache أثناء تشغيل نماذج اللغة الكبيرة

المشكلة باختصار

لما بتشغّل نموذج زي Llama 3 70B أو Qwen 2.5 72B على GPU، وزن النموذج نفسه مش هو اللي بياكل معظم الذاكرة بعد فترة. اللي بياكلها هو الـ KV cache: Key-Value cache بيخزن كل توكن عدّى على النموذج علشان ميعيدش حسابه في كل خطوة توليد جديدة. مع context طويل (32K أو 128K توكن)، الـ KV cache بيوصل لـ 40–80% من ذاكرة الـ GPU كلها.

ده بيترجم لحاجتين مباشرة: GPUs إضافية لتشغيل نفس عدد الطلبات، وتكلفة أعلى لكل 1000 طلب بسبب batching أقل.

نبدأ بمثال بسيط جدًا

تخيّل إنك بتكتب جملة طويلة على كيبورد، وبعد كل حرف بتعيد قراءة الجملة كلها من أولها علشان تعرف الحرف اللي بعده. ده بطيء فظيع. فتقرر بدل كده تحتفظ في ورقة جنبك بكل حرف كتبته مع معناه، وكل ما تحتاج تكتب حرف جديد تبص بسرعة في الورقة بس. ده بالظبط الـ KV cache.

المشكلة: الورقة دي بتكبر مع كل حرف. في سياق 128K توكن، الورقة بقت كتالوج كامل بياكل مساحة المكتب كلها. TurboQuant بيقولك: "بدل ما تخزن كل حرف بـ 16 بت، خزّنه بـ 3 بت بس، ومش هتفرق في المعنى". الضغط ده هو اللي بيوفّر 6× من الذاكرة.

TurboQuant يشتغل إزاي بالظبط

الورقة (arXiv:2504.19874) بتعتمد على خطوتين متسلسلتين في الـ inference:

  1. Keys بتتضغط بـ rotation-based vector quantization. كل متجه مفتاح بيتقسم لحجم (scalar) واتجاه (direction) على كرة وحدوية، والاتجاه بيتضغط باستخدام كتالوج نقاط متساوية التوزيع. ده اسمه PolarQuant في الورقة الأصلية.
  2. Values بتتضغط بـ scalar quantization أبسط، لأن توزيعها أقل تطرفًا من الـ keys فـ quantization عادي بيكفي.

الأهم من كل ده: الطريقة training-free. مش محتاج تدريب إضافي ولا calibration data. بتشتغل على أي LLM قياسي (Llama, Qwen, Mistral, Gemma) من غير ما تلمس الأوزان نفسها. ده بالظبط اللي بيخليها عملية.

الأرقام الحقيقية من الورقة

  • 3.5-bit TurboQuant بيتطابق مع الدقة الكاملة (FP16) على MMLU و HellaSwag و GSM8K بفارق أقل من 0.5 نقطة.
  • 4-bit TurboQuant بيدي 8× تسريع في حساب attention logits على H100 مقارنة بـ 32-bit keys (حوالي 4× مقارنة بـ FP16 المستخدم فعليًا في الإنتاج).
  • سعة KV cache بتقل من 16 بت إلى 3 بت لكل قيمة = 5.3× ضغط نظري، 6× عمليًا بعد padding alignment على الـ GPU.

ترجمة التأثير لـ workload واقعي: GPU واحد H100 80GB شغّال Llama 3 70B على context 32K كان بيخدم 12 طلب متوازي بتكلفة حوالي 2.4 دولار للساعة. مع TurboQuant 4-bit على نفس الكرت، ممكن يوصل لـ 70+ طلب متوازي. التكلفة لكل 1000 طلب بتنزل من حوالي 0.034 دولار لحوالي 0.006 دولار. ده مش كسر في الاقتصاد، ده تغيير شكل الـ deployment بالكامل.

مثال تنفيذي قابل للنسخ

Google لسه ما نزّلتش implementation رسمي (متوقع بعد ICLR). لكن في repo مفتوح على GitHub اسمه OnlyTerp/turboquant بيدي أول implementation مفتوح المصدر قريب من الورقة. طريقة التجربة السريعة:

Bash
git clone https://github.com/OnlyTerp/turboquant.git
cd turboquant
pip install -e .

# تشغيل benchmark مقارن بين FP16 و INT8 و TurboQuant 4-bit
python scripts/bench_compare.py \
    --model meta-llama/Meta-Llama-3-8B-Instruct \
    --quant turboquant \
    --bits 4 \
    --context 32768 \
    --batch 8 \
    --num-prompts 100

السكربت بيقيس زمن التوليد، peak GPU memory، ودقة output على 100 prompt. المتوقع على Llama 3 8B: تسريع 3–4× مع استهلاك ذاكرة أقل 5×، ومطابقة FP16 في الدقة.

صفوف خوادم في مركز بيانات تمثل تكلفة ذاكرة الاستدلال عند تشغيل LLM في الإنتاج

trade-offs صريحة قبل ما تتحمّس

  • بتكسب: ذاكرة أقل 6×، throughput أعلى 3–8×، تكلفة استضافة أقل بشكل ملموس للسياقات الطويلة.
  • بتخسر: وقت quantization أولي (دقيقة إلى 5 دقائق حسب حجم النموذج)، وتعقيد إضافي في الـ inference stack (code paths لفك الضغط أثناء attention).
  • الافتراض: الأرقام دي مبنية على GPUs حديثة (H100, A100) بدعم kernel fusion. على T4 أو L4 القديمة، المكسب في latency قد يكون أقل بكتير لأن الـ kernels المحسّنة مش موجودة.
  • لازم تختبر على مهامك أنت: الورقة بتقيس على benchmarks عامة. في مهام معينة (code generation طويل، reasoning متعدد الخطوات) ممكن 3.5-bit يخسر نقطة أو اتنين في الـ accuracy.

متى لا تستخدم TurboQuant

مش كل workload محتاج الضغط ده. تجنّبه في الحالات دي:

  • context قصير (أقل من 4K توكن) و batch ضعيف. الـ KV cache أصلًا صغير، المكسب محدود.
  • نماذج صغيرة (أقل من 7B). وزن النموذج هو اللي بياكل الذاكرة هنا، مش الـ cache.
  • تطبيقات medical/legal بدقة حرجة لكل token. قبل ما تطبّقه لازم evaluation خاص بـ domain، مش الـ benchmarks العامة.
  • بيئة inference بعيدة عن GPU (CPU، WebGPU). الـ kernels المحسّنة لسه GPU-only حتى تاريخه.

الخطوة التالية

لو بتدفع فاتورة LLM أكبر من 5000 دولار شهريًا، ابدأ بـ benchmark مبدئي باستخدام الـ implementation المجتمعي على نسخة staging من workload حقيقي. قيس 3 أرقام: tokens/sec، peak GPU memory، ودقة output على 100 سؤال حقيقي من logs إنتاجك. لو الأرقام ثبتت، شغّل pilot على 5% من traffic. لو لأ، استنّى الإعلان الرسمي من Google مع ICLR (متوقع خلال مايو 2026) وتجنّب الـ implementations المجتمعية الأولى.

المصادر

  • Spheron Blog — Google TurboQuant: 6x KV Cache Compression for LLM Inference
  • Nerd Level Tech — Google's TurboQuant: 6x Less Memory for LLM Inference (2026)
  • DEV Community — TurboQuant: What Developers Need to Know
  • GitHub — OnlyTerp/turboquant — First open-source implementation
  • Medium — How Google's 6x KV Cache Compression Changes LLM Inference
  • WinBuzzer — Google's TurboQuant Algorithm Slashes LLM Memory Use by 6x
  • arXiv preprint: 2504.19874 — ICLR 2026 poster presentation, 25 April 2026, Rio de Janeiro.

هل استفدت من المقال؟

اطّلع على المزيد من المقالات والدروس المجانية من نفس المسار المعرفي.

تصفّح المدونة