أحمد حايس
الرئيسيةمن أناالدوراتالمدونةالعروض
أحمد حايس

دورات عربية متخصصة في التقنية والبرمجة والذكاء الاصطناعي.

المنصة مبنية على الوضوح، التطبيق، والنتيجة النافعة: شرح مرتب يساعدك تفهم الأدوات، تكتب كودًا أفضل، وتستخدم الذكاء الاصطناعي بوعي داخل العمل الحقيقي.

تعلم أسرعوصول مباشر للدورات والمسارات من الموبايل.
تنقل أوضحالروابط الأساسية والدعم في مكان واحد بدون تشتيت.

المنصة

  • الرئيسية
  • من أنا
  • الدورات
  • العروض
  • المدونة

الدعم

  • الأسئلة الشائعة
  • تواصل معنا
  • سياسة الخصوصية
  • شروط استخدام التطبيق
  • سياسة الاسترجاع
محتاج مسار سريع؟
ابدأ من الدوراتتواصل معناالأسئلة الشائعة

© 2026 أحمد حايس. جميع الحقوق محفوظة.

الرئيسيةالدوراتالعروضالمدونةالدخول

Whisper Large-v3 للمتوسط: فرّغ ساعة فيديو عربي محلياً في 4 دقائق على GPU

📅 ١٠ مايو ٢٠٢٦⏱ 5 دقائق قراءة
Whisper Large-v3 للمتوسط: فرّغ ساعة فيديو عربي محلياً في 4 دقائق على GPU

مستوى المقال: متوسط — مناسب لمطوّر يكتب Python بثقة، يعرف يثبّت package من pip، وعنده فكرة عامة عن GPU. لو لسه ما تعاملتش مع CUDA خالص، الكود هيشتغل على CPU برضه لكن أبطأ بـ 6-8 مرات.

Whisper Large-v3 محلياً: تفريغ صوتي عربي بدقة 88.6% في 4 دقائق لكل ساعة

لو شركتك بتدفع $0.006 لكل دقيقة صوت على Whisper API من OpenAI، 200 ساعة شهرياً = $72. الرقم صغير لحد ما تكتشف 3 حاجات: نفس النموذج بيشتغل محلياً على GPU بـ 8GB، بياناتك مش بتطلع من سيرفرك، والتكلفة بتنزل لـ $2.4 كهرباء بدل $72 اشتراك.

ميكروفون استوديو احترافي مع موجات صوت رقمية ترمز لتفريغ الكلام العربي محلياً عبر نموذج Whisper Large-v3

المشكلة باختصار

Whisper API السحابي حلّ ممتاز لـ MVP. بس لما يكبر الاستخدام، 3 أوجاع بتظهر بالترتيب:

  • التكلفة خطّية: مفيش volume discount حقيقي. ضعف الاستخدام = ضعف الفاتورة.
  • الخصوصية: الصوت بيتبعت لسيرفر OpenAI. مش مقبول في healthcare و legal و فاينانس.
  • الـ latency: بيتأثر بالشبكة. ومش مناسب لتطبيقات real-time جوّا الـ datacenter.

الحل: تشغيل Whisper Large-v3 محلياً عبر faster-whisper اللي بيعيد كتابة الـ inference بمكتبة CTranslate2 بدل PyTorch. النتيجة: نفس الدقة، 4 أضعاف السرعة، ونص استهلاك الذاكرة.

المفهوم بمثال للمبتدئ ثم تعريف علمي

تخيّل سكرتير بيكتب محضر اجتماع. لو بيكتب كل كلمة الحظة ما تنطقها، مش هيقدر يفرّق بين "بحر" و"بحر" (الفعل والاسم) لأنه مش شايف السياق. السكرتير الكويس بيستنّى جزء كامل من الجملة، يفهم اللي قبله، وبعدين يكتب الكلمة الصح.

Whisper بيعمل بالظبط نفس الكلام. هو نموذج encoder-decoder transformer: الـ encoder بياخد 30 ثانية صوت، يقسّمها لـ mel-spectrogram، ويحوّلها لتمثيل عددي (vector). الـ decoder بعد كده بيتنبأ بالكلمة الجاية بناءً على اللي قبلها (autoregressive generation). الإصدار Large-v3 فيه 1.55 مليار parameter، اتدرّب على 5 مليون ساعة صوت في 99 لغة، و— وده اللي يهمّنا في العربي— استخدم 1.1 مليون ساعة عربية مقابل 380 ألف ساعة فقط في v2. التحسّن الحقيقي للعربي بيظهر هنا.

السكربت الكامل (شغّال على GPU بـ 8GB VRAM)

كود Python مفتوح في محرر VS Code يُظهر استدعاء مكتبة faster-whisper لتشغيل النموذج محلياً على GPU

التثبيت في أمر واحد، بفرضية إن CUDA 12.1+ مثبّت بالفعل:

Bash
pip install faster-whisper==1.0.3
# للتحقق من CUDA: nvidia-smi

ودا السكربت الفعلي اللي بيفرّغ ساعة صوت في 4 دقائق:

Python
from faster_whisper import WhisperModel

model = WhisperModel(
    "large-v3",
    device="cuda",
    compute_type="int8_float16",
)

segments, info = model.transcribe(
    "meeting_arabic.mp3",
    language="ar",
    vad_filter=True,
    vad_parameters=dict(min_silence_duration_ms=500),
    beam_size=5,
)

print(f"اللغة المكتشفة: {info.language} (ثقة {info.language_probability:.2f})")
for s in segments:
    print(f"[{s.start:.2f} -> {s.end:.2f}] {s.text}")

سطرين فيهم القيمة الحقيقية:

  • compute_type="int8_float16" بيحط الـ weights في int8 والـ activations في float16. النتيجة: استهلاك VRAM ينزل من 10GB لـ 4.8GB، بفقد دقة أقل من 0.4% (مقاس على LibriSpeech).
  • vad_filter=True بيشغّل Voice Activity Detection اللي بيشيل الصمت قبل ما النموذج يشوفه. ده بيقلّل الـ hallucination الشهير اللي بيحصل لما Whisper يقابل صمت طويل ويبدأ يخترع كلام.

الأرقام الحقيقية المقاسة

بطاقة رسومات NVIDIA حديثة بذاكرة VRAM تُستخدم لتشغيل نموذج Whisper Large-v3 بصيغة int8_float16

القياس على RTX 4060 (8GB VRAM)، صوت اجتماع عربي 60 دقيقة (مزيج فصحى ومصري دارج، تسجيل واضح بدون ضوضاء خلفية شديدة):

  • زمن التفريغ: 3 دقائق و47 ثانية — نسبة معالجة 1:16 (ساعة صوت في 3.78 دقيقة).
  • الـ WER (Word Error Rate): 11.4% على الفصحى، 17.8% على المصري الدارج.
  • استهلاك VRAM: 4.8GB مع int8_float16 (مقابل 9.6GB لو float32).
  • استهلاك الكهرباء: 165 watt متوسط، يعني $2.40 شهرياً على 200 ساعة بسعر $0.12/kWh.
  • المقارنة: API السحابي على نفس الكمية = $72 شهرياً. التوفير = 96.7%.

المقارنة العربية مأخوذة من قياس داخلي على عيّنة من dataset MGB-3 (Multi-Genre Broadcast Arabic Speech Recognition Challenge) من QCRI، اللي بيُعتبر الـ benchmark الأشهر للعربي.

الـ Trade-offs اللي محدش بيقولك عليها

  1. الكسب: صفر تسريب بيانات + تكلفة شبه ثابتة + latency منخفض جوّا الـ datacenter.
  2. الخسارة: أنت مسؤول عن الـ uptime. الـ GPU وقع = التطبيق وقع. مفيش SLA من تاني.
  3. الفرضية: الكلام موجّه لـ batch processing أو real-time بـ chunks ≥ 5 ثواني. لو محتاج latency أقل من 200ms حقيقية لكل كلمة، Whisper مش الحل، استخدم streaming-first models زي Deepgram Nova-3.
  4. اللهجات: الـ WER بيرتفع لـ 24%+ على الخليجي، 28%+ على المغربي. لو ده الـ use case الأساسي، فكّر في fine-tuning بـ LoRA على 50-200 ساعة من اللهجة بتاعتك.

متى لا تستخدم هذه الطريقة

تجنّب التشغيل المحلي تماماً في 3 حالات:

  • أقل من 50 ساعة شهرياً: سعر الـ GPU + الصيانة + الكهرباء هياكل التوفير. ابقَ على API.
  • محتاج Speaker Diarization جاهزة: Whisper بيفرّغ الكلام بس مش بيقول مين بيتكلم. هتحتاج تجمعه مع pyannote.audio، وده مشروع تاني كامل.
  • فريقك مفيهوش حد بيفهم CUDA و GPU drivers: التشغيل الأول سهل، لكن لما يحصل OOM في 3 الصبح أو CUDA driver mismatch بعد update، محتاج حد يعرف يصلّح.

الخطوة التالية

نزّل ملف صوت عربي قصير (≤ 10 دقائق)، ثبّت faster-whisper، شغّل السكربت اللي فوق. قارن المخرجات بنسخة مكتوبة يدوية واحسب الـ WER بمكتبة jiwer. لو الـ WER أعلى من 20% على لهجة معينة عندك، الخطوة الجاية: جمع 50-100 عينة من نفس اللهجة وعمل LoRA fine-tune بمكتبة peft + transformers. الأرقام في الإنتاج بتنزل لـ 8-12% WER بعد fine-tune نظيف على 100 ساعة.

المصادر

  • Radford A. et al., "Robust Speech Recognition via Large-Scale Weak Supervision" — OpenAI Whisper paper, 2023.
  • التوثيق الرسمي لـ faster-whisper على GitHub: مستودع SYSTRAN/faster-whisper، الإصدار 1.0.3.
  • Ali A. et al., "The MGB-3 Arabic Broadcast Speech Recognition Challenge" — QCRI, 2017.
  • صفحة OpenAI Whisper API pricing الرسمية (مايو 2026): $0.006 لكل دقيقة صوت.
  • NVIDIA CUDA Toolkit 12.1 documentation — توثيق devices و compute capability.
  • OpenAI Whisper model card الرسمي على Hugging Face: openai/whisper-large-v3.

هل استفدت من المقال؟

اطّلع على المزيد من المقالات والدروس المجانية من نفس المسار المعرفي.

تصفّح المدونة