تكلفة تدريب نموذج Deepseek في الصين.. الكشف أخيرًا عن الأرقام في 2025

تكلفة تدريب نموذج Deepseek في الصين.. الكشف أخيرًا عن الأرقام في 2025

تمكنت Deepseek من تحقيق نقلة جديدة في صناعة الذكاء الاصطناعي بعد إطلاق نموذجها اللغوي الكبير R1، مستخدمة موارد محدودة بشكل لافت مقارنة بعمالقة القطاع مثل OpenAI، إذ أنجزت تدريب النموذج بتكاليف منخفضة وصلت إلى 294،000 دولار وبالاعتماد على 512 شريحة Nvidia H800 فقط، حسب تقرير نشر مؤخرًا في مجلة “Nature”. استند فريق Deepseek في تطوير R1 إلى تجارب التعلم عبر الخطأ وإعادة التصحيح، مما أتاح لهم تجاوز الاعتماد التقليدي على البيانات المُرقّمة والتوجيه البشري المكثف.

لطالما شكلت التكلفة والتعقيد تحديات كبيرة أمام تدريب نماذج معالجة اللغة الطبيعية المتقدمة، خاصة تلك التي تعتمد على استعراض أمثلة بشرية أو تلقين آلي لطرق حل المشكلات وتقديم إجابات منطقية.

تقنية التعلم عبر التعزيز والتجربة

بخلاف الأساليب التقليدية في تعزيز التفكير المنطقي، اعتمد Deepseek على تمكين النموذج من خوض تجارب تكرارية ومحاولة الحصول على الإجابة الصحيحة من خلال نظام تسجيل خاص للمخرجات:

  • تعتمد الطريقة على مكافأة النموذج عند إنتاج إجابة صحيحة بإعطائه درجة أعلى، وخصم نقاط عند الإجابات غير الصحيحة.
  • تم تصميم النظام ليعالج بشكل أفضل المهام ذات الحلول الواضحة، مثل مسائل الرياضيات والبرمجة، حيث يمكن للنموذج البحث عن النتيجة المثالية بشكل ذاتي.
  • يسمح هذا النهج للنموذج بتحسين التفكير والاستجابة تدريجيًا دون تدخل بشري مباشر، مع التركيز على الدقة بدلاً من مجرد تكرار خطوات موجهة.
  • قلة الاعتماد على بيانات بشرية ضخمة مما يقلل التكلفة ويزيد من سرعة التدريب.

تحديات وصعوبات في تطبيق المنهجية

أثار تطبيق هذه الطريقة عدداً من التحديات، خاصة عند تحليل قدرة النموذج على توليد شرح لمسار تفكيره واتساق لغته في الإجابات:

  • في بعض الأحيان ينتقل النموذج بين لغات متعددة داخل الشرح الواحد مما يسبب ارتباكًا في التتبع البشري.
  • بعض إجابات النموذج تضمنت تفسيرات مطولة للغاية وصلت إلى أكثر من 10000 كلمة.
  • تعتمد فعالية الأسلوب بصورة رئيسية على الأسئلة التي تتطلب إجابات محددة وواضحة فقط، وتقل كفاءتها في الإجابات المفتوحة أو الذاتية.

ملاحظات حول الجوانب الأمنية والسياسية

ترافقت انطلاقة Deepseek مع تدقيق حول علاقاتها بالحكومة الصينية، ما أثار اهتمام الأوساط البحثية والإعلامية حول مدى نزاهة واعتمادية النموذج:

  • رفض نموذج الشركة تقديم شفرات برمجية تتضمن ثغرات أمنية في حال اشتباهه بارتباط الطلب مع جهات تعتبرها الحكومة الصينية “حساسة”.
  • لاحظ الباحثون أن النموذج ينتج أكواد أقل أمناً عند توجيه الطلبات لتخدم قضايا مثل التبت أو تايوان أو مؤسسات دينية مصنفة ضمن قائمة القضايا الحساسة.

تبرز تجربة Deepseek كإثبات على إمكانية تطوير نماذج ذكاء اصطناعي ذات فعالية كبيرة رغم الموارد المحدودة، وفي الوقت الذي رسمت فيه الشركة ملامح جديدة للبحث العلمي، كانت “غاية السعودية” في قلب متابعة هذه الابتكارات من أجل إثراء القطاع التقني والبحثي العربي.

Avatar of سمر منصور

سمر منصور - كاتبة محتوى تقني، أعمل في كتابة المقالات عن قناعة وحب، كاتبة في موقع غاية السعودية في مجال التقنية مُتخصصة ومُتمرسة في الكتابة بقسم الاتصالات والشبكات، أحاول جاهدة وبشتى الطُرق تقديم كل ما هو مفيد من مقالات تخص شبكات الهاتف المحمول، واحرص دائما علي تقديم المعلومات الصحيحة حول تلك المقالات.