تمكنت Deepseek من تحقيق نقلة جديدة في صناعة الذكاء الاصطناعي بعد إطلاق نموذجها اللغوي الكبير R1، مستخدمة موارد محدودة بشكل لافت مقارنة بعمالقة القطاع مثل OpenAI، إذ أنجزت تدريب النموذج بتكاليف منخفضة وصلت إلى 294،000 دولار وبالاعتماد على 512 شريحة Nvidia H800 فقط، حسب تقرير نشر مؤخرًا في مجلة “Nature”. استند فريق Deepseek في تطوير R1 إلى تجارب التعلم عبر الخطأ وإعادة التصحيح، مما أتاح لهم تجاوز الاعتماد التقليدي على البيانات المُرقّمة والتوجيه البشري المكثف.
لطالما شكلت التكلفة والتعقيد تحديات كبيرة أمام تدريب نماذج معالجة اللغة الطبيعية المتقدمة، خاصة تلك التي تعتمد على استعراض أمثلة بشرية أو تلقين آلي لطرق حل المشكلات وتقديم إجابات منطقية.
تقنية التعلم عبر التعزيز والتجربة
بخلاف الأساليب التقليدية في تعزيز التفكير المنطقي، اعتمد Deepseek على تمكين النموذج من خوض تجارب تكرارية ومحاولة الحصول على الإجابة الصحيحة من خلال نظام تسجيل خاص للمخرجات:
- تعتمد الطريقة على مكافأة النموذج عند إنتاج إجابة صحيحة بإعطائه درجة أعلى، وخصم نقاط عند الإجابات غير الصحيحة.
- تم تصميم النظام ليعالج بشكل أفضل المهام ذات الحلول الواضحة، مثل مسائل الرياضيات والبرمجة، حيث يمكن للنموذج البحث عن النتيجة المثالية بشكل ذاتي.
- يسمح هذا النهج للنموذج بتحسين التفكير والاستجابة تدريجيًا دون تدخل بشري مباشر، مع التركيز على الدقة بدلاً من مجرد تكرار خطوات موجهة.
- قلة الاعتماد على بيانات بشرية ضخمة مما يقلل التكلفة ويزيد من سرعة التدريب.
تحديات وصعوبات في تطبيق المنهجية
أثار تطبيق هذه الطريقة عدداً من التحديات، خاصة عند تحليل قدرة النموذج على توليد شرح لمسار تفكيره واتساق لغته في الإجابات:
- في بعض الأحيان ينتقل النموذج بين لغات متعددة داخل الشرح الواحد مما يسبب ارتباكًا في التتبع البشري.
- بعض إجابات النموذج تضمنت تفسيرات مطولة للغاية وصلت إلى أكثر من 10000 كلمة.
- تعتمد فعالية الأسلوب بصورة رئيسية على الأسئلة التي تتطلب إجابات محددة وواضحة فقط، وتقل كفاءتها في الإجابات المفتوحة أو الذاتية.
ملاحظات حول الجوانب الأمنية والسياسية
ترافقت انطلاقة Deepseek مع تدقيق حول علاقاتها بالحكومة الصينية، ما أثار اهتمام الأوساط البحثية والإعلامية حول مدى نزاهة واعتمادية النموذج:
- رفض نموذج الشركة تقديم شفرات برمجية تتضمن ثغرات أمنية في حال اشتباهه بارتباط الطلب مع جهات تعتبرها الحكومة الصينية “حساسة”.
- لاحظ الباحثون أن النموذج ينتج أكواد أقل أمناً عند توجيه الطلبات لتخدم قضايا مثل التبت أو تايوان أو مؤسسات دينية مصنفة ضمن قائمة القضايا الحساسة.
تبرز تجربة Deepseek كإثبات على إمكانية تطوير نماذج ذكاء اصطناعي ذات فعالية كبيرة رغم الموارد المحدودة، وفي الوقت الذي رسمت فيه الشركة ملامح جديدة للبحث العلمي، كانت “غاية السعودية” في قلب متابعة هذه الابتكارات من أجل إثراء القطاع التقني والبحثي العربي.
FTC ترفع دعوى ضد Ticketmaster بسبب ممارسات تسعير التذاكر المخادعة في عام 2025
تدمير التلسكوب الأسطوري للعصر السوفيتي في أوكرانيا.. نهاية أداة الاتصال مع الكائنات الفضائية 2025
جسر بري مذهل لم يعرفه الكثيرون حتى الآن
عوالم جديدة غريبة تحتاج إلى المزيد من الإبداع في رسم الشخصيات النسائية
استعد لمشاهدة التشويق الجديد في حملة الدور الحاسم 4 لعام 2025
أطول سباحة مسجلة للجاكوار في 2025 تذهل العلماء
دليلك في 2025.. هل من الضروري استخدام مبرد لـ M.2 SSD وكيف تتخذ القرار المناسب؟
