مختبرات إندور: شفافية الذكاء الاصطناعى مقابل “الغسيل المفتوح” - غاية التعليمية

0 تعليق ارسل طباعة

مختبرات إندور: شفافية الذكاء الاصطناعى مقابل “الغسيل المفتوح” - غاية التعليمية

غاية التعليمية يكتُب.. مع تركز صناعة الذكاء الاصطناعي على الشفافية والأمن ، فإن المناقشات حول المعنى الحقيقي المتمثل في “الانفتاح” تكثف. قام خبراء من شركة Endor Labs ذات المصدر المفتوح بالوزن في هذه الموضوعات الملحة.

اخر الاخبار العاجلة عبر غاية التعليمية أخبار محلية ودولية، وكذلك أخبار الر ياضة وخاصة كرة القدم يلا كورة و يلا شوت اليوم.

أكد أندرو ستيفل ، كبير مدير تسويق المنتجات في LABS ، على أهمية تطبيق الدروس المستفادة من أمان البرامج إلى أنظمة الذكاء الاصطناعي.

“يتضمن الأمر التنفيذي لحكومة الولايات المتحدة لعام 2021 بشأن تحسين الأمن السيبراني في أمريكا حكمًا يتطلب من المؤسسات إنتاج فاتورة للمواد البرمجيات (SBOM) لكل منتج تم بيعه إلى وكالات الحكومة الفيدرالية.”

يعد SBOM أساسًا مخزونًا يوضح بالتفصيل مكونات المصدر المفتوح داخل المنتج ، مما يساعد على اكتشاف نقاط الضعف. جادل ستيفل بأن “تطبيق هذه المبادئ نفسها على أنظمة الذكاء الاصطناعي هو الخطوة التالية المنطقية.”

وأوضح: “توفير شفافية أفضل للمواطنين والموظفين الحكوميين لا يحسن الأمن فحسب ، بل يوفر أيضًا الرؤية في مجموعات بيانات النموذج والتدريب والأوزان والمكونات الأخرى.”

ماذا يعني أن يكون نموذج الذكاء الاصطناعي “مفتوحًا”؟

أضاف جوليان سويرير ، كبير مديري المنتجات في إندور لابز ، سياقًا مهمًا للمناقشة المستمرة حول شفافية الذكاء الاصطناعي و “الانفتاح”. كسر Sobrier التعقيد المتأصل في تصنيف أنظمة الذكاء الاصطناعى على أنها مفتوحة حقًا.

“يتكون نموذج الذكاء الاصطناعي من العديد من المكونات: مجموعة التدريب ، والأوزان ، والبرامج لتدريب النموذج واختباره ، وما إلى ذلك. من المهم جعل السلسلة بأكملها متوفرة كمصدر مفتوح لاستدعاء النموذج” مفتوح “. إنه تعريف واسع الآن. ”

لاحظت Sobrier عدم الاتساق عبر اللاعبين الرئيسيين ، مما أدى إلى ارتباك حول المصطلح.

“من بين اللاعبين الرئيسيين ، بدأت المخاوف بشأن تعريف” Open “بـ Openai ، و Meta في الأخبار الآن لنموذج Llama الخاص بهم على الرغم من أن هذا” أكثر انفتاحًا “. نحتاج إلى فهم مشترك لما يعنيه النموذج المفتوح. نريد أن ننظر إلى أي “غسل مفتوح” ، كما رأينا مع برنامج مجاني مقابل المصدر المفتوح. ”

أحد المآزق المحتملة ، التي أبرزها Sobrier ، هي الممارسة الشائعة المتمثلة في “الغسيل المفتوح” ، حيث تدعي المنظمات الشفافية مع فرض قيود.

“مع تقديم مقدمي الخدمات السحابية إلى إصدار مدفوع من المشاريع مفتوحة المصدر (مثل قواعد البيانات) دون المساهمة مرة أخرى ، رأينا تحولًا في العديد من مشاريع المصدر المفتوح: لا يزال رمز المصدر مفتوحًا ، لكنهم أضافوا العديد من القيود التجارية.”

حذر Sobrier: “قد يسير Meta وغيرهم من مقدمي خدمات LLM” المفتوحون “هذا الطريق للحفاظ على ميزتهم التنافسية: المزيد من الانفتاح على النماذج ، ولكن منع المنافسين من استخدامهم”.

يهدف Deepseek إلى زيادة شفافية الذكاء الاصطناعي

اتخذ ديبسيك ، أحد اللاعبين الصاعدين-وإن كان مثيرا للجدل-في صناعة الذكاء الاصطناعى ، خطوات لمعالجة بعض هذه المخاوف من خلال جعل أجزاء من نماذجها ومصدر رمز مفتوح. تم الإشادة بهذه الخطوة لتطوير الشفافية مع توفير رؤى أمنية.

وقال أندرو ستيفل: “لقد أصدر ديبسيك بالفعل النماذج وأوزانها على أنها مفتوحة المصدر”. “ستوفر هذه الخطوة التالية شفافية أكبر في خدماتها المستضافة ، وستقدم رؤية لكيفية ضبطها وتشغيل هذه النماذج في الإنتاج.”

هذه الشفافية لها فوائد كبيرة ، كما لاحظ ستيفل. “هذا سيجعل من الأسهل على المجتمع مراجعة أنظمته من أجل مخاطر الأمن وأيضًا للأفراد والمؤسسات لإدارة إصداراتهم الخاصة من Deepseek في الإنتاج.”

إلى جانب الأمن ، يقدم Deepseek أيضًا خريطة طريق حول كيفية إدارة البنية التحتية لمنظمة العفو الدولية على نطاق واسع.

“من جانب الشفافية ، سنرى كيف تدير Deepseek خدماتها المستضافة. سيساعد هذا في معالجة المخاوف الأمنية التي ظهرت بعد اكتشافها أنهم تركوا بعض قواعد بيانات Clickhouse الخاصة بهم غير مضمونة. “

أبرز Stiefel أن ممارسات Deepseek مع أدوات مثل Docker و Kubernetes (K8s) وغيرها من التكوينات في البنية التحتية (IAC) يمكن أن تمكّن الشركات الناشئة والهواة من بناء مثيلات مستضافة مماثلة.

AI مفتوح المصدر ساخن الآن

تتماشى مبادرات الشفافية في ديبسيك مع الاتجاه الأوسع نحو الذكاء الاصطناعي مفتوح المصدر. يكشف تقرير صادر عن IDC أن 60 ٪ من المنظمات تختار نماذج منظمة العفو الدولية مفتوحة المصدر على البدائل التجارية لمشاريع الذكاء الاصطناعي (GENAI).

تشير أبحاث Endor Labs أيضًا إلى أن المؤسسات تستخدم ، في المتوسط ​​، بين سبعة وواحد وعشرين نماذج مفتوحة المصدر لكل تطبيق. المنطق واضح: الاستفادة من أفضل نموذج لمهام محددة والتحكم في تكاليف API.

وقال ستيفل: “اعتبارًا من 7 فبراير ، وجدت شركة Endor Labs أن أكثر من 3500 طراز إضافي قد تم تدريبه أو تقطيره من نموذج Deepseek R1 الأصلي”. “هذا يدل على كل من الطاقة في مجتمع نموذج AI مفتوح المصدر ، ولماذا تحتاج فرق الأمن إلى فهم نسب النموذج ومخاطره المحتملة.”

بالنسبة إلى SoBrier ، يعزز اعتماد نماذج الذكاء الاصطناعى المفتوح المصدر الحاجة إلى تقييم تبعياتها.

“نحن بحاجة إلى النظر إلى نماذج الذكاء الاصطناعي باعتبارها تبعيات رئيسية تعتمد عليها برنامجنا. تحتاج الشركات إلى التأكد من السماح لها قانونًا باستخدام هذه النماذج ولكنها أيضًا آمنة لاستخدامها من حيث المخاطر التشغيلية ومخاطر سلسلة التوريد ، تمامًا مثل المكتبات مفتوحة المصدر. “

وأكد أن أي مخاطر يمكن أن تمتد إلى بيانات التدريب: “يجب أن تكون واثقة من أن مجموعات البيانات المستخدمة لتدريب LLM لم تسمم أو لديهم معلومات خاصة حساسة.”

بناء نهج منهجي لمخاطر نموذج الذكاء الاصطناعى

مع تسريع اعتماد AI مفتوح المصدر ، تصبح إدارة المخاطر أكثر أهمية من أي وقت مضى. أوضح Stiefel نهجًا منهجيًا تركز على ثلاث خطوات رئيسية:

  1. اكتشاف: اكتشف نماذج الذكاء الاصطناعي التي تستخدمها مؤسستك حاليًا.
  2. تقييم: راجع هذه النماذج للمخاطر المحتملة ، بما في ذلك المخاوف الأمنية والتشغيلية.
  3. إجابة: قم بتعيين وفرض الدرابزين لضمان اعتماد النموذج الآمن والآمن.

وقال ستيفل: “المفتاح هو إيجاد التوازن الصحيح بين تمكين الابتكار وإدارة المخاطر”. “نحتاج إلى إعطاء خطوط عرض هندسة البرمجيات للتجربة ولكن يجب القيام بذلك برؤية كاملة. يحتاج فريق الأمن إلى خط الرؤية والبصيرة للتصرف “.

جادل Sobrier كذلك أنه يجب على المجتمع تطوير أفضل الممارسات لبناء وتبني نماذج الذكاء الاصطناعى بأمان. هناك حاجة إلى منهجية مشتركة لتقييم نماذج الذكاء الاصطناعى عبر المعلمات مثل الأمان والجودة والمخاطر التشغيلية والانفتاح.

ما وراء الشفافية: تدابير لمستقبل الذكاء الاصطناعي المسؤول

لضمان النمو المسؤول لمنظمة العفو الدولية ، يجب على الصناعة تبني ضوابط تعمل عبر عدة متجهات:

  • نماذج SaaS: حماية الموظف استخدام النماذج المستضافة.
  • تكامل API: يمكن للمطورين دمج واجهات برمجة تطبيقات الطرف الثالث مثل Deepseek في التطبيقات ، والتي من خلال أدوات مثل Openai Integrations ، يمكنها تبديل النشر مع سطرين فقط من التعليمات البرمجية.
  • نماذج مفتوحة المصدر: يستفيد المطورون من النماذج المصممة للمجتمع أو إنشاء نماذج خاصة بهم من المؤسسات الحالية التي تحتفظ بها شركات مثل Deepseek.

حذر Sobrier من الرضا عن الرضا في مواجهة التقدم السريع الذكاء الاصطناعي. “يحتاج المجتمع إلى بناء أفضل الممارسات لتطوير نماذج آمنة ومفتوحة لمنظمة العفو الدولية” ، كما نصح ، “ومنهجية لتقييمها على طول الأمن ، والجودة ، والمخاطر التشغيلية ، والانفتاح.”

كما تم تلخيص Stiefel بإيجاز: “فكر في الأمان عبر متجهات متعددة وتنفيذ الضوابط المناسبة لكل منها.”

انظر أيضا: الذكاء الاصطناعي في عام 2025: النماذج التي تعتمد على الغرض ، والتكامل البشري ، والمزيد

هل تريد معرفة المزيد عن الذكاء الاصطناعي والبيانات الكبيرة من قادة الصناعة؟ تحقق من AI و Big Data Expo الذي يقام في أمستردام ، كاليفورنيا ، ولندن. تم تحديد الحدث الشامل مع الأحداث الرائدة الأخرى بما في ذلك مؤتمر الأتمتة الذكي ، و blockx ، وأسبوع التحول الرقمي ، ومعرض Cyber ​​Security & Cloud.

استكشاف أحداث وندوات الويب القادمة الأخرى التي تعمل بها TechForge هنا.

كُنا قد تحدثنا في خبر مختبرات إندور: شفافية الذكاء الاصطناعى مقابل “الغسيل المفتوح” - غاية التعليمية بأستفاضة، ويمكنك تصفح جميع الأخبار المتعلقة بهذا الشأن عبر موقعنا غاية التعليمية الالكتروني.

جميلة الهادي
إخترنا لك

أخبار ذات صلة

0 تعليق