ميتا تضع إطارًا جديدًا لتقييم مخاطر أنظمة الذكاء الاصطناعي - غاية التعليمية
اخر الاخبار العاجلة عبر غاية التعليمية أخبار محلية ودولية، وكذلك أخبار الر ياضة وخاصة كرة القدم يلا كورة و يلا شوت اليوم.
غاية التعليمية يكتُب.. أعلنت شركة ميتا عن اعتماد إطار عمل جديد يُدعى «Frontier AI Framework» لتصنيف وتقييم أنظمة الذكاء الاصطناعي وفق مستويات المخاطر التي قد تشكلها على المجتمع.
جاء هذا الإعلان في ظل سعي الشركة لتوفير الذكاء الاصطناعي بطريقة مفتوحة وآمنة، مع الوعد السابق من الرئيس التنفيذي مارك زوكربيرج بجعل الذكاء الاصطناعي العام متاحًا للجميع في يوم من الأيام.
يحدد الإطار فئتين من الأنظمة التي تُعتبر ذات خطورة عالية: الأنظمة ذات «المخاطر العالية» وتلك التي تصل إلى مستوى «المخاطر الحرجة».
وتُظهر الوثيقة أن كلا الفئتين يمكن أن تسهم في تنفيذ هجمات إلكترونية أو هجمات كيميائية وبيولوجية. وبينما قد تسهل الأنظمة ذات المخاطر العالية تنفيذ هجوم ما، تُعتبر الأنظمة ذات المخاطر الحرجة أكثر خطورة إذ يمكن أن تؤدي إلى نتائج كارثية يصعب السيطرة عليها.
وفقًا للإطار الجديد، لا تعتمد ميتا في تقييم مخاطر الأنظمة على اختبارات كمية فقط، بل تستعين بآراء باحثين داخليين وخارجيين، تُراجع بواسطة كبار المسؤولين.
وفي حالة تصنيف نظام كـ «عالي المخاطر»، ستُقيّد الشركة الوصول إليه داخليًا حتى تخفف المخاطر إلى مستويات معتدلة. أما إن صُنف النظام ضمن «المخاطر الحرجة»، فستُطبق تدابير أمنية مشددة ويُوقَف تطويره حتى يتم تقليل خطره.
تأتي هذه الخطوة وسط الجدل الدائر حول نهج ميتا في توفير تقنياتها الذكية مفتوحة الاستخدام، وهو ما أثار انتقادات فيما يتعلق بإمكانية إساءة استخدامها. فقد حققت نماذجها، مثل سلسلة «Llama»، ملايين التنزيلات، إلا أن بعض الجهات الأمريكية استغلتها لتطوير روبوتات دفاعية.
في سياق متصل، تسعى الشركة من خلال هذا الإطار إلى إبراز توازنها بين الاستفادة من تقنيات الذكاء الاصطناعي وتقليل المخاطر المحتملة، بما يتماشى مع رؤية تدعو إلى استفادة المجتمع من الابتكار التقني دون تعريضه لمخاطر غير مقبولة.
بواسطة
Techcrunchتابع عالم التقنية على
كُنا قد تحدثنا في خبر ميتا تضع إطارًا جديدًا لتقييم مخاطر أنظمة الذكاء الاصطناعي - غاية التعليمية بأستفاضة، ويمكنك تصفح جميع الأخبار المتعلقة بهذا الشأن عبر موقعنا غاية التعليمية الالكتروني.
أخبار متعلقة :