كيفية سرقة نموذج الذكاء الاصطناعي دون اختراق أي شيء فعليًا - غاية التعليمية
غاية التعليمية يكتُب.. من الممكن أن تكون نماذج الذكاء الاصطناعي قابلة للسرقة بشكل مدهش، بشرط أن تتمكن بطريقة ما من التعرف على التوقيع الكهرومغناطيسي للنموذج. وبينما أكدوا مرارا وتكرارا أنهم لا يريدون في الواقع مساعدة الناس على مهاجمة الشبكات العصبية، وصف الباحثون في جامعة ولاية كارولينا الشمالية مثل هذه التقنية في ورقة بحثية جديدة. كل ما احتاجوه هو مسبار كهرومغناطيسي، والعديد من نماذج الذكاء الاصطناعي مفتوحة المصدر المدربة مسبقًا، ووحدة معالجة Google Edge Tensor (TPU). تستلزم طريقتهم تحليل الإشعاعات الكهرومغناطيسية أثناء تشغيل شريحة TPU بشكل نشط.
اخر الاخبار العاجلة عبر غاية التعليمية أخبار محلية ودولية، وكذلك أخبار الر ياضة وخاصة كرة القدم يلا كورة و يلا شوت اليوم.
قال المؤلف الرئيسي للدراسة وحاصل على درجة الدكتوراه في ولاية نورث كارولاينا: “إن بناء وتدريب شبكة عصبية أمر مكلف للغاية”. الطالب أشلي كوريان في مكالمة مع Gizmodo. “إنها ملكية فكرية تمتلكها الشركة، وتستغرق قدرًا كبيرًا من الوقت والموارد الحاسوبية. على سبيل المثال، ChatGPT — يتكون من مليارات المعلمات، وهو نوع من السر. عندما يسرقها شخص ما، يصبح ChatGPT ملكًا له. كما تعلمون، ليس عليهم أن يدفعوا ثمنها، ويمكنهم أيضًا بيعها.
تعد السرقة بالفعل مصدر قلق كبير في عالم الذكاء الاصطناعي. ومع ذلك، عادة ما يكون الأمر على العكس من ذلك، حيث يقوم مطورو الذكاء الاصطناعي بتدريب نماذجهم على الأعمال المحمية بحقوق الطبع والنشر دون الحصول على إذن من المبدعين البشريين. يؤدي هذا النمط الساحق إلى إثارة دعاوى قضائية وحتى أدوات لمساعدة الفنانين على المقاومة عن طريق “تسميم” مولدي الفن.
وأوضح كوريان في بيان له أن “البيانات الكهرومغناطيسية الصادرة عن المستشعر تعطينا بشكل أساسي “توقيعًا” لسلوك معالجة الذكاء الاصطناعي”، واصفًا ذلك بأنه “الجزء السهل”. ولكن من أجل فك رموز المعلمات الفائقة للنموذج – بنيته وتفاصيله المحددة – كان عليهم مقارنة بيانات المجال الكهرومغناطيسي بالبيانات التي تم التقاطها أثناء تشغيل نماذج الذكاء الاصطناعي الأخرى على نفس النوع من الرقائق.
وأوضح كوريان أنه من خلال القيام بذلك، “تمكنوا من تحديد البنية والخصائص المحددة – المعروفة باسم تفاصيل الطبقة – التي سنحتاج إليها لعمل نسخة من نموذج الذكاء الاصطناعي”، مضيفًا أنه يمكنهم القيام بذلك “بدقة تصل إلى 99.91٪”. ” ولتحقيق ذلك، كان لدى الباحثين إمكانية الوصول الفعلي إلى الشريحة لفحص النماذج الأخرى وتشغيلها. لقد عملوا أيضًا بشكل مباشر مع Google لمساعدة الشركة في تحديد مدى إمكانية مهاجمة شرائحها.
وتكهن كوريان بأن التقاط النماذج التي تعمل على الهواتف الذكية، على سبيل المثال، سيكون ممكنًا أيضًا، لكن تصميمها فائق الصغر من شأنه أن يجعل مراقبة الإشارات الكهرومغناطيسية أكثر صعوبة.
وقال محمد سينكان، الباحث الأمني في منظمة Atlas Computing غير الربحية لمعايير الذكاء الاصطناعي، لموقع Gizmodo: “إن هجمات القنوات الجانبية على الأجهزة الطرفية ليست جديدة”. لكن هذه التقنية الخاصة “لاستخراج المعلمات الفائقة لهندسة النموذج بالكامل تعتبر مهمة.” وأوضح سينكان أنه نظرًا لأن أجهزة الذكاء الاصطناعي “تقوم بالاستدلال في نص عادي، فإن أي شخص ينشر نماذجه على الحافة أو في أي خادم غير مؤمن فعليًا عليه أن يفترض أن بنياته يمكن استخلاصها من خلال تحقيق مكثف”.
كُنا قد تحدثنا في خبر كيفية سرقة نموذج الذكاء الاصطناعي دون اختراق أي شيء فعليًا - غاية التعليمية بأستفاضة، ويمكنك تصفح جميع الأخبار المتعلقة بهذا الشأن عبر موقعنا غاية التعليمية الالكتروني.
0 تعليق