تسمي Microsoft المطورين مقاضاة من أجل إساءة استخدام أدوات الذكاء الاصطناعى - غاية التعليمية
غاية التعليمية يكتُب.. تحاول Microsoft إظهار التزامها بسلامة الذكاء الاصطناعى من خلال تعديل دعوى قضائية مدعاة العام الماضي لكشف المطورين الأربعة الذين يزعمون الدرابزين المتزوجين على أدوات الذكاء الاصطناعى من أجل توليد Deepfakes المشاهير. رفعت الشركة الدعوى في ديسمبر ، وأمر المحكمة يسمح لـ Microsoft بالاستيلاء على موقع ويب مرتبط بالعملية يساعدها على تحديد الأفراد.
اخر الاخبار العاجلة عبر غاية التعليمية أخبار محلية ودولية، وكذلك أخبار الر ياضة وخاصة كرة القدم يلا كورة و يلا شوت اليوم.
يقال إن المطورين الأربعة هم جزء من شبكة جرائم إلكترونية عالمية تسمى Storm-2139: Arian Yadegarnia المعروف أيضًا باسم “Fiz” من إيران ؛ آلان كريسياك الملقب “دراغو” من المملكة المتحدة ؛ Ricky Yuen AKA “CG-DOT” من هونغ كونغ و Phát Phùng Tấn AKA “Asakuri” من فيتنام.
تقول Microsoft إن هناك آخرين تم تحديدهم على أنها متورطة في المخطط ، لكنها لا ترغب في تسميتها حتى الآن حتى لا تتدخل في التحقيق المستمر. وفقًا لـ Microsoft ، تعرضت المجموعة للخطر مع الوصول إلى أدوات الذكاء الاصطناعى التوليدي وتمكنت من “كسرها” من أجل إنشاء أي أنواع من الصور التي يرغبون فيها. ثم باعت المجموعة الوصول إلى الآخرين ، الذين استخدموها لإنشاء عراة Deepfake من المشاهير ، من بين انتهاكات أخرى.
بعد رفع الدعوى والاستيلاء على موقع المجموعة ، قالت Microsoft إن المدعى عليهم دخلوا في وضع الذعر. وقالت في مدونتها: “إن الاستيلاء على هذا الموقع وإلغاء الإيداع القانونية اللاحقة في يناير ولدت رد فعل فوري من الجهات الفاعلة ، في بعض الحالات تسبب في تشغيل أعضاء المجموعة وتوجيه أصابعهم إلى بعضهم البعض”.
كان المشاهير ، بما في ذلك تايلور سويفت ، أهدافًا متكررة من المواد الإباحية العميقة ، والتي تأخذ وجه شخص حقيقي وتضعفه بشكل مقنع على جسم عاري. مرة أخرى في يناير 2024 ، اضطرت Microsoft إلى تحديث نماذج النص إلى صورة بعد ظهور صور مزيفة لـ Swift عبر الويب. يجعل AI التوليدي من السهل للغاية إنشاء الصور مع القليل من القدرة التقنية – مما أدى بالفعل إلى وباء المدارس الثانوية في جميع أنحاء الولايات المتحدة التي تعاني من فضائح DeepFake. توضح القصص الحديثة من ضحايا Deepfakes كيف أن إنشاء الصور ليس عملاً بدون ضحية لأنه يحدث رقميًا ولكنه يترجم إلى ضرر في العالم الحقيقي من خلال جعل الأهداف يشعر بالقلق والخوف والانتهاك مع معرفة شخص ما هناك مهووس بها بما يكفي للقيام بذلك.
كان هناك نقاش مستمر في مجتمع الذكاء الاصطناعى فيما يتعلق بموضوع السلامة وما إذا كانت المخاوف حقيقية أو تهدف إلى مساعدة اللاعبين الرئيسيين مثل Openai على التأثير وبيع منتجاتهم من خلال التغلب على القوة الحقيقية للذكاء الاصطناعي. جادل أحد المعسكرات بأن الحفاظ على نماذج الذكاء الاصطناعى مغلقة يمكن أن تساعد في منع أسوأ الانتهاكات عن طريق الحد من قدرة المستخدمين على إيقاف ضوابط السلامة ؛ يعتقد أولئك الموجودون في معسكر المصدر المفتوح أن جعل النماذج حرة في التعديل والتحسين ضروريًا لتسريع القطاع ، ومن الممكن معالجة الإساءة دون إعاقة الابتكار. في كلتا الحالتين ، يبدو كل شيء وكأنه إلهاء إلى حد ما عن التهديد الأكثر إلحاحًا ، وهو أن الذكاء الاصطناعى قد ملء الويب بمعلومات غير دقيقة ومحتوى مائل.
في حين أن الكثير من المخاوف من الذكاء الاصطناعى تشعر بأنها مفرطة في الطبيعة والافتراضية في الطبيعة ، ويبدو أنه من غير المرجح أن يكون الذكاء الاصطناعى التوليدي في أي مكان جيد بما فيه الكفاية لتولي وكالة خاصة بها ، فإن سوء استخدام الذكاء الاصطناعى لإنشاء Deepfakes هو حقيقي. الوسائل القانونية هي إحدى الطرق التي يمكن بها معالجة هذه الانتهاكات اليوم. كان هناك بالفعل عدد كبير من الاعتقالات في جميع أنحاء الولايات المتحدة من الأفراد الذين استخدموا الذكاء الاصطناعي لتوليد أعماق من القاصرين ، وقانون No Fakes الذي تم تقديمه في الكونغرس العام الماضي سيجعل من جريمة توليد صور بناءً على تشابه شخص ما. تعاقب المملكة المتحدة بالفعل توزيع الاباحية DeepFake ، وسرعان ما ستكون جريمة حتى لإنتاجها. قامت أستراليا مؤخرًا بتجريم إنشاء ومشاركة DeepFakes غير التوافقية.
كُنا قد تحدثنا في خبر تسمي Microsoft المطورين مقاضاة من أجل إساءة استخدام أدوات الذكاء الاصطناعى - غاية التعليمية بأستفاضة، ويمكنك تصفح جميع الأخبار المتعلقة بهذا الشأن عبر موقعنا غاية التعليمية الالكتروني.
0 تعليق