غاية التعليمية

5 طرق متستر يستخدم المتسللين من الذكاء الاصطناعى - غاية التعليمية

5 طرق متستر يستخدم المتسللين من الذكاء الاصطناعى - غاية التعليمية

غاية التعليمية يكتُب.. يمكن أن يكون الذكاء الاصطناعي (AI) قوة من أجل الخير في مستقبلنا ، وهذا واضح من حقيقة أنه يتم استخدامه لتعزيز أشياء مثل البحث الطبي. ولكن ماذا عن كونها قوة سيئة؟

اخر الاخبار العاجلة عبر غاية التعليمية أخبار محلية ودولية، وكذلك أخبار الر ياضة وخاصة كرة القدم يلا كورة و يلا شوت اليوم.

في مكان ما هناك ، هناك شرير يشبه جيمس بوند على كرسي بذراعين يربط قطة واستخدام الذكاء الاصطناعى التوليدي لاختراق جهاز الكمبيوتر الخاص بك قد يبدو مثل الخيال ، ولكن بصراحة ، ليس كذلك. يتدافع خبراء الأمن السيبراني بالفعل لإحباط ملايين التهديدات من قبل المتسللين الذين استخدموا منظمة العفو الدولية للاختراق أجهزة الكمبيوتر الشخصية وسرقة الأموال وبيانات الاعتماد والبيانات ، ومع الانتشار السريع لأدوات الذكاء الاصطناعى الجديدة والمحسنة ، فإنها ستزداد سوءًا.

نوع الهجمات الإلكترونية التي يستخدمها المتسللون ليس بالضرورة جديدًا. إنهم أكثر غزارة وتطوراً وفعالية الآن بعد أن تم سلاحهم من الذكاء الاصطناعي. إليك ما يجب البحث عنه …

البرامج الضارة التي تولدها الذكاء الاصطناعي

في المرة القادمة التي ترى فيها نافذة منبثقة ، قد ترغب في ضرب Ctrl-alt-delete real Quick! لماذا؟ نظرًا لأن المتسللين يستخدمون أدوات الذكاء الاصطناعى لكتابة البرامج الضارة مثل عدم وجود غد ويظهر في متصفحات.

يمكن لخبراء الأمن معرفة متى تمت كتابة البرامج الضارة من قبل الذكاء الاصطناعي من خلال النظر في رمزها. البرامج الضارة التي كتبها AI Tools أسرع ، يمكن أن تكون مستهدفة بشكل أفضل ضد الضحايا ، وأكثر فاعلية في تجاوز منصات الأمان من الكود المكتوب باليد ، وفقًا لورقة في المجلة مراجعة الذكاء الاصطناعي.

أحد الأمثلة على ذلك هو البرامج الضارة التي اكتشفها فريق أبحاث التهديدات في HP والتي يبرزها في تقرير Insights للتهديدات في سبتمبر 2024. قالت الشركة إنها اكتشفت رمزًا ضارًا مخفيًا في امتداد استخدمه المتسللون لتولي جلسات المتصفح والمستخدمين المباشرون إلى مواقع الويب التي تخلل أدوات PDF المزيفة.

وجد الفريق أيضًا أن صور SVG تؤوي رمزًا ضارًا والتي يمكن أن تطلق البرامج الضارة Infostealer. تحتوي البرامج الضارة المعنية على رمز يضم “اللغة الأصلية والمتغيرات التي كانت متسقة مع أداة AI Generative” ، وهو مؤشر واضح على أصل الذكاء الاصطناعي.

تهرب من أنظمة الأمن

إنه شيء واحد لكتابة البرامج الضارة باستخدام أدوات الذكاء الاصطناعى ، إنه شيء آخر تمامًا لإبقائه فعالًا في تجاوز الأمان. يعلم المتسللين أن شركات الأمن السيبراني تتحرك بسرعة لاكتشاف البرامج الضارة الجديدة وحظرها ، وبالتالي سبب استخدامها نماذج لغة كبيرة (LLMS) لتغييرها أو تغييرها قليلاً.

يمكن استخدام الذكاء الاصطناعى لمزج الرمز في البرامج الضارة المعروفة أو إنشاء متغيرات جديدة كاملة لن تتعرف عليها أنظمة الكشف عن الأمان. يقول محترفو الأمن السيبرانيون إن القيام بذلك أكثر فعالية ضد برامج الأمن التي تتعرف على الأنماط المعروفة للنشاط الخبيث. في الواقع ، من الأسرع في الواقع القيام بذلك من إنشاء برامج ضارة من نقطة الصفر ، وفقًا لباحث Palo Alto Networks Unit 42.

أظهر الباحثون في الوحدة 42 كيف يكون ذلك ممكنًا. لقد استخدموا LLMS لإعادة كتابة 10000 متغيرات كود JavaScript الخبيثة من البرامج الضارة المعروفة التي لها نفس الوظائف مثل الرمز الأصلي.

ووجد الباحثون أن هذه المتغيرات كانت ناجحة للغاية في تجنب اكتشاف خوارزميات الكشف عن LM مثل الأبرياء حتى أثبتت إدانتها (IUPG). وخلصوا إلى أنه من خلال تحويلات الكود الكافية ، كان من الممكن للمتسللين “تدهور أداء أنظمة تصنيف البرامج الخبيثة” بما يكفي لتجنب الكشف.

هناك نوعان آخران من البرامج الضارة التي يستخدمها المتسللين للتهرب من الكشف أكثر إثارة للقلق بسبب قدراتهم الذكية.

يقول خبراء الأمن السيبرانيون إن هذه الأنواع تُطلق عليها “البرامج الضارة التكيفية” و “حمولات البرامج الضارة الديناميكية” قادرة على التهرب من أنظمة الأمان من خلال تعلم وضبط الترميز والتشفير والسلوك في الوقت الحقيقي لتجاوز أنظمة الأمن.

في حين أن هذه الأنواع تسبق LLMS و AI ، فإن الذكاء الاصطناعى التوليدي يجعلها أكثر استجابة لبيئاتهم وبالتالي فهي أكثر فعالية ، كما يوضحون.

سرقة البيانات وبيانات الاعتماد

يتم أيضًا استخدام برنامج AI والخوارزميات لسرقة كلمات مرور المستخدم وتسجيلات تسجيل الدخول بنجاح والوصول إلى حساباتهم بشكل غير قانوني ، وفقًا لشركات الأمن السيبراني.

يستخدم مجرمو الإنترنت بشكل عام ثلاث تقنيات للقيام بذلك: حشو بيانات الاعتماد ، ورش كلمة المرور ، وهجمات القوة الغاشمة ، وأدوات الذكاء الاصطناعى مفيدة لجميع هذه التقنيات.

تسهل خوارزميات القياس الحيوي التنبؤية على المتسللين أن يتجسسوا على المستخدمين الذين يكتبون كلمات المرور ، وبالتالي تسهل اختراق قواعد البيانات الكبيرة التي تحتوي على معلومات المستخدم.

بالإضافة إلى ذلك ، يتم نشر خوارزميات مسح وتحليل خوارزميات من قبل المتسللين لمسح شبكات وتصنيفها بسرعة ، وتحديد المضيفين ، وفتح المنافذ ، وتحديد البرنامج قيد التشغيل لاكتشاف ثغرات المستخدم.

كانت هجمات القوة الغاشمة طريقة مفضلة للهجمات الإلكترونية للمتسللين الهواة. يتضمن هذا الهجوم قصف المحاكمة والخطأ لعدد كبير من الشركات أو الأفراد الذين لديهم هجمات إلكترونية على أمل أن يتم اختراق عدد قليل فقط.

تقليديًا ، ينجح واحد فقط من بين كل 10000 هجوم بفضل فعالية برامج الأمان. لكن هذا البرنامج أصبح أقل فعالية بسبب ظهور خوارزميات كلمة المرور التي يمكنها تحليل مجموعات البيانات الكبيرة بسرعة من كلمات المرور التي تم تسريبها وهجمات القوة الغاشمة بشكل أكثر فعالية.

يمكن أن تؤدي الخوارزميات أيضًا إلى أتمتة محاولات القرصنة عبر مواقع أو منصات متعددة في وقت واحد ، ويحذر خبراء الأمن السيبراني.

الهندسة الاجتماعية والتصيد الأكثر فعالية

يتم استخدام أدوات الذكاء الاصطناعي التقليدية مثل الجوزاء و chatgpt وكذلك نظرائهم على شبكة الإنترنت المظلمة مثل Wormgpt و Fraudgpt ، من قبل المتسللين لتقليد اللغة والنبرة والكتابة من الأفراد لجعل الهندسة الاجتماعية وهجمات التصيد الأكثر تخصيصًا للضحايا.

يستخدم المتسللون أيضًا خوارزميات AI ودردشة الدردشة لحصاد البيانات من ملفات تعريف الوسائط الاجتماعية للمستخدم ومحركات البحث ومواقع الويب الأخرى (ومباشرة من الضحايا أنفسهم) لإنشاء ملاعب تصيد ديناميكية استنادًا إلى موقع الفرد أو اهتماماتهم أو استجاباتهم.

من خلال نمذجة الذكاء الاصطناعى ، يمكن للمتسللين التنبؤ باحتمال أن ينجح اختراقهم وعمليات الاحتيال.

مرة أخرى ، هذا مجال آخر يقوم فيه المتسللين أيضًا بنشر روبوتات ذكية يمكن أن تتعلم من الهجمات وتغيير سلوكهم لجعل الهجمات أكثر عرضة للنجاح.

تظهر رسائل البريد الإلكتروني المخادعة التي تم إنشاؤها بواسطة المتسللين الذين يستخدمون برنامج الذكاء الاصطناعى أكثر نجاحًا في خداع الأشخاص. أحد الأسباب هو أنها تميل إلى إشراك عدد أقل من الأعلام الحمراء مثل الأخطاء النحوية أو الأخطاء الإملائية التي تمنحهم بعيدًا.

أظهرت وكالة التكنولوجيا الحكومية في سنغافورة (GovTech) ذلك في اتفاقية Black Hat USA Cybersecurity في عام 2021. في المؤتمر ، ذكرت في تجربة تم فيها إرسال رسائل البريد الإلكتروني التي تم إنشاؤها بواسطة Spear التي تم إنشاؤها بواسطة Openai's ChatGPT 3 وتلك المكتوبة باليد إلى المشاركين.

وجدت التجربة أن المشاركين كانوا أكثر عرضة للنقر على رسائل البريد الإلكتروني التي أنشأتها ChatGPT مقارنة بالرسائل التي تم إنشاؤها يدويًا.

انتحال شخصية تشبه الخيال العلمي

يحصل استخدام الذكاء الاصطناعى التوليدي على الانتحال إلى القليل من الخيال العلمي عند البدء في الحديث عن مقاطع الفيديو العميقة واستخدام العدوى الصوتية.

ومع ذلك ، يستخدم المتسللون أدوات الذكاء الاصطناعى لنسخ أدوات الشبه والأصوات (المعروفة باسم التصيد الصوتي أو الصيد) للأشخاص المعروفين للضحايا في مقاطع الفيديو والتسجيلات من أجل سحب مخادعاتهم.

حدثت إحدى الحالات البارزة في عام 2024 عندما تم دخن عامل مالي في دفع 25 مليون دولار للمتسللين الذين استخدموا تقنية الفيديو العميقة ليشكلوا كرئيس للموظفين الماليين للشركة والزملاء الآخرين.

هذه ليست تقنيات انتحال شخصية الذكاء الاصطناعي الوحيدة. في مقالتنا ، سيؤدي “منتحلو الذكاء الاصطناعي” إلى الخراب في عام 2025. وإليك ما يجب الانتباه إليه “، نغطي ثماني طرق يحاول المنتحلون من الذكاء الاصطناعي إجراء عملية احتيال لك ، لذا تأكد من التحقق من ذلك للحصول على غوص أعمق حول هذا الموضوع.

كُنا قد تحدثنا في خبر 5 طرق متستر يستخدم المتسللين من الذكاء الاصطناعى - غاية التعليمية بأستفاضة، ويمكنك تصفح جميع الأخبار المتعلقة بهذا الشأن عبر موقعنا غاية التعليمية الالكتروني.

أخبار متعلقة :