توصلت الأبحاث إلى أن تقنية Deepfakes بالكاد أثرت على انتخابات عام 2024 لأنها ليست جيدة جدًا - غاية التعليمية

0 تعليق ارسل طباعة

توصلت الأبحاث إلى أن تقنية Deepfakes بالكاد أثرت على انتخابات عام 2024 لأنها ليست جيدة جدًا - غاية التعليمية

غاية التعليمية يكتُب.. يبدو أنه على الرغم من أن الإنترنت يغرق بشكل متزايد في الصور المزيفة، إلا أنه يمكننا على الأقل تقييم قدرة البشرية على شم رائحة BS عندما يكون ذلك مهمًا. يشير عدد كبير من الأبحاث الحديثة إلى أن المعلومات الخاطئة التي ينتجها الذكاء الاصطناعي لم يكن لها أي تأثير مادي على انتخابات هذا العام في جميع أنحاء العالم لأنها ليست جيدة جدًا بعد.

اخر الاخبار العاجلة عبر غاية التعليمية أخبار محلية ودولية، وكذلك أخبار الر ياضة وخاصة كرة القدم يلا كورة و يلا شوت اليوم.

لقد كان هناك الكثير من القلق على مر السنين من أن المحتوى الواقعي بشكل متزايد ولكن الاصطناعي يمكن أن يتلاعب بالجماهير بطرق ضارة. وأثار ظهور الذكاء الاصطناعي التوليدي هذه المخاوف مرة أخرى، حيث تسهل التكنولوجيا على أي شخص إنتاج وسائط مرئية وصوتية مزيفة تبدو وكأنها حقيقية. في شهر أغسطس الماضي، استخدم مستشار سياسي الذكاء الاصطناعي لمحاكاة صوت الرئيس بايدن لإجراء مكالمة آلية تخبر الناخبين في نيو هامبشاير بالبقاء في منازلهم خلال الانتخابات التمهيدية للحزب الديمقراطي في الولاية.

تتيح أدوات مثل ElevenLabs إرسال مقطع صوتي مختصر لشخص يتحدث ثم تكرار صوته ليقول ما يريده المستخدم. على الرغم من أن العديد من أدوات الذكاء الاصطناعي التجارية تشتمل على حواجز حماية لمنع هذا الاستخدام، إلا أن النماذج مفتوحة المصدر متاحة.

وعلى الرغم من هذه التطورات، فإن فاينانشيال تايمز في قصة جديدة، نظرت إلى العام الماضي ووجدت أنه في جميع أنحاء العالم، لم ينتشر سوى القليل جدًا من المحتوى السياسي الاصطناعي.

واستشهدت بتقرير صادر عن معهد آلان تورينج وجد أن 27 قطعة فقط من المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي انتشرت بسرعة كبيرة خلال الانتخابات الأوروبية في الصيف. وخلص التقرير إلى أنه لا يوجد دليل على أن الانتخابات تأثرت بمعلومات مضللة تعتمد على الذكاء الاصطناعي لأن “معظم التعرض تركز بين أقلية من المستخدمين الذين لديهم معتقدات سياسية تتماشى بالفعل مع الروايات الأيديولوجية المضمنة في هذا المحتوى”. بمعنى آخر، من بين القلائل الذين رأوا المحتوى (قبل أن يتم الإبلاغ عنه على الأرجح) وكانوا على استعداد لتصديقه، عزز هذا المعتقدات حول المرشح حتى لو كان أولئك الذين تعرضوا له يعرفون أن المحتوى نفسه تم إنشاؤه بواسطة الذكاء الاصطناعي. واستشهد التقرير بمثال للصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتي تظهر كامالا هاريس وهي تخاطب حشدًا يقف أمام الأعلام السوفيتية.

وفي الولايات المتحدة، حدد مشروع محو الأمية الإخبارية أكثر من ألف مثال للمعلومات الخاطئة حول الانتخابات الرئاسية، ولكن 6٪ فقط منها تم إنشاؤها باستخدام الذكاء الاصطناعي. في X، عادةً ما يتم ذكر “التزييف العميق” أو “المنشأ بواسطة الذكاء الاصطناعي” في ملاحظات المجتمع فقط مع إصدار نماذج جديدة لتوليد الصور، وليس في وقت قريب من الانتخابات.

ومن المثير للاهتمام أنه يبدو أن المستخدمين على وسائل التواصل الاجتماعي كانوا أكثر عرضة للخطأ في التعرف على هويتهم حقيقي الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي وليس العكس، ولكن بشكل عام، أظهر المستخدمون جرعة صحية من الشك. ولا يزال من الممكن فضح الوسائط المزيفة من خلال قنوات الاتصال الرسمية، أو من خلال وسائل أخرى مثل البحث العكسي عن الصور على Google.

من الصعب أن نحدد على وجه اليقين عدد الأشخاص الذين تأثروا بالتزييف العميق، لكن النتائج التي تشير إلى عدم فعاليتها ستكون منطقية إلى حد كبير. صور الذكاء الاصطناعي منتشرة في كل مكان هذه الأيام، لكن الصور التي يتم إنشاؤها باستخدام الذكاء الاصطناعي لا تزال ذات جودة منفرة، وتظهر علامات واضحة على أنها مزيفة. قد تكون الذراع طويلة بشكل غير عادي، أو لا ينعكس الوجه على سطح المرآة بشكل صحيح؛ هناك العديد من الإشارات الصغيرة التي من شأنها أن تكشف أن الصورة اصطناعية. يمكن استخدام Photoshop لإنشاء عمليات تزوير أكثر إقناعًا، لكن القيام بذلك يتطلب مهارة.

ولا ينبغي بالضرورة أن يهتف أنصار الذكاء الاصطناعي بهذه الأخبار. وهذا يعني أن الصور التي تم إنشاؤها لا يزال أمامها طريق لتقطعه. أي شخص قام بتفحص نموذج Sora الخاص بـ OpenAI يعرف أن الفيديو الذي ينتجه ليس جيدًا جدًا – فهو يبدو تقريبًا مثل شيء تم إنشاؤه بواسطة محرك رسوميات لألعاب الفيديو (تشير التكهنات إلى أنه تم تدريبه على ألعاب الفيديو)، ومن الواضح أنه لا يفهم الخصائص. مثل الفيزياء.

بعد كل ما قيل، لا تزال هناك مخاوف يجب أن تكون. تقرير معهد آلان تورينج فعل بعد كل شيء، نستنتج أنه يمكن تعزيز المعتقدات من خلال التزييف العميق الواقعي الذي يحتوي على معلومات مضللة حتى لو كان الجمهور يعرف أن وسائل الإعلام ليست حقيقية؛ والارتباك حول ما إذا كان جزء من الوسائط حقيقيًا يضر بالثقة في المصادر عبر الإنترنت؛ وقد تم بالفعل استخدام صور الذكاء الاصطناعي لاستهداف السياسيات من خلال التزييف العميق للإباحية، وهو ما يمكن أن يلحق الضرر النفسي بسمعتهن المهنية لأنه يعزز المعتقدات الجنسية.

من المؤكد أن التكنولوجيا ستستمر في التحسن، لذا فهو شيء يجب مراقبته.

كُنا قد تحدثنا في خبر توصلت الأبحاث إلى أن تقنية Deepfakes بالكاد أثرت على انتخابات عام 2024 لأنها ليست جيدة جدًا - غاية التعليمية بأستفاضة، ويمكنك تصفح جميع الأخبار المتعلقة بهذا الشأن عبر موقعنا غاية التعليمية الالكتروني.

جميلة الهادي
إخترنا لك

أخبار ذات صلة

0 تعليق