الذكاء الاصطناعي: الابتكار الخارق يتطلب ضوابط آمنة - غاية التعليمية
غاية التعليمية يكتُب.. يتطور مشهد الذكاء الاصطناعي بسرعة، حيث يشير مشروع «ستارغيت Stargate» الأمريكي الذي تبلغ تكلفته 500 مليار دولار إلى استثمار هائل في البنية التحتية، بينما تظهر «ديب سيك» الصينية منافساً هائلاً، كما كتب فيصل حقّ(*).
اخر الاخبار العاجلة عبر غاية التعليمية أخبار محلية ودولية، وكذلك أخبار الر ياضة وخاصة كرة القدم يلا كورة و يلا شوت اليوم.
مخاوف أميركية من الصين
وتثير نماذج الذكاء الاصطناعي المتقدمة من «ديب سيك»، التي تنافس القدرات الغربية بتكاليف أقل، مخاوف كبيرة بشأن التهديدات المحتملة للأمن السيبراني واستخراج البيانات وجمع المعلومات الاستخباراتية على نطاق عالمي. ويسلط هذا التطور الضوء على الحاجة الملحة إلى تنظيم قوي للذكاء الاصطناعي وتدابير أمنية في الولايات المتحدة.
الفجوة بين التقدم التكنولوجي والحوكمة
ومع تكثيف سباق الذكاء الاصطناعي، تتسع الفجوة بين التقدم التكنولوجي والحوكمة. تواجه الولايات المتحدة التحدي الحاسم المتمثل ليس فقط في تسريع قدرات الذكاء الاصطناعي من خلال مشاريع مثل «ستارغيت»، ولكن أيضاً في تطوير أطر تنظيمية شاملة لحماية أصولها الرقمية ومصالح الأمن القومي.
ومع قدرة «ديب سيك» على التغلب على ضوابط التصدير وإجراء عمليات سيبرانية متطورة، يجب على الولايات المتحدة أن تتحرك بسرعة لضمان بقاء ابتكاراتها في مجال الذكاء الاصطناعي آمنة وقادرة على المنافسة في هذا المشهد التكنولوجي المتغير بسرعة.
موجة من مخاطر التزييف والعنف
لقد شهدنا بالفعل الموجة الأولى من المخاطر التي تعمل بالذكاء الاصطناعي. اذ ساعدت عمليات التزييف العميق وحسابات الروبوتات والتلاعب الخوارزمي على وسائل التواصل الاجتماعي في تقويض التماسك الاجتماعي مع المساهمة في إنشاء غرف سياسية لها صدى. لكن هذه المخاطر هي لعبة أطفال مقارنةً بالمخاطر التي ستظهر في السنوات الخمس إلى العشر القادمة.
الذكاء الاصطناعي سيصنع أسلحة بيولوجية
خلال الوباء، رأينا السرعة غير المسبوقة التي يمكن بها تطوير لقاحات جديدة بمساعدة الذكاء الاصطناعي. وكما أشار مصطفى سليمان، مؤسس «ديب مايند» والرئيس التنفيذي لشركة «مايكروسوفت إيه آي»، (Microsoft AI)، الآن، فلن يمر وقت طويل قبل أن يتمكن الذكاء الاصطناعي من تصميم أسلحة بيولوجية جديدة بنفس السرعة. ولن تقتصر هذه القدرات على الجهات الفاعلة في الدولة.
إن تكنولوجيا الطائرات من دون طيار الحديثة جعلت من السهل الوصول إلى القدرات التي كانت ذات يوم حكراً على الجيش وحده. كما أن أي فرد لديه حتى معرفة أولية بالبرمجة سوف يكون قادراً قريباً على تسليح الذكاء الاصطناعي من غرفة نومه في المنزل.
وعندما تنهار الثقة في قدرة الحكومة على التعامل مع مثل هذه الأحداث غير المتوقعة، فإن النتيجة هي الخوف والارتباك والفكر التآمري.
مخاطر جيوسياسية
لقد شكَّلت سبع سنوات قضيتها في مساعدة وزارتَي الدفاع والأمن الداخلي في الابتكار والتحول (التنظيمي والرقمي) تفكيري حول المخاطر الجيوسياسية الحقيقية التي يجلبها الذكاء الاصطناعي والتقنيات الرقمية معها. ولكن هذه المخاطر لا تأتي من خارج بلادنا فقط. فقد شهد العقد الماضي تسامحاً متزايداً بين كثير من المواطنين الأميركيين لفكرة العنف السياسي، وهي الظاهرة التي برزت بشكل واضح في أعقاب إطلاق النار على الرئيس التنفيذي لشركة «يونايتد هيلث كير» براين تومسون.
البطالة الجماعية والاضطرابات المقبلة
ومع استبدال الأتمتة بأعداد متزايدة من الوظائف، فمن المحتمل تماماً أن تؤدي موجة من البطالة الجماعية إلى اضطرابات شديدة، مما يُضاعف من خطر استخدام الذكاء الاصطناعي سلاحاً للهجوم على المجتمع ككل. ستكون هذه المخاطر على عتبات أبوابنا قريباً.
ولكن الأكثر إثارة للقلق هو المجهول. إذ يتطور الذكاء الاصطناعي بسرعة البرق، وحتى أولئك المسؤولون عن هذا التطور ليس لديهم أي فكرة بالضبط عن المكان الذي سننتهي إليه.
الذكاء الاصطناعي قد يمحو البشرية
وقد صرح جيفري هينتون الحائز جائزة نوبل، الذي يسمَّى الأب الروحي للذكاء الاصطناعي، بأن هناك فرصة كبيرة لأن يمحو الذكاء الاصطناعي البشرية في غضون 30 عاماً فقط. ويفترض خبراء آخرون أن الأفق الزمني أضيق بكثير.
ضوابط قائمة على المخاطر
«يجب أن يكون التنظيم المنظم قائماً على المخاطر»، إذ لا يمكننا أن نتحمل التعامل مع تنظيم الذكاء الاصطناعي بنفس الطريقة العشوائية التي جرى تطبيقها على تكنولوجيا الطائرات من دون طيار. نحن بحاجة إلى نهج قابل للتكيف وبعيد المدى وموجه نحو المستقبل للتنظيم والذي تم تصميمه لحمايتنا من أي شيء قد ينشأ بينما ندفع حدود الذكاء الآلي.
خلال مقابلة أُجريت أخيراً مع السيناتور ريتشارد بلومنثال، ناقشت مسألة كيف يمكننا تنظيم تكنولوجيا لا نفهمها بالكامل بعد بشكل فعال؟ وبلومنثال هو المؤلف المشارك مع السيناتور جوش هاولي لقانون الإطار الحزبي لقانون الذكاء الاصطناعي الأمريكي، والمعروف أيضاً باسم «إطار بلومنثال-هاولي».
يقترح بلومنثال نهجاً خفيفاً نسبياً، مما يشير إلى أن الطريقة التي تنظم بها حكومة الولايات المتحدة صناعة الأدوية يمكن أن تكون بمثابة نموذج لنهجنا تجاه الذكاء الاصطناعي. ويزعم أن هذا النهج يوفر ترخيصاً صارماً وإشرافاً على التقنيات الناشئة الخطيرة المحتملة دون فرض قيود غير مبرَّرة على قدرة الشركات الأمريكية على البقاء في طليعة العالم في هذا المجال.
و يقول بلومنثال: «نحن لا نريد خنق الابتكار. ولهذا السبب يجب أن يكون التنظيم المنظم قائماً على المخاطر. إذا لم يشكل خطراً، فلن نحتاج إلى هيئة تنظيمية».
يقدم هذا النهج نقطة انطلاق قيمة للمناقشة، لكنني أعتقد أننا بحاجة إلى الذهاب إلى أبعد من ذلك. في حين أن النموذج الدوائي قد يكون كافياً لتنظيم تطوير الذكاء الاصطناعي للشركات، فإننا نحتاج أيضاً إلى إطار من شأنه أن يحد من المخاطر التي يفرضها الأفراد.
يتطلب تصنيع وتوزيع الأدوية بنية تحتية كبيرة، لكنَّ الرموز الكومبيوترية هي «وحش مختلف» تماماً، إذ يمكن تكرارها إلى ما لا نهاية ونقلها إلى أي مكان على الكوكب في جزء من الثانية.
وقف انفلات الذكاء الاصطناعي
إن احتمالية إنشاء الذكاء الاصطناعي «الإشكالي» (المسبب للمشكلات) و«تسربه إلى العالم» أعلى بكثير مما هي الحال بالنسبة للأدوية الجديدة والخطيرة.
ونظراً إلى إمكانية الذكاء الاصطناعي توليد نتائج على مستوى الانقراض (البشري)، فليس من المبالغة القول إن الأطر التنظيمية المحيطة بالأسلحة النووية والطاقة النووية أكثر ملاءمة لهذه التكنولوجيا من تلك التي تنطبق على صناعة الأدوية.
ومهما اخترنا من موازنة المخاطر والمكافآت في أبحاث الذكاء الاصطناعي، فنحن بحاجة إلى التحرك قريباً. إذ إن الافتقار إلى إطار شامل ومتماسك لإدارة التهديدات من التقنيات الجديدة يمكن أن يترك الوكالات الحكومية مشلولة.
ومع المخاطر التي تشمل أي شيء يصل إلى انقراض البشرية، لا يمكننا أن نتحمل هذا النوع من الجمود والارتباك. نحن بحاجة إلى إطار تنظيمي شامل يوازن بين الابتكار والسلامة، وهو الإطار الذي يعترف بالإمكانات التحويلية للذكاء الاصطناعي ومخاطره الوجودية.
بين الابتكار والسلامة
وهذا يعني:
• تعزيز الابتكار المسؤول، وتشجيع تطوير ونشر تقنيات الذكاء الاصطناعي في القطاعات الحيوية بطريقة آمنة وأخلاقية.
• وضع لوائح قوية. تتطلب الثقة العامة في أنظمة الذكاء الاصطناعي أطراً تنظيمية واضحة وقابلة للتنفيذ وأنظمة شفافة للمساءلة.
• تعزيز الأمن القومي. يجب على صناع السياسات الاستفادة من الذكاء الاصطناعي لتحديث القدرات العسكرية، ونشر حلول الذكاء الاصطناعي التي تتنبأ بالتهديدات السيبرانية وتكتشفها وتواجهها مع ضمان الاستخدام الأخلاقي للأنظمة المستقلة.
• الاستثمار في تنمية القوى العاملة. يجب علينا إنشاء برامج تدريبية شاملة تعمل على رفع مهارات العمال للصناعات التي تعتمد على الذكاء الاصطناعي مع تعزيز التعليم في العلوم والتكنولوجيا والهندسة والرياضيات لبناء الخبرة الأساسية في الذكاء الاصطناعي بين الطلاب والمهنيين.
• الريادة في معايير الذكاء الاصطناعي العالمية. يجب على الولايات المتحدة أن تقود الجهود الرامية إلى وضع معايير عالمية لاستخدام الذكاء الاصطناعي من خلال الشراكة مع الحلفاء لتحديد المعايير الأخلاقية وحماية الملكية الفكرية.
• معالجة المخاوف العامة. يتطلب تأمين الثقة العامة في الذكاء الاصطناعي زيادة الشفافية حول أهداف وتطبيقات مبادرات الذكاء الاصطناعي مع تطوير استراتيجيات للتخفيف من تشريد العاملين في الوظائف وضمان الفوائد الاقتصادية العادلة.
* مجلة «فاست كومباني»، خدمات «تريبيون ميديا».
كُنا قد تحدثنا في خبر الذكاء الاصطناعي: الابتكار الخارق يتطلب ضوابط آمنة - غاية التعليمية بأستفاضة، ويمكنك تصفح جميع الأخبار المتعلقة بهذا الشأن عبر موقعنا غاية التعليمية الالكتروني.
أخبار متعلقة :