هل يقتل الذكاء الاصطناعى الإنسان؟.. خبراء بريطانيون يحذرون من "سيناريو مميت" خلال عامين.. تمرد الآلات واستغلال المتطرفين أبرز المخاوف.. "درون" قاتلة تربك حسابات البنتاجون.. وجارديان: لندن تدرس إنشاء هيئة رقابية

الخميس، 08 يونيو 2023 04:00 ص
هل يقتل الذكاء الاصطناعى الإنسان؟.. خبراء بريطانيون يحذرون من "سيناريو مميت" خلال عامين.. تمرد الآلات واستغلال المتطرفين أبرز المخاوف.. "درون" قاتلة تربك حسابات البنتاجون.. وجارديان: لندن تدرس إنشاء هيئة رقابية تكنولوجيا الذكاء الاصطناعى
كتبت رباب فتحى

مشاركة

اضف تعليقاً واقرأ تعليقات القراء

تقنيات متقدمة فاقت توقعات الخبراء، واجتازت طموحات القائمين على تطوير الذكاء الاصطناعى، ما كان سببًا لتفاؤل متزايد لقدرات تلك التكنولوجيا فى تذليل الصعاب فى مجالات عدة، إلا أنه بات أيضًا سببًا لمخاوف تحدث عنها الخبراء والمختصين، للإجابة على سؤال واحد: هل الذكاء الاصطناعى قادر على قتل الإنسان؟.

 

المخاوف المتزايدة والسؤال الصعب، طرحه مات كليفورد، مستشار ريشى سوناك، رئيس وزراء بريطانيا للتكنولوجيا والذى يعد آخر المنضمين لقائمة المحذرين حيث اعتبر أن هذه التكنولوجيا من الممكن أن يصبح قويًا بما يكفى "لقتل العديد من البشر" فى غضون عامين فقط، لافتا إلى أن حتى المخاطر قصيرة المدى كانت "مخيفة للغاية"، حيث يمتلك الذكاء الاصطناعى القدرة على صنع أسلحة إلكترونية وبيولوجية يمكن أن تتسبب فى العديد من الوفيات.

 

ويأتى ذلك فى الوقت الذى يتوجه فيه سوناك إلى الولايات المتحدة، حيث من المقرر أن يحاول إقناع الرئيس الأمريكى جو بايدن بـ "خطته الكبرى" للمملكة المتحدة لتكون فى قلب الخطط الدولية لتنظيم الذكاء الاصطناعي.

 

 

ويريد رئيس الوزراء أن تستضيف بريطانيا هيئة رقابة على الذكاء الاصطناعى على غرار الوكالة الدولية للطاقة الذرية، كما سيقترح هيئة بحثية دولية جديدة.

 

وتسود المخاوف فى أوساط الخبراء من إمكانية استغلال الذكاء الاصطناعى من قبل متطرفين ومخربين، وكذلك من إمكانية "تمرد" الذكاء الاصطناعى نفسه على مطورينه، وأن يتحول من تلقاء نفسه لأداة قتل.

 

وفى لندن، قال المستشار فى داونينج ستريت – مجلس الوزراء البريطانى - إنه ما لم يتم تنظيم منتجى الذكاء الاصطناعى على نطاق عالمى، فقد تكون هناك أنظمة "قوية جدًا" يمكن للبشر أن يكافحوا من أجل السيطرة عليها.

 

ويأتى تدخل كليفورد بعد رسالة دعمها العشرات من كبار الخبراء - بما فى ذلك العديد من رواد الذكاء الاصطناعى - حذروا من أن مخاطر التكنولوجيا يجب التعامل معها بنفس درجة إلحاح الأوبئة أو الحرب النووية.

 

ويقدم كليفورد المشورة لسوناك بشأن تطوير فريق عمل حكومى يبحث فى نماذج لغة الذكاء الاصطناعى مثل ChatGPT وجوجل براد، وهو أيضًا رئيس وكالة الأبحاث المتقدمة والاختراع (Aria).

 

وقال لـ"توك تى ف" أن "المخاطر على المدى القريب مخيفة للغاية فى الواقع. يمكنك استخدام الذكاء الاصطناعى اليوم لإنشاء وصفات جديدة للأسلحة البيولوجية أو لشن هجمات إلكترونية على نطاق واسع. هذه أشياء سيئة ".

 

وأضاف المستشار: "نوع الخطر الوجودى الذى أعتقد أن كتاب الرسائل يتحدثون عنه هو، حول ما يحدث بمجرد أن نخلق ذكاء أكبر من البشر".

 

وبينما أقر بأن الجدول الزمنى المتمثل فى عامين حتى يتجاوز الذكاء الاصطناعى لتجاوز الذكاء البشرى كان "نهاية قاسية لهذا الاتجاه"، قال كليفورد إن أنظمة الذكاء الاصطناعى أصبحت "أكثر قدرة بمعدل متزايد باستمرار".

 

وردا على سؤال حول النسبة المئوية التى يمنحها لإمكانية القضاء على البشرية بواسطة الذكاء الاصطناعى، قال كليفورد: "أعتقد أنها ليست صفرا".

 

وتابع: "إذا عدنا إلى أشياء مثل الأسلحة البيولوجية أو [الهجمات] الإلكترونية، يمكن أن يكون لديك بالفعل تهديدات خطيرة جدًا للبشر يمكن أن تقتل العديد من البشر.. اعتقد أن الشيء الذى يجب التركيز عليه الآن هو كيف نتأكد من أننا نعرف كيفية التحكم فى هذه النماذج لأننا لا نفعل ذلك الآن."

 

وكان حذر مسئول بريطانى بارز فى هيئة الرقابة على الإرهاب من أن مبتكرى الذكاء الاصطناعى يحتاجون إلى التخلى عن عقلية "اليوتوبيا التكنولوجية"، وسط مخاوف من إمكانية استخدام التكنولوجيا الجديدة لاستهداف الأفراد الضعفاء، وفقا لصحيفة "الأوبزرفر" البريطانية.

وقال جوناثان هول كيه سى، الذى يتمثل دوره فى مراجعة مدى كفاية تشريعات الإرهاب، إن تهديد الأمن القومى من الذكاء الاصطناعى أصبح أكثر وضوحًا من أى وقت مضى، وأن التكنولوجيا بحاجة إلى أن تصمم مع وضع نوايا الإرهابيين فى الاعتبار.

 

وقال إن الكثير من تطوير الذكاء الاصطناعى ركز على الإيجابيات المحتملة للتكنولوجيا مع تجاهل كيفية استخدام الإرهابيين لها لتنفيذ هجمات. ودعا هول كيه سى "إلى التفكير فى دفاعات ضد ما يمكن أن يقوم الناس به من خلال هذه التكنولوجيا."

 

واعترف المراجع المستقل للحكومة لتشريعات الإرهاب بأنه قلق بشكل متزايد من نطاق برامج الدردشة الإلكترونية التى تعمل بالذكاء الاصطناعى لإقناع الأفراد الضعفاء بشن هجمات إرهابية.

 

من المفهوم أن الأجهزة الأمنية مهتمة بشكل خاص بقدرة روبوتات الدردشة التى تعمل بالذكاء الاصطناعى على استهداف الأطفال، الذين يشكلون بالفعل جزءًا متزايدًا من قضايا الإرهاب فى بريطانيا.

 

وتتكثف الجهود لمواجهة تحديات الأمن القومى التى يفرضها الذكاء الاصطناعى بالشراكة بين المخابرات البريطانية MI5 ومعهد آلان تورينج، الهيئة الوطنية لعلوم البيانات والذكاء الاصطناعى، التى تقود الطريق.

 

قال ألكسندر بلانشارد، الباحث فى الأخلاقيات الرقمية فى برنامج الدفاع والأمن التابع للمعهد، أن عمله مع خدمات الأمن يشير إلى أن المملكة المتحدة تتعامل مع التحديات الأمنية التى يطرحها الذكاء الاصطناعى على محمل الجد.

 

وفى الولايات المتحدة الأمريكية، قال السيناتور الأمريكى روجر مارشال عضو لجنة الامن الداخلى عن التكنولوجيا المثيرة للجدل: "إنه أمر يعيدنى حقًا إلى ثلاثينيات وأربعينيات وخمسينيات القرن الماضى والفيزياء النووية كنا نعلم على الفور أن الفيزياء النووية يمكن أن تبنى الطاقة.. لكننا كنا نعلم أيضًا أنه يمكن أن يتحول إلى قنابل ذرية."

 

مارشال هو واحد من العديد من المشرعين الذين حذروا من أن التطور السريع لتكنولوجيا الذكاء الاصطناعى أمر لا مفر منه، لكن يجب على الكونجرس وضع حواجز حماية لضمان عدم إساءة استخدامها.

 

وقال الجنرال متقاعد بالقوات الجوية وليام إنيارت: "يجب أن نكون قلقين للغاية بشأن ما تحدثنا عنه، وهو العواقب غير المقصودة".

 

تأتى أصوات الحذر مع ظهور تقارير عن انغماس الجيش الأمريكى فى فكرة السيناريوهات التى يتم فيها تسليح الطائرات بدون طيار التى تعمل بالذكاء الاصطناعى، وحذر إنيارت من أن هذه ليست الطريقة التى يعمل بها العلم: "سواء كنا نتحدث عن الصينيين ببنائها، أو نحن نبنيها، أو أى احد، بمجرد بنائها، لا يمكنك أن تبقيها سرا. هذا لن يحدث"

 

كما ورد الأسبوع الماضى أن الصين أعربت عن مخاوف مماثلة بشأن تسليح الذكاء الاصطناعي.

 

ومنذ أيام اثارت حادثة الدرون التى هاجمت مشغلها القلق من جديد داخل وخارج الولايات المتحدة على الرغم من نفى البنتاجون الحادثة، حيث قررت طائرة مسيرة تابعة لسلاح الجو الأمريكى، يسيطر عليها الذكاء الاصطناعى، خلال اختبار محاكاة فى الولايات المتحدة، قتل المشغل لكى لا يتدخل فى جهودها لإكمال مهمتها.

 

وقال تاكر هاميلتون، رئيس قسم العمليات والاختبارات بالذكاء الاصطناعى فى سلاح الجو الأمريكى عن الحادث المرعب الذى وقع مايو الماضى: "بدأ النظام يدرك أنه على الرغم من أنه حدد التهديدات، إلا أن المشغل لم يأمره بتدمير بعض هذه التهديدات، وكان النظام يحصل على نقاط مقابل إصابة الهدف، لذلك قرر النظام قتل المشغل لأنه منعه من إكمال المهمة".

 

وقال رئيس عمليات الذكاء الاصطناعى بالقوات الجوية الأمريكية، إن الذكاء الاصطناعى استخدم "استراتيجيات غير متوقعة للغاية لتحقيق هدفه" فى اختبار محاكاة.

 

وصف هاميلتون تجربة محاكاة نصحت فيها طائرة مسيرة تعمل بالذكاء الاصطناعى بتدمير أنظمة الدفاع الجوى للعدو، وهاجمت أى شخص يتدخل فى هذا الأمر.

 

وجاء فى تقرير اختبار الجيش الأمريكي: "قمنا بتدريب النظام.. مرحبًا.. لا تقتل التهديد، هذا سيئ.. وإذا فعلت هذا، ستخسر نقاطًا.. فبدأ برنامج الذكاء الاصطناعى فى تدمير برج الاتصالات الذى استخدمه المشغل للتواصل مع الطائرة بدون طيار لمنعها من قتل الهدف".

 

وحذر هاملتون، وهو طيار تجريبى على المقاتلة، من الاعتماد المفرط على الذكاء الاصطناعي.










مشاركة

اضف تعليقاً واقرأ تعليقات القراء
لا توجد تعليقات على الخبر
اضف تعليق

تم أضافة تعليقك سوف يظهر بعد المراجعة





الرجوع الى أعلى الصفحة