قناة عشتار الفضائية
 

الفاتيكان يحذر من مخاطر الأسلحة الذكية ويدعو إلى ذكاء اصطناعي متمحور حول الإنسان

 

عشتارتيفي كوم- أبونا/

 

كانت الحاجة إلى اتخاذ تدابير عاجلة لضمان أن يستمرّ التطوّر السريع للذكاء الاصطناعي في احترام كرامة الإنسان وتركيزه على الصالح العام، محور خطاب رئيس الأساقفة بول ريتشارد غالاغر أمام مجلس الأمن التابع للأمم المتحدة خلال مناقشة حول الذكاء الاصطناعي وانعكاساته على حفظ السلام والأمن الدوليين.

وفي مداخلته يوم الأربعاء، حذّر أمين سر دولة حاضرة الفاتيكان للعلاقات مع الدول والمنظمات الدوليّة من أنّ الذكاء الاصطناعي، رغم ما يحمله من إمكانيات لتعزيز التنمية المستدامة والسلام والأمن الدوليين وصون حقوق الإنسان، إلا أنّه يشكّل أيضًا مخاطر جسيمة إذ فُصل عن الاعتبارات الأخلاقية.

وقال رئيس الأساقفة: "إن الثورة الرقمية، ولا سيما في مجال الذكاء الاصطناعي، تُحدث أثرًا عميقًا في التعليم، والعمل والفن والرعاية الصحية والحوكمة والقطاع العسكري والاتصال"، مشيرًا إلى أنّ هذه الابتكارات يمكن أن تساهم في تحقيق العديد من التطلعات التي ألهمت تأسيس منظمة الأمم المتحدة قبل ثمانية عقود.

وفي المقابل، نبّه إلى أنّه "إذا لم يُرسَّخ تطوير واستخدام الذكاء الاصطناعي على أسس احترام الكرامة الإنسانية والسعي نحو الخير العام، فإنها تخاطر بأن تصبح أدوات للانقسام والعدوان، مع إمكانية تغذية المزيد من النزاعات"، مؤكدًا أنّ هذا الخطر "ليس قلقًا نظريًا أو بعيد المدى، بل واقع عاجل في ظل حالة عدم الاستقرار العالمي، ومع الاندماج السريع للذكاء الاصطناعي في أنظمة الأسلحة التقليدية والنووية".

 

دعوة إلى وقف للأسلحة الفتّاكة ذاتية التشغيل

ومن أبرز القضايا إلحاحًا التي أثارها غالاغر، أنظمة الأسلحة الفتّاكة ذاتية التشغيل (LAWS) ، التي وصفها بأنها "تُثير مخاوف قانونية وأمنية وإنسانية وأخلاقية جسيمة أمام المجتمع الدولي، لأنها تفتقر إلى القدرة البشرية الفريدة على إصدار الأحكام الأخلاقية واتخاذ القرارات المبنية على القيم".

ولهذا السبب، أكد رئيس الأساقفة أنّ "الكرسي الرسولي يدعم بقوة اعتماد وقف فوري لتطوير أو استخدام أنظمة الأسلحة الفتّاكة ذاتية التشغيل، وكذلك تبني صك ملزم قانونًا يضمن بقاء القرارات المتعلقة بالحياة والموت تحت سيطرة بشرية حقيقية".

 

سباق تسلّح محرّك بالذكاء الاصطناعي

كما أشار إلى المخاطر المرتبطة بسباق تسلّح جديد يتّسم بإدماج الذكاء الاصطناعي في الأنظمة العسكرية، بما في ذلك الأصول الفضائية وأنظمة الدفاع الصاروخي، محذّرًا من أنّ "هذه التطورات قد تغيّر طبيعة الأسلحة والحروب، مما يخلق مستوى غير مسبوق من انعدام اليقين بسبب احتمال سوء التقدير".

وحذّر غالاغر من أن ما يثير القلق بشكل خاص هو إدخال الذكاء الاصطناعي في أنظمة القيادة والسيطرة النووية، موضحًا إن هذا "يُدخل مخاطر جديدة مجهولة، تتجاوز إلى ما هو أبعد بكثير من المنطق الهش والمثير للقلق أخلاقيًا للردع النووي القائم أصلًا".

 

نحو نهج متمحور حول الإنسان

وهكذا، حثّ ممثّل الكرسي الرسولي مجلس الأمن على تحمّل مسؤولياته في رصد التقدّم العلمي والتكنولوجي عن كثب، وضمان أن تراعي مناقشات السلام والأمن الفرص والمخاطر على حدّ سواء. وقال غالاغر: "لمعالجة هذه القضايا الملحّة، يدعو الكرسي الرسولي إلى اعتماد نهج متمحور حول الإنسان في تطوير واستخدام التكنولوجيات الناشئة". 

وشدّد على "أن هذا المجلس، الموكَل إليه المسؤولية الأساسية في الحفاظ على السلام والأمن الدوليين، عليه أن يولي اهتمامًا وثيقًا للتقدم العلمي والتكنولوجي أثناء مناقشته لهذه المسألة. وعليه أيضًا أن يُقرّ بأن بعض التطبيقات، مثل التكنولوجيا التي تستبدل الحكم البشري في مسائل الحياة والموت، تتجاوز حدودًا مصونة لا يجوز بأي حال من الأحوال خرقها".