دور الذكاء الإصطناعي في تطوّر الصناعات العسكريّة وانعكاساته على الأمن العالمي وحقوق الإنسان

كاتيا يوسف عواضة
( أﺳﺘﺎذ ﻣﺤﺎﺿﺮ ﻛﻠﻴﺔ اﻟﺤﻘﻮق و اﻟﻌﻠﻮم اﻟﺴﻴﺎﺳﻴﺔ - اﻟﺠﺎﻣﻌﺔ اﻹﺳﻼﻣﻴﺔ - ﻟﺒﻨﺎن )

يشهد العالم تطوّراتٍ متسارعة على صعيد تقنيّات الذكاء الإصطناعي على مختلف الأصعدة، ممّا أحدث تغيّراتٍ جذريّة في شتّى المجالات العلميّة والطبيّة والإقتصاديّة والتقنيّة، جعلت منه حاجةً إستراتيجيّةً ملحّةً لكلّ دولة، وذلك من أجل تعزيز قدراتها في عصر العولمة.

ورغم هذا التطوّر الهائل، إلّا أنّ الذكاء الإصطناعي يُمثّل سلاحًا ذا حدّين، إذ تُطرح العديد من الإشكاليّات، ولا سيّما حول كيفيّة ضبط إستخدامات تقنيّات الذكاء الإصطناعي والحدّ من مخاطرها في مختلف المجالات، وبشكلٍ خاص في المجالات التي تنطوي على تهديدٍ مباشرٍ لحقوق الإنسان والسلم والأمن الدوليين.

لقد شكّل دخول استخدام تقنيّات الذكاء الإصطناعي في المجال العسكري تحوّلًا تكنولوجيًّا خطيرًا، حيث دخلت أغلبيّة الدول المتقدّمة على الساحة الدوليّة في سباقٍ غير معهود نحو تطوير أسلحةٍ ذكيّةٍ ذات قدراتٍ ذاتيّة ترصد، وتُحلّل، وتتّخذ القرارات. وهذا ما أصبح مُتعارفًا عليه اليوم باسم “أسلحة الذكاء الإصطناعي” أو ما يُسمّى “الأسلحة ذاتيّة التشغيل”، والتي تكمن خطورتها في أنّها تعمل بذاتها دون حاجةٍ إلى تدخّلٍ بشري، ممّا يُثير تساؤلاتٍ جوهريّة حول مدى توافق إستخدامها مع قواعد القانون الدولي الإنساني، ومع السلوكيّات المفروضة أثناء النزاعات المسلّحة.

ومهما تنوّعت الوسائل المستخدمة في الحروب، إلّا أنّ طبيعتها تبقى على حالها، ويكمن الإختلاف في إعادة تشكيل موازين القوى على الساحة الدوليّة ودخول العالم في سباق تسلّحٍ فائق الخطورة، إذ لا يمكن التنبّؤ بسلوكيّات الأسلحة ذاتيّة التشغيل أو السيطرة عليها، نتيجة قراراتٍ قتاليّةٍ خاطئة قد تؤدّي إلى خسائر بشريّة وانتهاكاتٍ جسيمةٍ لحقوق الإنسان، وفي مقدّمها الحقّ في الحياة.

مشاركة المقال