نظام «XM25»، وهو قاذفة قنابل يدوية ذات ذخيرة قابلة للبرمجة ( مصدر الصورة : cdte/flickr / CC BY 2.0 )
صرخات تَسري في الهواء، سماء غارقة في ليلها الأدهم، وأرواح مُعلقة بين الحياة والموت، واختفاء البعض تمامًا، كأن لم يكونوا. يمشي من عُذب، ببقائه على قيد الحياة منهم، بتساقط جلده عن جسده كأنَّه يتقلب في لظى جهنم.
نال هيروشيما ما نالها جَراء القنبلة النووية التي دُمرت المدينة على إثرها. وبعد البتِّ في تبعات هذا السلاح المُدمِّر، تم تجريمه دوليًّا، وبقي الذعر يتملَّك القلوب عند النطق بكلمة سلاح نووي؛ لأن تأثيراته ظهرت على أرض الواقع بشكل مؤلم. الذعر عينه الذي يتملَّك القلوب، يتجلى عند التحدث عن منتجات الذكاء الاصطناعي، لا لأنها قد تجرد أحدهم من وظيفته فحسب، بل لما لهذا العلم من فروع عديدة قد يُساء استخدامها في الحروب، كما يشاهدها الناس في الأفلام.
وعليه يطالب البعض بالحظر التام لهذه الأسلحة، قبل أن يُبت في استخدامها حتى؛ تلافيًا لما حدث مع الأسلحة النووية، فلا نريد فاجعة هيروشيمية أخرى في عالمنا. لكن هل الحظر التام سيقي العالم من شرور تِلكم الأسلحة حقًّا؟ أم قد يزيد الوضع سوءًا؟ هل تمتلك البشرية التقانة الكافية لشنِّ حروب بأسلحة ذاتيَّة تقتل بلا رحمة؟
في مقال سابق تحدثنا عن الذاتيَّة، وعن رفض المسئولين العسكريين في الدول المصنعة للأسلحة الذكية لأن يكون القرار النهائي بيد الآلة، لكن هل سيظل القرار راسخًا أمام المنفعة العسكرية؟
الوقت حليف الآلة
تلا هزيمة غاري كاسباروف من قبل حاسوب Deep Blue الخاص بشركة IBM في الشطرنج، تأسيسه لفرع في الشطرنج المتقدِّم يسمى «Centaur Chess»؛ حيث يقوم كل لاعب بشري بتحديد الخطوات المحتملة للعب، عن طريق برنامج حاسوب،لكن التحريك والخطوات الفعلية ترجع للبشر. بدمج الذكاء الاصطناعي مع قدرات البشر، فإن نتائج هذه المباريات أفضل من أن تستخدم قدرات البشر أو الآلة كل على حدة.
نموذج القنطور أو السينتور، الذي يجمع البشر والآلة كفريق عمل، يبدو ممتازًا في الشطرنج، والشطرنج بالفعل مثال متشابه جزئيًّا، لكنه يتعطل أمام عاملين مهمين، إذا ما تم تطبيقه على الأسلحة الذكية؛ السرعة والتواصل. هذا النموذج جيد لاتخاذ القرارات في الشطرنج، لكنه ليس الأمثل عندما يأتي الأمر للألعاب الموقتة؛ حيث إن لاعب الشطرنج لديه 30-60 ثانية لاتخاذ القرار، لكن عندما يتم ضغط هذا الوقت، ويطلب من الإنسان اتخاذ قرار في وقت أقل من هذا، سيصبح بلا قيمة وستكون الآلة أكثر نفعًا منه.
وبالفعل أظهرت الآلة كفاءة أعلى وأداء أفضل في بعض المجالات العسكرية، نحتاج الآلة للتصدي لهجمات التشبع -تكتيك حربي- من القذائف والصواريخ عندما تكون سرعة الاشتباكات أعلى من أن يواكبها المشرفون البشريون. وبتطور هذه الصواريخ والقذائف، خصوصًا إذا تم إرسال مجموعة متتالية من الصواريخ دفعة واحدة، سيقل إشراف البشر عليها.
هل تتذكر الذاتية التي أتيت على ذكرها آنفًا؟ ستكون ضيفتنا لعدة فقرات قادمة، لذا فاستعد لاستقبال الضيف.
المعضلة الأخلاقية: الذاتية
لكل من تمتع الآلة بتحكم كامل full autonomy أو خضوعها لإشراف البشر supervised autonomy استخدامات وتحفظات، تحفظات أخلاقية على وجه التحديد. التحكم الذاتي الكامل للآلة سيتيح استخدامها في الأماكن التي يصعب التواصل فيها، مثل المناطق التي يقبع فيها العدو، وكذلك هذه الآلات تتجلى فائدتها في الفضاء وتحت الماء، لكن هل يجب أن تكون المركبات غير المأهولة قادرة على الدفاع عن نفسها إذا تعرضت للهجوم؟
من المرجح أن تقوم الجيوش المستقبلية بنشر المركبات الآلية وسوف ترغب في الدفاع عنها، خاصة إذا كانت مُكلفة. وإن لم تكن هناك اتصالات مع إنسان، فإن أي دفاعات يجب أن تكون ذاتية بالكامل. إن السماح بدفاع ذاتي عن النفس يؤدي إلى بعض المخاطر. على سبيل المثال، يمكن لشخص ما إطلاق النار على الروبوت لجعله يرد على النار ثم يختبئ خلف الدروع البشرية لتعمد إحداث حادث، حيث يقتل الإنسان الآلي الأهداف المدنية.
حتى قواعد الاشتباك (ROE) التي تعتبر مهمتها الأساسية دفاعية، يمكن أن تؤدي إلى تضارب بين الأنظمة المتعارضة التي تؤدي إلى تبادل إطلاق النار.
تفويض سلطة الدفاع عن النفس، كَحَل، سيكون محفوفًا بالمخاطر. ومع ذلك، يصعب تصوُّر أن تكون الجيوش راغبة في وضع أنظمة باهظة الثمن غير مأهولة وتتركها بلا حماية. وقد تكون المخاطر مقبولة شريطة أن تكون الإجراءات الدفاعية محدودة ومتناسبة مع الخطر.
سيكون هناك بلا شك آليات لا يقتصر على الدفاع فحسب، بل ستلجأ للهجوم حين تكون السرعة هي الأولوية. في هذه الحالات، ستكون السرعة ذات قيمة في تنفيذ الهجمات، وليس بالضرورة في اتخاذ قرار شنها، وتُعد هذه من أفضل أوقات تدخل الإشراف البشري على الآلة. على سبيل المثال، ستفوض سلطة وسيطرة بدء الهجوم والقصف للبشر، خاصةً، إذا كان العدو يستخدم نفس التقنية، بينما تكمل الآلة باقي المهمة.
لكن بعض الأهداف سيكون من الصعب على البشر اختيارها بشكل فردي، على وجه الخصوص إذا تحول إلى قتال مع مئات أو آلاف من الروبوتات. جيش ضد جيش.
لكن هناك أنظمة الأسلحة الحديثة – سلاح Fuzed Wiredon وصواريخ Brimstone، على سبيل المثال – حيث يختار البشر مجموعة محددة من أهداف العدو، والأسلحة تقوم بتقسيم نفسها بنفسها في مجموعات، لمطاردة هذه الأهداف.
التواصل
من المؤكد أن الإشراف على السلاح بدون تواصل أمر يُعد مستحيلًا، لذا تظهر الأسلحة المُشرْف عليها من البشر تقهقرًا أمام الأسلحة تامة الذاتية، خصوصًا في الأماكن المعزولة كالفضاء، لكنها تمنح الإحساس بالمراقبة والتحكم البشري كما قلنا، خصوصًا أن إنتاج الأسلحة الخاضعة للإشراف البشري سيتطلب نوعًا من التواصل المُحكم، وهو ما يُعد أصعب من بناء سلاح يطارد الأهداف ذاتيًّا.
ويبدو أن الأساس المنطقي الرئيسي لبناء أسلحة تامة الذاتية هو افتراض أن الآخرين قد يفعلون ذلك. حتى أشد مؤيدي الروبوتات العسكرية كانوا مترددين بشأن الأسلحة الذاتية بالكامل، ما لم يقم آخرون ببنائها. والآن قد أعلنت الصين أنها ستكون من الرواد في مجال الذكاء الاصطناعي بحلول 2030، وهذا يسهل انتقال التقنية من الشركات المُصنعة إلى الجيش مباشرة، وقد بدأت بالفعل بإرساء قواعد لذلك.
وبعد إعلان الصين، هل تكون تلك إشارة البدء للجيش الأمريكي بالتخلي عن حذره ويستخدم الأسلحة الذكية، أم يلجأ للحظر الشامل؟
الحظر التام أم تحجيم الاستخدام
في الثامن عشر من يوليو 2018، وقع 2,400 باحث على ميثاق بعدم تطوير، أو دعم، أو التجارة في أي أسلحة ذكية فتاكة، في محاولة لتلجيم عجلة التطور السريع لهذه الأسلحة المدمرة. لكن هل توقيع التعهد كافٍ لمنع شرور الأسلحة الذاتية؟
لم ينجح حظر توسيع استخدام الأسلحة في الحرب في مناطق جغرافية جديدة، بسبب وجود فائدة عسكرية، وطالما يوجد منفعة عسكرية حتى لو كانت منخفضة، فإن حظر سلاح ما دائمًا ما يفشل. وعلى الرغم من صعوبة الحد من الأسلحة إلا أنه توج ببعض النجاحات، مثل حظر الأسلحة بشكل عام على القمر أو في أنتاركتيكا حتى الآن. لذا فالمنفعة العسكرية عامل حاسم لاستخدام الأسلحة، فلا تريد الدول التخلِّي عن سلاح، من المحتمل أن يكون السبب في فوزها بالحرب. ناهيك عن عن عدم امتثال كل الدول للحظر، فليست كل الدول تهتم حقًا بأمر المدنيين وحقوق الإنسان، وحتى الدول التي وقعت الحظر وأقرت بأهميته، ستقوم بسحب الزناد بلا تروٍ وقت المعركة.
ولنفترض أننا قمنا بحظر الأسلحة تامة الذاتية واستخدمنا التي تخضع للإشراف البشري، وقام الروبوت بإصابة هدف معين، كيف سنعلم أن الأمر صَدَر عن بشري أم كانت الآلة هي من أصدرت القرار؟ الأمر يتطلب بعض الشفافية والوضوح. كما أن الروبوتات المسلحة التي لديها شخص مُشرف Human in the loop ستحتاج فقط إلى مفتاح تبديل أو ربما برنامج، لتصبح تامة الذاتية بمجرد أن تبدأ الحرب.
كل هذه العوامل: الوضوح، والمنفعة العسكرية، وفظاعة السلاح، تشير إلى أنه من غير المحتمل أن ينجح حظر الأسلحة المستقلة بالكامل، فمن الصعب أن نرى كيف ستبقى هذه القواعد قابلة للتطبيق في زمن الحرب [1].
الأمر الآخر بالغ الأهمية هو أن الحظر التام سيمنع تكنولوجيا وليدة كهذه من التطور. والقلق الناجم عن أن تكون هذه التقنية هي السلاح النووي الجديد وعدم القدرة على التنبؤ بمدى فظاعة نتائج استخدامه، لن تظهر للقادة والناس إلا برؤية أدائه في ساحة القتال.
الآلة، الآلة، الآلة، ماذا عن الإنسان؟
حتى أكثر اللوائح أو المحظورات المدروسة لن تكون قادرة على التنبؤ بكل الطرق التي يمكن أن تتطور بها الأسلحة الذاتية مع مرور الوقت. النهج البديل سيكون التركيز على العنصر الذي لا يتغير في الحرب: الإنسان. النهج المتبع هنا قد يساعده القانون الدولي بالمساهمة في وضع بعض اللوائح فيه، حيث تُتَبنى وجهة نظر مفادها أن قوانين الحرب تنطبق على الناس وليس على الآلات. يُلزم الإنسان بموجب القانون الدولي بالبت في شرعية أي هجوم، ولا يمكنه تفويض هذا الالتزام لجهاز ما.
إن هذا التحجيم ووضع القيود – وهو الاختيار الواعي لوضع حد للأسلحة الخطيرة وغير الإنسانية – هو ما نحتاجه اليوم. لا يمكن لأي قطعة من الورق أن تمنع أيّ دولة من صُنع أسلحة ذاتية، إذا كانت ترغب في ذلك. ولذلك فيجب على الدول أن تتكاتف لتنمية فَهم استخدامات الأسلحة الذاتيّة المناسبة. والتَّفهُم ليس قاصرًا على الأكاديميين والمحامين والعسكريين فقط، بل يشمل المواطنين العاديين أيضًا؛ لأن الروبوتات العسكرية الذاتية في نهاية المطاف ستقاتل في عالمنا.
هل غيَّرت التكنولوجيا وجه العالم؟ بكل تأكيد، لكن القرار لنا بأن نجعله عالمًا أكثر أمانًا عبر التكنولوجيا، أو نجعله مرتعًا للحُكم الآلي الخالي من العواطف، وربما إبادة البشر.