“تخيل طائرة مسيّرة صغيرة تُحدق في وجهك، وتقرر في جزء من الثانية إن كنت تستحق الحياة أم لا! هذا ليس مشهدًا من فيلم تيرميناتور، بل واقعٌ بدأت تجارب عسكرية كبرى تستخدمه اليوم. الأسلحة الذاتية التشغيل – أو ما يُسمى الروبوتات القاتلة – تنتشر بسرعة مخيفة، مما دفع الأمم المتحدة إلى التحذير من أنها قد تُنهي سيطرتنا على الحروب. فهل نحن على أعتاب حربٍ لا مكان فيها للرحمة البشرية؟ اكتشف كيف يُعيد هذا السِباق التكنولوجي تعريف الرعب العسكري، ولماذا يجب أن تهتم حتى لو كنت بعيدًا عن ساحات القتال.”
1. الروبوتات القاتلة: من الخيال العلمي إلى ساحات الحرب الحقيقية!
في عام 2020، كشفت تقارير الأمم المتحدة عن استخدام طائرات مسيرة تركية من نوع Kargu-2 في ليبيا لمهاجمة أهداف بشرية بدون تدخل بشري. هذه الأنظمة – المُزودة بكاميرات حرارية ومتفجرات – تستطيع تحديد الأهداف باستخدام الذكاء الاصطناعي، وتنفيذ الهجمات في غضون ثوانٍ. ليست هذه سوى البداية؛ فالدول الكبرى تستثمر مليارات الدولارات في تطوير أسلحة أكثر تطورًا. الصين تعمل على أسطول من الغواصات الذكية القادرة على شن هجمات مستقلة، بينما تختبر الولايات المتحدة روبوتات قتالية مثل Valkyrie التي يمكنها العمل في مناطق الكوارث – أو ساحات الحرب!
لكن الأخطر هو سهولة انتشار هذه التكنولوجيا. ففي الأسواق السوداء، تُباع مكونات الأسلحة الذاتية بمبالغ زهيدة، مما يسمح للجماعات الإرهابية أو الدول المارقة بامتلاكها. تقرير حديث من معهد ستوكهولم لأبحاث السلام (SIPRI) يحذر من أن 50 دولة على الأقل تطور حاليًّا أنظمة أسلحة ذاتية، بعضها قادر على إبادة مدن كاملة دون أي ضمير!
2. الخط الأحمر الأخلاقي: هل نسمح للآلات باتخاذ قرار القتل؟
في 2018، أطلقت حملة Stop Killer Robots العالمية تحذيرًا صارخًا: “الآلات لا تميز بين جندي وطفل!”. المشكلة ليست تقنية فحسب، بل أخلاقية أيضًا. فكيف تُبرمج آلة على تطبيق قوانين الحرب الدولية مثل مبدأ التناسب (تجنب الأضرار الجانبية)؟ في اختبارات محاكاة أجرتها جامعة ستانفورد، فشلت أنظمة الذكاء الاصطناعي في التمييز بين مدنيين ومقاتلين بنسبة 34% عند وجود إضاءة ضعيفة أو أزياء مشابهة.
القضية تمس جوهر الإنسانية: فالحرب تتطلب مسؤوليةً، والمسؤولية تحتاج إلى وعي. مَن سيقف أمام محكمة جرائم حرب إذا قرر روبوت قتل مدنيين؟ حتى الآن، لا توجد إجابات قانونية واضحة، مما يخلق فراغًا قد يُستخدم كذريعة للإفلات من العقاب.
3. الكارثة القادمة: كيف قد تُشعل الأسلحة الذاتية حربًا عالمية ثالثة؟
تخيل أن تتصادم غواصة ذاتية أمريكية مع غواصة صينية في بحر الصين الجنوبي. بسبب خطأ في الخوارزمية، تبدأ كل منهما بهجوم مضاد دون انتظار أوامر بشرية. خلال دقائق، تتحول المواجهة إلى حرب كاملة! هذا السيناريو – الذي يحذّر منه خبراء في معهد ماساتشوستس للتكنولوجيا (MIT) – ليس خيالًا، خاصة مع تسارع سباق التسلح بين القوى العظمى. ففي عام 2022، زادت ميزانيات تطوير الأسلحة الذاتية بنسبة 62% مقارنةً بالسنوات الخمس الماضية.
التهديد الأكبر يكمن في حلقة القرار السريع: حيث تُتخذ القرارات العسكرية بسرعة تفوق قدرة البشر على التفكير. لو اندلعت أزمة دبلوماسية، قد تدفع الأسلحة الذاتية الطرفين إلى تصعيد لا رجعة فيه، تمامًا كما كادت أخطاء أنظمة الإنذار المبكر أن تُشعل حربًا نووية خلال الحرب الباردة.
4. السباق ضد الزمن: هل يمكن للبشرية وقف هذا التهديد قبل فوات الأوان؟
بدأت بعض المحاولات الدولية للحد من هذه الكارثة المحتملة. في 2023، تبنت الأمم المتحدة قرارًا غير ملزم يدعو إلى حظر الأسلحة الذاتية “المميتة تمامًا”، لكن الدول الكبرى مثل الولايات المتحدة وروسيا اعترضت عليه. في المقابل، تعمل منظمات مثل Future of Life Institute على تطوير أنظمة قفل أمان توقف عمل الأسلحة تلقائيًا إذا تجاوزت أوامرها البرمجة الأصلية.
الحل قد يأتي أيضًا من التكنولوجيا نفسها. فشركات مثل Boston Dynamics – التي طورت روبوتات عسكرية – تعهدت بعدم تسليح منتجاتها، بينما يعمل باحثون على خوارزميات تلتزم بـقواعد الاشتباك الدولية. لكن بدون ضغوط شعبية وحملات توعية، قد نصل إلى نقطة اللاعودة حيث يصبح وقف السباق مستحيلًا.


