"فورين أفيرز": أسلحة الذكاء الاصطناعي والوهم الخطير للتحكم البشري
خلال العقود المقبلة، ستعتمد الولايات المتحدة بشكل مطرد على أنظمة الأسلحة المستقلة المدعومة بالذكاء الاصطناعي في الحرب.
مجلة "فورين أفيرز" الأميركية تنشر تقريراً كتبه سيباستيان إلباوم وجوناثان بانتر، تناولا فيه خطورة استقلالية الأنظمة العسكرية المدعومة بالذكاء الاصطناعي، والحاجة إلى ربطها دائماً بالتحكم البشري.
أدناه نص التقرير منقولاً إلى العربية بتصرف:
"سأعود"، هذا ما وعد به أرنولد شوارزنيجر في فيلم الخيال العلمي الشهير "The Terminator" عام 1984. ولم يكن يمزح! وخلال مقابلة له أجريت عام 2023، أشار الممثل الذي أصبح حاكماً إلى أنّ رؤية الفيلم للأسلحة المستقلة باتت اليوم حقيقة واقعة.
وفي المستقبل المظلم للفيلم، يصمم الإنسان نظاماً عسكرياً مدعوماً بالذكاء الاصطناعي، ليتجاوز بعدها التعليمات ويدمر البشرية. بالمعنى الدقيق للكلمة، هذا لم يحدث. إلا أنه في الوقت نفسه، تغيرت الحرب بشكل لا يمكن إنكاره خلال الأربعين عاماً التي تلت ظهور فيلم "The Terminator" في دور العرض. إذ يتم نشر الأسلحة المدعومة بالذكاء الاصطناعي بقوّة في ساحات القتال من أوكرانيا إلى غزة، ومن المرجّح أن تلعب دوراً حاسماً في أي صراع بين الولايات المتحدة والصين.
إنّ تحذير الفيلم من أنّه لا يمكن الوثوق بالآلات لاتخاذ القرارات المهمة، مثل متى ومن يجب أن يطلق النار، لا يزال مستمراً في النفس البشرية الجماعية. ومع ذلك، فإنّ الخطر الحقيقي قد لا يكمن في ضعف التحكم البشري بهذه الأنظمة، بل في الوهم بإمكانية السيطرة عليها. ويوفر هذا الوهم راحة زائفة للحكومات والجيوش والمجتمعات الديمقراطية من خلال تغذية الأمل الساذج في قدرتها على تصميم أنظمة أفضل من خلال إشراك البشر في هذه الدائرة.
ومع ذلك، عندما يتعلق الأمر بالتحكم البشري في أنظمة الأسلحة المدعومة بالذكاء الاصطناعي، يظل الرأي السائد هو أنّ الإكثار منها يعطي نتائج أفضل. فعلى سبيل المثال، تتطلب سياسة الحكومة الأميركية بوضوح تصميم أسلحة فتاكة مستقلة ذات قدرة على التدخل البشري المناسب. ويؤكد كبار المسؤولين بانتظام هذه الحقيقة. وفي أواخر عام 2023، بعد أن أطلقت وزارة الدفاع مبادرة "Replicator"، وهي محاولة لنشر آلاف الأنظمة المستقلة عبر الخدمات العسكرية بحلول آب/أغسطس 2025، صرحت نائبة وزير الدفاع كاثلين هيكس قائلةً: "هناك دائماً شخص مسؤول عن استخدام القوة. نقطة انتهى!" وتسعى الأمم المتحدة إلى فرض حظر على الأسلحة المستقلة بالكامل، واقترحت قواعد ملزمة دولياً تتطلب تدخل الإنسان في هذا المجال. وقد تبنى عدد من المنظمات غير الحكومية، بما في ذلك حملة "أوقفوا الروبوتات القاتلة" (Stop Killer Robots)، ومعهد مستقبل الحياة (Future of Life Institute)، ومنظمة العفو الدولية، قضية التحكم البشري بالأسلحة المستقلة.
وعلى الرغم من أنه من المطمئن أن نتصور أنّ البشر الذين يعيشون ويتنفسون سيمنعون الخوارزميات الطائشة من القتل العشوائي،فإن هذا الإجماع لا يتماشى مع الواقع التكنولوجي. فغالباً ما تكون نماذج الذكاء الاصطناعي التي توجّه الأسلحة المستقلة المعاصرة معقدة جداً بحيث لا يمكن حتى للمشغلين المدربين مراقبتها. بالإضافة إلى ذلك، فإنّ كل استخدام مقترح للأسلحة المستقلّة يتصوّر أنّها تعمل على نطاق واسع، الأمر الذي يتطلب مستويات من البيانات والسرعة والتعقيد التي من شأنها أن تجعل التدخل البشري الهادف مستحيلاً. في ظل الظروف الطبيعية، يصعب توقع أن يقوم شخص بتقييم مزايا تحليل نظام الذكاء الاصطناعي واقتراح مسارات عمل؛ أما في الظروف القتالية، التي تتميز بالضغط الشديد والوقت المحدود والاتصالات المنقطعة أو غير الموجودة بين الأفراد والوحدات والسلطات العليا، فيكون القيام بذلك أمراً مستحيلاً.
تسريع وتيرة الحرب
إنّ المنافسة العسكرية بين الولايات المتحدة والصين تجعل تطوير أنظمة الأسلحة المستقلة ونشرها أمراً لا مفر منه، وقد قدّمت الحرب في أوكرانيا دليلاً مبكراً على هذا التحول النموذجي. في المقابل، تلتزم حكومة الولايات المتحدة بنشر الذكاء الاصطناعي على نطاق واسع وبشكل فوري لأسباب أمنية، مثل التحليل الاستخباري والسلامة البيولوجية والأمن السيبراني وغيرها من الأمور.
ولسنوات، استثمرت بكين بشكل كبير في القدرات التي تهدف إلى تحييد بسط النفوذ الأميركي في شرق آسيا، ما قد يسمح للصين بفرض أمر واقع على تايوان. وحتى يومنا هذا، أعطى الجيش الأميركي الأولوية للحفاظ على عدد صغير من منصات الأسلحة الكبيرة، أو ما يسمى "المتميزة"، مثل حاملات الطائرات والطائرات المقاتلة وقاذفات القنابل المتطورة. إلا أنّ هذا النهج المتبع لم يعد ممكناً. فقد قامت الصين ببناء وتوزيع عدد كبير من أنظمة الأسلحة الرخيصة نسبياً، مثل الصواريخ الباليستية المضادة للسفن والغواصات التي تعمل بالديزل والكهرباء، والتي قد تدمر بسهولة منصات الجيش الأميركي المتميزة؛ وهذه استراتيجية تسمى "الإنكار". ومن أجل استعادة مكانة الولايات المتحدة في شرق آسيا، شرع كل فرع من فروع القوات المسلحة في بذل الجهود لنشر ما يكفي من الأنظمة غير المأهولة للتغلب على قدرات الإنكار الصينية.
هذا وتُعد الأتمتة والذكاء الاصطناعي والطائرات المسيّرة بدرجات متفاوتة من الاستقلالية مكونات أساسية لكل مفهوم من أحدث مفاهيم العمليات الخاصة بالخدمات العسكرية الأميركية: تصميم قوة مشاة البحرية 2030، والعمليات البحرية الموزعة، والعمليات القتالية واسعة النطاق للجيش، ومفهوم العمليات المستقبلية للقوات الجوية. ويعتمد كل مفهوم بدوره على مبادرة مستمرة أُطلقت في عام 2022 وتُعرف باسم القيادة والسيطرة المشتركة لجميع المجالات، وقد بلغت تكلفتها 1.4 مليار دولار أميركي في عام 2024 وحده. ووفقاً لوزارة الدفاع، يهدف البرنامج إلى ربط "كل جهاز استشعار، وكل مطلق النار" من أجل "اكتشاف البيانات وجمعها وربطها وتجميعها ومعالجتها واستغلالها من جميع المجالات والمصادر"؛ وبالتالي إنشاء "نسيج بيانات" موحد. بكل بساطة، كل ما يمكنه جمع البيانات، من الأقمار الصناعية إلى الطائرات المسيرة في البحر إلى جندي في الميدان، يجب أن يكون قادراً على مشاركتها واستخدامها.
وتُعد الأنظمة غير المأهولة ركيزة أساسية في نسيج البيانات. فعلى الأرض، ستعمل هذه الأنظمة على تعزيز القدرة الفتاكة وتقليل الخسائر في صفوف الضحايا المدنيين من خلال توفير دقة أعلى. وفي الجو، ستتمتع الطائرات المسيّرة بقدر أكبر من القدرة على التحمل والمناورة، وستنتشر بأعداد أكبر، وتتعاون لتغطية مناطق أكبر، وتُصعّب الاستهداف المضاد. وفي البحر، ستخترق السفن غير المأهولة الأماكن التي كان يتعذّر الوصول إليها سابقاً. وقد أنفقت كل من الولايات المتحدة والصين وروسيا مليارات الدولارات لتحويل الحرب وفقاً لذلك. وتشير ضغوط المنافسة الأمنية إلى اتجاه واحد فقط، وهو تسارع وتيرة الأتمتة أكثر فأكثر في الحرب. ومن وجهة نظر تكتيكية وعملياتية بحتة، كلما أصبحت وتيرة الحرب أسرع، كلما زادت العيوب في إبطاء الأمور من خلال مطالبة البشر بالتدخل أثناء القتال.
الخطأ جزء من الطبيعة البشرية
إنّ التكتيكات والعمليات ليستا الاعتبارات الوحيدة في الحرب. فمن الناحية الأخلاقية، يخشى الكثير من المراقبين أنّه من دون الرقابة، قد تعيث الآلات عديمة التفكير في الأرض فساداً، وتنتهك مبادئ راسخة مثل التكافؤ (الذي يقضي بأن الضرر الذي يفرضه العمل العسكري لا يتجاوز فوائده) والتمييز (الذي يلزم الجيوش بالتمييز بين المقاتلين والمدنيين). ويشعر آخرون بالقلق من أنّ الأنظمة المستقلة قد تُلحق الأذى بالمجموعات السكانية الضعيفة نتيجة التحيز في بيانات التدريب الخاصة بها، أو أنّ الجهات الفاعلة غير الحكومية قد تخترق أو تسرق الأسلحة المستقلة وتستخدمها لغايات خبيثة. ومن الناحية العملية، قد يؤدي التركيز الضيق على الفعالية التكتيكية أو العملياتية إلى نتائج استراتيجية سيئة، مثل التصعيد غير المقصود. ويجادل منتقدو الأسلحة المستقلة بأنّ البشر يدمجون سياقاً أوسع في قراراتهم، ما يجعلهم أفضل في التعامل مع الحداثة أو الفوضى، في حين تبقى الآلات على المسار المرسوم لها. وقلة من الناس تثق تماماً في الآلات التي تتخذ قرارات خطيرة مثل القتل أو توسيع نطاق الحملة العسكرية. وإلى يومنا هذا، ترتكز افتراضات معظم الناس على أمثلة لا تُنسى من خطأ في الكمبيوتر، مثل حوادث السيارات ذاتية القيادة أو "الهلوسة" الخاصة بروبوتات الدردشة. ويعتبر الكثير من الناس أنّ البشر أقل ميلاً لإراقة الدماء أو تصعيد الصراع من دون مبرر.
هذه الحجج الأخلاقية والعملية مدعومة بالحقيقة الأساسية التي تقول إنّه حتى الأنظمة المستقلة الأكثر تقدماً والمدعومة بالذكاء الاصطناعي سترتكب الأخطاء. ومع ذلك، فقد تقدّم الذكاء الاصطناعي إلى درجة أصبحت فيها سيطرة البشر في كثير من الأحيان شكلية أكثر منها حقيقية. والواقع أنّ الشعور المبالغ فيه بقدرة البشر على السيطرة على الذكاء الاصطناعي قد يؤدي إلى تفاقم المخاطر ذاتها التي يخشاها المنتقدون. وبالتالي، فإنّ التوهم بقدرة البشر على التدخل في سيناريوهات القتال المستقبلية التي تَعِد بأن تكون شديدة الضغط وعالية السرعة، والتي ستنقطع خلالها الاتصالات أو تصبح رديئة، يمنع صناع القرار والجنود ومصممي الأنظمة من اتخاذ الخطوات اللازمة لابتكار أنظمة مستقلة آمنة واختبارها وتقييمها اليوم.
وخلال العقود المقبلة، ستعتمد الولايات المتحدة بشكل مطرد على أنظمة الأسلحة المستقلة المدعومة بالذكاء الاصطناعي في الحرب. ويتوجب على الحكومات أن تقوم بربط المدخلات البشرية في الأنظمة الآن، ومراقبة هذه الأنظمة وتحسينها وبناء ثقة المستخدم بجدية. وإلا فإنّ الرغبة في سيطرة البشر على الذكاء الاصطناعي العسكري ستكلف أرواحاً أكثر مما تنقذها.
نقلته إلى العربية: حسين قطايا