جاءنا الآن
الرئيسية » جاءنا الآن » كوارث الذكاء الاصطناعي العسكري(دراسة شاملة من تجارب عدة دول)

كوارث الذكاء الاصطناعي العسكري(دراسة شاملة من تجارب عدة دول)

دراسة الباحث المتخصص يحى دايخ

أولاً – التطبیقات العسكریة والآمنیة للذكاء الاصطناعي: دراسة حالة من ساحات القتالِ، شھد استخدام الذكاء الاصطناعي (AI) في العملیات العسكریة تحولاً جذریاً، حیث انتقلت من إطار البحث والتطویر إلى الاستخدام الفعلي والواسع النطاق في ساحات القتال الحقیقیة، یعكس ھذا التحول سباقاً عسكریاً تقنیاً حاداً بین القوى العظمى، والذي لم یعد مجرد تخمین مستقبلي بل أصبح واقعاً قائماً.
وتمثل الحرب الروسیة الأوكرانیة منذ عام 2022 أول نزاع كبیر یتم فیھ اختبار أنظمة الذكاء الاصطناعي على نطاق واسع، مما أطلق علیھا لقب “وادي السیلیكون للذكاء الاصطناعي الھجومي[ “1].
وتظُھر الأدلة أن الطائرات المسیرة (بدون طیار (UAVs والتي تعتمد على الذكاء الاصطناعي أصبحت السلاح الأكثر أھمیة في ھذه الحرب، حیث شكلت ما بین 70% إلى 80% من جمیع الإصابات المیدانیة[ 2].

يحى دايخ يسطر:الذكاء الاصطناعي العسكري تطبیقات ومخاطر وتحدیات قانونیة وأخلاقیة

وقد أدت ھذه التقنیات إلى رفع دقة الضربات الجویة بشكل ھائل؛ فبینما كانت نسبة الإصابة في الطائرات المسیرة الانتحاریة تبلغ سابقاً حوالي 30-50%، ارتفعت الآن إلى حوالي 80% بفضل الذكاء الاصطناعي.
أ – ففي أوكرانیا مثلا ً، تم تطویر ونشر العدید من أنظمة الذكاء الاصطناعي المتقدمة، وتستخدم القوات المسلحة الأوكرانیة أنظمة محلیة مثل “Kropyva” و”GIS Arta”، والتي تعرف باسم “أوبر المدفعیة” لأنھا تدمج بیانات الرادارات ولقطات الطائرات المسیرة لتحدید مواقع القوات الروسیة بدقة ومشاركة المعلومات مع وحدات المدفعیة في الوقت الفعلي[ 3].
بالإضافة إلى ذلك، تتعاون أوكرانیا مع شركات غربیة، حیث تقدم شركة Palantir Technologies الأمریكیة أنظمة تحلیلیة “مسؤولة عن معظم عملیات التصویب في أوكرانیا[ “3]، كما تطور أوكرانیا أنظمة متقدمة أخرى، مثل “لافندر” الذي یستخدم لتقلیل وقت تجمیع الھجمات من ساعات إلى دقائق عبر حساب أحمال
الذخیرة وتوزیع المھام على الطائرات المسیرة[ 4].
وقد استخدمت أوكرانیا أیضاً نظام “Hivemind” من شركة Shield AI، وھو ذكاء اصطناعي یمكنھ تشغیل سرب من 1000 طائرة مسیرة بشكل متزامن، مما یمثل خطوة كبیرة نحو التنسیق الجماعي في العملیات القتالیة [6,5].
وفي مجال الأمن السیبراني، تسُتخدم تقنیات الذكاء الاصطناعي لاكتشاف سلوكیات البرمجیات الخبیثة قبلاختراق الشبكات العسكریة.[7]

يحى دايخ يسطر:الذكاء الاصطناعي العسكري تطبیقات ومخاطر وتحدیات قانونیة وأخلاقیة

ب – أما إسرائیل دولة الكیان المؤقت، فقد برزت كدولة رائدة في تطویر واستخدام أنظمة الذكاء الاصطناعي لأغراض عسكریة.
فخلال الحرب على غزة، استخدم الجیش الإسرائیلي مجموعة من الأنظمة المتقدمة، من أبرزھا :
1. “نظام حَبْصُورَ (Gospel)”، الذي یسُتخدم لتحدید المباني المستھدفة بناءً على بیانات استخباراتیة ضخمة، بما في ذلك صور الأقمار الصناعیة واعتراض الاتصالات وأبراج المراقبة[ 10,9,8]، ویتم توجیه التوصیات الناتجة إلى المحللین البشریین لإصدار القرار النھائي، لكن سرعة النظام قد تجعل عملیة التحقق شكلیة[ 9].
2. یسُتخدم “نظام لافندر” (Lavender)، وھو قاعدة بیانات ذكیة تربط بین مصادر مختلفة لتحدید الأفراد كأھداف محتملة، وقد أنتج ھذا النظام قائمة بأكثر من 37,000 شخص مدني في غزة یعُتقد أنھم مرتبطتین بحركة حماس وباقي فصائل المقاومة، ووصف مصدر داخلي العملیة بأنھا “مصنع الاغتیالات الجماعیة “[4,9,8].
3. ھناك “Where’s Daddy?” ، وھو نظام یتتبع الأھداف المحتملة حتى داخل منازلھا لتحدید أفضل نقاط التفجیر[ 10,11].

يحى دايخ يسطر:الذكاء الاصطناعي العسكري تطبیقات ومخاطر وتحدیات قانونیة وأخلاقیة

ھذه الأنظمة مجتمعة تشكل نظامًا متكاملًا لدعم اتخاذ القرار القتالي، مما یسمح لجیش العدو الإسرائیلي بضرب عدد كبیر من الأھداف في فترة زمنیة قصیرة، حیث تم قصف 15 ألف ھدف في 35 یومًا خلال أول الحرب الأخیرة والتي مازالت مستمرة، مقابل 5-6 آلاف ھدف خلال حرب 2014 التي استمرت 51 یومًا.[9]
‌ج – على المستوى الدولي، تبذل الولایات المتحدة جھوداً محمومة لمواكبة ھذا التسارع. أطلقت وزارة الدفاع (DoD) مشروع “مایفن” (Project Maven) في عام 2017 لاستخدام خوارزمیات التعلم الآلي لتحلیل لقطات الفیدیو من الطائرات المسیرة، مما أدى إلى تحسین دقة تحدید التھدیدات بشكل كبیر[ 13,21,3].
وتم نقل المشروع إلى وكالة الاستخبارات الجغرافیة المكانیة الوطنیة (NGA) في عام 2023 لیصبح جزءًا من مبادرة CJADC2 [6] ، كما تعمل وكالة مشاریع الأبحاث المتقدمة الدفاعیة (DARPA) على مشاریع حیویة مثل برنامج “ACE” لتحویل طائرات F-16 إلى طائرات مسیرّة بقیادة ذكاء اصطناعي[ 1].
وبرنامج “SABER” لاختبار أنظمة الذكاء الاصطناعي ضد ھجمات عدائیة في البیئات القتالیة[ 14].

يحى دايخ يسطر:الذكاء الاصطناعي العسكري تطبیقات ومخاطر وتحدیات قانونیة وأخلاقیة

‌د – أما الصین، فقد اتخذت موقفاً مختلفاً، حیث تطور أنظمة ذكاء اصطناعي متطورة مثل طائرة “Feiyi” الأمفینیة التي تعمل تحت الماء وفوقھ، وقارب الدوریة غیر المأھول “لیاونغزھي الثاني[ “15,1].
كما تطور الصین تقنیة “سرب القرش” (Shark Swarm) لمواجھة حاملات الطائرات الأمریكیة، وھي مثال واضح على تبني الذكاء الجماعي في العملیات العسكریة.[1]
ھذه التطبیقات تشیر إلى أن الذكاء الاصطناعي لم یعد مجرد أداة تكمیلیة بل أصبح محوریاً في ھیمنة القوة العسكریة، مما یفرض تحدیات استراتیجیة جدیدة على المشھد الجیوسیاسي العالمي.
ثانیاً – أنظمة دعم القرار بالذكاء الاصطناعي: دور الإنسان في سلسلة القتل المستقبلیة مع تزاید التعقید في العملیات العسكریة الحدیثة، أصبحت أنظمة دعم القرار بالذكاء الاصطناعي (AI-DSS) أداة حیویة لمعالجة كمیات ھائلة من البیانات المعقدة والتوصیة بالقرارات المناسبة في الوقت الفعلي، ھذه الأنظمة لا تھدف إلى استبدال الإنسان بالكامل، بل إلى تعزیز قدراتھ من خلال تحسین سرعة ودقة اتخاذ القرار.

يحى دايخ يسطر:الذكاء الاصطناعي العسكري تطبیقات ومخاطر وتحدیات قانونیة وأخلاقیة

ومع ذلك، فإن ھذا الدور التكمیلي یطرح تساؤلات عمیقة حول مكانة الإنسان في سلسلة القتل (kill chain) ومدى فعالیة سیطرته، وھل یمكن اعتبار وجوده شكلیاً أم أنه حقیقي ومؤثر.
تعمل أنظمة DSS على تحسین كل مرحلة من مراحل سلسلة القتل، بدءًا من المراقبة والاستشعار وصولاً إلى اتخاذ القرار والتنفیذ .
في مرحلة التحلیل، یمكن للذكاء الاصطناعي المساعدة في تجمیع المعلومات من مصادر متعددة ( مثل SIGINTو IMINTو ( OSINT واكتشاف الأنماط والعلاقات الخفیة التي قد یفوتھا البشر[ 16,3].
على سبیل المثال، یسُتخدم الذكاء الاصطناعي لدمج بیانات المراقبة والاستطلاع والاستخبارات (ISR) لتسریع عملیة تحویل البیانات إلى معلومات قابلة للتصرف، مما یختصر زمن “الاستشعار إلى الإطلاق” بشكل كبیر [17].

يحى دايخ يسطر:الذكاء الاصطناعي العسكري تطبیقات ومخاطر وتحدیات قانونیة وأخلاقیة

في مرحلة التخطیط، تساعد أنظمة الذكاء الاصطناعي في اختبار الخطط المختلفة باستخدام المحاكاة، وتقدیر ردود أفعال العدو، واقتراح التكتیكات البدیلة[ 16].
أما في مرحلة التنفیذ، فیمكن للنظام مساعدتھا في تقییم الخیارات المتاحة، وتلخیص التقاریر تلقائیاً، وحتى اختیار السلاح الأكثر ملاءمة للھدف المعین، كما ھو الحال في نظام “Fire Weaver” الذي طورتھ شركة RAFAEL الإسرائیلیة، والذي یختار السلاح المناسب تلقائیاً بعد تصنیف الھدف[ 10]، وبھذه الطریقة، یتحول الإنسان من مدیر مباشر للمھمة إلى مشرف استراتیجي یراقب ویوجھ الأنظمة الآلیة.
ومع ذلك، فإن ھذا التحول یخلق تحدیات كبیرة تتعلق بالتفاعل بین الإنسان والآلة، أحد أكبر المخاوف ھو ظاھرة” ” (automation bias) ، حیث یمیل القادة العسكریون إلى الثقة بشكل مفرط في توصیات النظام الآلي، خاصة عندما یقدمھا بسرعة عالیة وثقة مطلقة، دون القیام بمراجعة دقیقة لھ[ 18].
وقد أثارت تجارب سابقة قلق الخبراء، حیث وجدت دراسة عام 2011 أن الناس قد یتبعون الروبوتات حتى في حالات الطوارئ رغم وجود علامات تصویبیة مضادة[ 19]؛ وھذا یضع ضغوطًا ھائلة على المشغل البشري لضمان عدم الوقوع في ھذا الانحیاز لذلك، تؤكد العدید من الأطر الأخلاقیة والقانونیة على ضرورة تدریب الفرق على التحقق من مخرجات الذكاء الاصطناعي وعلى العمل بدونھ في البیئات المعادیة.[91

يحى دايخ يسطر:الذكاء الاصطناعي العسكري تطبیقات ومخاطر وتحدیات قانونیة وأخلاقیة

إن وجود الإنسان في الحلقة لا یعني بالضرورة وجوده كفاعل فعال؛ فقد یكون دوره مجرد “ختم مطاطي “(rubber stamp) یوافق على قرارات آلیة دون تفكیرعمیق، كما حدث في بعض الحالات الإسرائیلیة في غزة.[11]، فطبیعة العلاقة بین الإنسان والآلة في ھذه الأنظمة تختلف باختلاف مستوى الاستقلالیة .
تحدد منظمة العفو الدولیة (Amnesty International) ثلاثة مستویات رئیسیة للإشراف البشري:
1 .الإشراف داخل الحلقةIn-the-loop) ): حیث یقوم الإنسان بعملیة الاختیار النھائي، ولكن النظام یوفر توصیات وتحلیلات، یعتبر نظام القبة الحدیدیة الإسرائیلي مثالاً على ھذا النموذج، حیث یقوم الذكاء الاصطناعي بحساب مسار الاعتراض، لكن قرار إطلاق الصاروخ یظل بید المشغل البشري.[02]
2 .الإشراف على الحلقة (On-the-loop): حیث یمكن للإنسان التدخل وإیقاف العملیة في أي نقطة، ولكنه لا یشارك في عملیة الاختیار نفسھا، وتعُتبر طائرة SGR-A1 الكوریة الجنوبیة مثالاً على ھذا النموذج، حیث یمكنھا تتبع الأھداف تلقائیاً ولكنھا تحتاج إلى إذن بشري للإطلاق.[12]
3 .الإشراف خارج الحلقة (Out-of-the-loop): وھي الحالة التي تكون فیھا الأسلحة مستقلة تمامًا في اختیار واستھداف الأھداف دون أي تدخل بشري، وھي الأكثر إثارة للجدل وأقرب إلى مفھوم “الأسلحة القاتلة الذاتیة” (LAWS) [21].

يحى دايخ يسطر:الذكاء الاصطناعي العسكري تطبیقات ومخاطر وتحدیات قانونیة وأخلاقیة

إن الفرق بین “دعم القرار” و”السلاح المستقل” لیس دائمًا واضحًا، فالأنظمة مثل “Fire Weaver” الإسرائیلیة، التي تدمج المعلومات وتختار السلاح المناسب وتتفاعل مع الھدف في ثوانٍ، قد تبدو وكأنھا ضمن دائرة “دعم القرار”، لكنھا في الواقع تقوم بمھام قریبة جداً من اتخاذ القرار القتالي، مما یخلط بین مرحلتي الاستھداف” و”التنفیذ[ “10].
ھذا التداخل یجعل من الصعب تطبیق الأطر القانونیة والأخلاقیة الحالیة التي تفترض وجود قرار بشري واضح .إن تحقیق “السیطرة البشریة الفعالة” (meaningful human control) أصبحت المعیار الأساسي في النقاشات العالمیة، وھو یتجاوز مجرد وضع زر “القتل” لیشمل فھم النظام، والقدرة على التنبؤ بسلوكه، والتحكم فیه بشكل كامل.
لكن تحقیق ھذا الأمر في أنظمة “الصندوق الأسود” (black-box) المعقدة أمر شبھ مستحیل، مما یزید من مخاطر الفشل والقرارات الخاطئة وبالتالي، فإن مستقبل ھذه التقنیات یعتمد بشكل كبیر على كیفیة تصمیم ھذه التفاعلات لضمان أن تكون للإنسان دور فعال ومسؤول، وأن یظل ھو صانع القرار النھائي، ولیس مجرد شاھد على عمل الآلة.
ثالثاً – الأبعاد الأخلاقیة والإنسانیة: التحیز، المساءلة، والمخاطر المتصاعدة على المدنیین یمثل استخدام الذكاء الاصطناعي في المجال العسكري تحدیات أخلاقیة وإنسانیة ھیكلیة، تتجاوز مجرد الأخطاء الفنیة للكمبیوترات، فھي تمس جوھر مبادئ القانون الإنساني الدولي، وتثیر أسئلة جوھریة حول المسؤولیة ، والتحیز، ومستقبل الحقوق والكرامة الإنسانیة في ساحة المعركة .
إن الخطر الحقیقي لا یكمن فقط في أنظمة الأسلحة القاتلة الذاتیة (LAWS) التي تعمل دون إشراف بشري ، بل یمتد إلى أنظمة دعم القرار (AI-DSS) التي تؤثر بشكل غیر مباشر على حیاة المدنیین من خلال تقویض مبادئ التمییز والتناسب.

يحى دايخ يسطر:الذكاء الاصطناعي العسكري تطبیقات ومخاطر وتحدیات قانونیة وأخلاقیة

أحد أكثر المخاوف شیوعًا ھو “التحیز الخوارزمي”. تتعلم أنظمة الذكاء الاصطناعي من البیانات التي یتم تدریبھا علیھا، وإذا كانت ھذه البیانات ذات تحیز، فإن النظام سیقوم بتكراره تلقائیا ً hisazero. وقد أشارت التقاریر إلى أن أنظمة الذكاء الاصطناعي قد تستمد تحیزات من بیانات التدریب المتعلقة بـ الجنس والعمر
والعرق والقدرة، مما قد یؤدي إلى استھداف مجموعات معینة بشكل غیر عادل[ 22].
ففي سیاق حرب غزة، كشف تحقیق صحفي أن نظام “Lavender” الإسرائیلي كان یصنف أي شخص یشبه مقاتلي المقاومة كھدف محتمل، حتى لو لم یكن ھناك دلیل قاطع على انتمائھ، مما یوسع بشكل كبیر دائرة
الاستھداف[ 9].
وفي تطبیقات أخرى، تمثلت المشكلة في قدرة أنظمة الكشف عن الكائنات على تمییز الأشخاص في الثلج “كمركبات”، أو الأشجار “كشاحنات”، أو استخدام الذكاء الاصطناعي التولیدي لتشویھ الصور لتجنب الكشف[23]
ھذا التحیز لیس مجرد خطأ تقني، بل ھو ترسیخ لنماذج اجتماعیة معادیة وغیر عادلة، حیث یمكن لخوارزمیة أن تصل إلى نتیجة أن جمیع الذكور المدنیین من فئة عمریة معینة ھم أھداف مشروعة، أو أن الحافلات المدرسیة أو سیارات الإسعاف یمكن أن تسُتخدم من قبل العدو، مما یجعلھا أھدافاً محتملة.[81]
الأمر الثاني المتمثل في “المساءلة” ھو قضیة أساسیة. فمن الذي یحَُاسب أو یخضع للمسائلة إذا أدى نظام الذكاء الاصطناعي إلى وقوع ضحایا مدنیین؟ ھل ھو المبرمج الذي كتب الخوارزمیة؟ أم الشركة المصنعة للنظام؟
أم الجندي الذي ضغط على الزر؟ أم القائد الذي أصدر الأمر بالاستخدام؟ إن الآلات لا یمكن محاسبتھا قانونیاً، ویمكن للشركات أن تنكر أن خوارزمیاتھا كانت مسؤولة، بینما لا یمكن للجندي أن یتحمل وزر قرار غیر مفھوم بالكامل.[42,22]

يحى دايخ يسطر:الذكاء الاصطناعي العسكري تطبیقات ومخاطر وتحدیات قانونیة وأخلاقیة

ھذا الغموض في المساءلة یخلق فراغًا أخلاقیاً وسیاسیاً یجعل من الصعب إدانة الأفعال أو توفیر تعویضات للمتضررین، وقد حذر خبراء مثل كاناكا راجان من أن تطویر ھذه الأسلحة یقلل من “المسؤولیة البشریة” في اتخاذ قرارات القتل، حیث یتم تفویض القرار لآلة لا تستطیع فھم النوایا أو التقدیر التناسبي أو التفاعل مع المواقف غیر المتوقعة.[52]
علاوة على ذلك، فإن الطبیعة “غیر الموثوقة” لھذه الأنظمة تشكل خطرًا كبیرًا، فالنظام “الذي یعمل بالصندوق الأسود” لا یمكن تفسیر قراراته بوضوح، والحساسیة البسیطة للتلاعب في البیانات(adversarial examples) تسمح بخداعھ بسھولة، مثل تغییر بیكسلات قلیلة في صورة لجعلھا تقُرأ على أنھا ھدف آخر [27,26].
ھذا الخطر یتجلى أیضًا في “الھلوسة الخوارزمیة” (algorithmic hallucinations) ، حیث قد ینتج النظام مخرجات غیر دقیقة أو صورًا من الخیال، مما قد یؤدي إلى استھداف أھداف غیر موجودة أو أبریاء[ 18]، إن تفویض قرارات الحیاة والموت لآلة لا یمكن الاعتماد علیھا بالكامل، لأنه ینتھك مبدأ الإنسانیة في الحرب.[9]

يحى دايخ يسطر:الذكاء الاصطناعي العسكري تطبیقات ومخاطر وتحدیات قانونیة وأخلاقیة

في النھایة، یدور النقاش حول مفھوم “السیطرة البشریة الفعال، (meaningful human control) إن وجود إنسان في الحلقة لا یكفي إذا كان قراره شكلیاً وسریعاً للغایة، ولا یترك وقتاً للتفكیر الأخلاقي والتأمل، إن تقلیل الوقت الذي یأخذه القرار من ساعات إلى ثوانٍ قلیلة كما یحدث في أنظمة الذكاء الاصطناعي، یحول المشغل البشري من قائد استراتیجي إلى مجرد “محرك” لقرارات آلیة[ 3].
ھذا النھج یھدد بتعمیق الفجوة الثقافیة بین الخبراء التقنیین الذین یطورون ھذه الأنظمة وبین القادة العسكریین والسیاسیین الذین یجب أن یقرروا ما إذا كانت ھذه الأسلحة مقبولة سیاسیاً ومستحسنة أخلاقیاً أم لا، كما أن التأثیر النفسي على المشغلین الذین یتحولون الى مجرد متابعین لعملیة اغتیال رقمیة، یمثل تحدیاً نفسیاً جدیداً لم یسبق له مثیل في تاریخ الحروب[ 11,3].
لذلك إن ترك الآلة تتخذ قرارات قاتلة، حتى بقرار بشري، یمثل تحدیاً جوھریاً للقیم الإنسانیة الأساسیة، كما أكد الأمین العام للأمم المتحدة أنطونیو غوتیریش، الذي وصف منح الآلات صلاحیة اتخاذ قرار بالقتل بأنھ أمر “مثیر للاشمئزاز أخلاقیاً[ “24].
بالتالي ھذا النقاش لیس مجرد نقاش نظري، بل ھو جزء لا یتجزأ من التأكد من أن التكنولوجیا لا تفلت من سیطرة الإنسان، وأنھا تخدم أھدافاً إنسانیة أعلى بدلاً من أن تصبح أداة لتقلیص الأخطاء البشریة بطریقة تقنیة ، وبدون أي اعتبارات أخلاقیة.[72]

يحى دايخ يسطر:الذكاء الاصطناعي العسكري تطبیقات ومخاطر وتحدیات قانونیة وأخلاقیة

رابعاً – الأطر القانونیة والتنظیمیة: الجھود الدولیة والممارسات الوطنیة لمواجھة التحدیات التي فرضتھا أنظمة الذكاء الاصطناعي في المجال العسكري، تبذل جھود دولیة ووطنیة لوضع أطر قانونیة وأخلاقیة تنظم استخدامھا ومع ذلك، فإن ھذا المجال یعاني من تباین كبیر في المواقف، مما أدى إلى تشكیل شبكة معقدة من المبادرات غیر الملزمة، والاتفاقیات القائمة، والحذر من جانب بعض الدول الكبرى.
على الصعید الدولي، یقود اتفاقیة الأسلحة التقلیدیة (CCW) في جنیف المناقشات الرئیسیة حول الأسلحة المستقلة القاتلة (LAWS) منذ عام 2014 [24]، وقد أدت ھذه المناقشات إلى إنشاء فریق خبراء حكومي GGE) للتعامل مع ھذه القضایا التقنیة والقانونیة .
وقد أصدر الفریق مسودة تقریر في یولیو 2024 دعا الدول إلى ضمان التدریب المناسب للمستخدمین، والحفاظ على السیطرة البشریة، وتحدید أنواع الأھداف والعدد المسموح بھ من العملیات[ 1]، وفي إطارھذه الخطوة المھمة، اعتمدت الجمعیة العامة للأمم المتحدة في دیسمبر 2024 قرارًا یدعو إلى التوصل إلى معاھدة ملزمة قانونیاً لحظر LAWS بحلول عام 2026 [28,21]، وقد دعا إلیھ الأمین العام للأمم المتحدة بشكل مباشر ، مؤكداً على ضرورة عدم عبور “الخط الأخلاقي” لاستھداف البشر آلیاً[ 28,22]، وقد أید أكثر من 120 دولة حتى الآن التفاوض على معاھدة دولیة تمنع الأنظمة الكاملة الاستقلالیة[ 24].

يحى دايخ يسطر:الذكاء الاصطناعي العسكري تطبیقات ومخاطر وتحدیات قانونیة وأخلاقیة

إلا أن ھذا المسعى یواجھ مقاومة من دول كبرى مثل الولایات المتحدة وروسیا والصین، التي تفضل التركیز على تنظیم مرن یحفظ میزتھا العسكریة.[12]
في المقابل ،تتخذ الدول الأخرى نھجًا مختلفاً، فقد أعلنت وزارة الدفاع الأمریكیة (DoD) عن سیاساتھا الخاصة بالذكاء الاصطناعي، والتي تلزم بأن یكون لكل نظام ذي صلة بالقوة “السیطرة بشریاً مناسبة” (appropriate human sufficiency)، وتستثني الأسلحة الموجھة والقنابل المضادة للأفراد التي تعتبر أسلحة دفاعیة (URL5825DX) [5]، وقد قامت DoD بإعادة ھیكلة ھذه السیاسة عدة مرات، حیث تم تحدیثھا في عام 2023 لتشمل تعریفاً جدیداً للإشراف البشري یسمح بوجود “مشغلین آلیین” (automated operators) في بعض الحالات، مما یمثل تنازلًا عن مبدأ السیطرة البشریة الكاملة.[5]
أما استراتیجیة حلف الناتو للذكاء الاصطناعي لعام 2024، فقد أعادت تعریف “المساءلة” لتتضمن المساءلة عن تفویض السلطة للأنظمة الآلیة، وتؤكد على مبدأ الشرعیة القانونیة والأخلاقیة للقرارات التي تتخذھا ھذه الأنظمة[ 29]، وتستند الاستراتیجیة إلى ستة مبادئ أساسیة تشمل الموثوقیة والقابلیة للتفسیر والمسؤولیة.[92]

يحى دايخ يسطر:الذكاء الاصطناعي العسكري تطبیقات ومخاطر وتحدیات قانونیة وأخلاقیة

على المستوى الوطني، تختلف الممارسات بشكل كبیر، فبینما تشدد الولایات المتحدة على “السیطرة البشریة ،” إلا أن تطبیقاتھا العملیة مثل مشروع “مایفن” الذي یحلل لقطات الطائرات المسیرة[ 3]، ونظام “المحارب الذاتي” في المملكة المتحدة الذي یكشف عن التھدیدات في الوقت الفعلي[ 30]، تثیر تساؤلات حول مدى توافقھا مع المبادئ التي تعلن عنھا.
أما في الصین، التي تتبنى سیاسة “السیطرة البشریة” بشكل عام، توجد تناقضات واضحة، حیث تطور طائرات مسیرة انتحاریة تستخدم الذكاء الاصطناعي لتحدید الأھداف دون تدخل بشري مباشر[ 8]، وتخضع لقوانین صارمة تمنع الشركات التكنولوجیة من التدخل في ھذا المجال[ 25].
أما في إسرائیل، فقد تم استخدام أنظمة الذكاء الاصطناعي بشكل واسع النطاق في غزة دون وجود إطر قانونیة واضحة ینظم استخدامھا، حیث تمت الموافقة على سیاسة “الضرر الجانبي المسموح به” (acceptable collateral damage) لصالح ضمان سرعة اتخاذ القرار الآلي.[11]

يحى دايخ يسطر:الذكاء الاصطناعي العسكري تطبیقات ومخاطر وتحدیات قانونیة وأخلاقیة

إن غیاب تعریف موحد وملزم قانونیاً لأجزاء من ھذه التقنیات، مثل LAWS، یعیق أي تقدم حقیقي[ 21]، كما أن عدم وجود آلیة فعالة لضمان السیطرة البشریة وعدم وجود معاییر واضحة لتحدید مسؤولیة الأضرار المدنیة التي تسببھا الأنظمة الآلیة، یجعل من تطبیق القانون الدولي الإنساني تحدی اً كبیرًا[ 31,22].
إن الصراع الأساسي ھو بین من یرى أن مثل ھذه الأسلحة غیر قابلة للتحكم وتنتھك الإنسانیة، ومن یرى أنھا تمنح فائدة عسكریة حاسمة یجب الحفاظ علیھا .
بالتالي إن السباق التسلیحي الحالي یھدد بخلق ترسانة من الأسلحة التي قد لا یتمكن العالم من السیطرة علیھا ، مما یزید من خطر الانزلاق نحو نزاعات محدودة النطاق تتطور بسرعة ھائلة، ودون وجود آلیات للمواجھة أو إنھائھا.
لذا إن وضع إطار تنظیمي فعال یتطلب تجاوز الخلافات السیاسیة وتوحید الجھود نحو حظر الأسلحة الأكثر خطورة، مع ضمان مساءلة الدول والشركات التي تساھم في تطویرھا، ووضع معاییر واضحة لضمان وجود إنسان فعال في حلقة القرار.[3,12]

يحى دايخ يسطر:الذكاء الاصطناعي العسكري تطبیقات ومخاطر وتحدیات قانونیة وأخلاقیة

خامساً – خارج سباق الأسلحة: استخدامات الذكاء الاصطناعي في العملیات العسكریة المتنوعة بینما تركز النقاشات العامة بشكل كبیر على أخطر تطبیقات الذكاء الاصطناعي، فإن حجمًا أكبر بكثیر من
استخداماته یظھر في مھام دعم العملیات العسكریة، مما یعكس تحولاً نحو ما یعُرف بـ “الحرب المرتكزة على البیانات” (data-centric warfare). ھذه التطبیقات التي تشمل المراقبة، والنقل اللوجستي، والأمن السیبراني، والصیانة، تھدف إلى زیادة الكفاءة التشغیلیة بشكل كبیر، وغالباً ما یتم دمجھا في أنظمة قائمة. مما
یجعل وجودھا أقل وضوحًا لكنھا أكثر انتشارًا وأھمیة استراتیجیة.
I. في مجال المراقبة والاستخبارات، تعد أنظمة مثل ViDAR ، التي طورتھا شركة Sentient Vision Systems، مثالاً على الابتكار في ھذا المجال، حیث یعمل النظام باستخدام كامیرات عالیة الدقةوخوارزمیات تعُلم الآلة لاكتشاف الأھداف وتصنیفھا في البیئات البحریة والبریة، وھو قادر على مسح مساحة كبیرة من السماء في ساعة واحدة، وھو ما یفوق بكثیر القدرة البشریة[ 33,32].

يحى دايخ يسطر:الذكاء الاصطناعي العسكري تطبیقات ومخاطر وتحدیات قانونیة وأخلاقیة

كما تسُتخدم أنظمة الرؤیة الحراریة، مثل تلك الموجودة في الروبوت الكلب “BAD One” البریطاني ، للكشف عن المواقع والألغام[ 34].
وفي المجال الفضائي، الذي یعُتبر ساحة قتالیة جدیدة، تستخدم إدارة الفضاء الوطنیة الصینیة الذكاء الاصطناعي لتحلیل صور الأقمار الصناعیة وتحدید الحطام الفضائي، وھي تقنیة قابلة للتطبیق في تتبع الأقمار الصناعیة المعادیة[ 35]، كما تعمل قوة الفضاء الأمریكیة على استخدام الذكاء الاصطناعي لاكتشاف التھدیدات السیبرانیة وتجنب الاصطدامات في الفضاء.[53] II. في مجال النقل اللوجستي، یلعب الذكاء الاصطناعي دورًا حاسمًا في تحسین الكفاءة وتقلیل التكالیف ففي الجیش الأمریكي، یسُتخدم الذكاء الاصطناعي لتقلیل تكالیف الصیانة السنویة بمقدار 5 ملیارات دولار [36].

كما یسُتخدم في تخطیط المسارات اللوجستیة وتحسین سلاسل الإمداد، وتنبؤ احتیاجات الصیانة للطائرات المسیرة والأقمار الصناعیة[ 35,7].
III. وفي مجال الرعایة الصحیة، تسُتخدم خوارزمیات الذكاء الاصطناعي لتقدیم توصیات علاجیة للجرحى بناءً على قواعد بیانات ضخمة، مع العلم أن القرار النھائي یبقى بید الطبیبي البشري [7].

يحى دايخ يسطر:الذكاء الاصطناعي العسكري تطبیقات ومخاطر وتحدیات قانونیة وأخلاقیة

IV. كما یسُتخدم الذكاء الاصطناعي التولیدي في تولید التقاریر، وتلخیص الوثائق، وتحسین المواد التعلیمیة للتدریب، مما یحرر وقت الخبراء للتركیز على المھام الاستراتیجیة العلیا.[7] V. بالإضافة إلى ذلك، یسُتخدم الذكاء الاصطناعي في مجالات أخرى مثل الأمن السیبراني، حیث تعمل القیادة السیبرانیة الأمریكیة على استخدامھ لاكتشاف التھدیدات في الزمن الحقیقي[ 35]، والصید السیبراني
الاستباقي[ 27].
VI. كما یسُتخدم الذكاء الاصطناعي التولیدي في الحملات الإعلامیة والتأثیر الرقمي. فقد كشفت التقاریر عن
استخدام الصین لآلاف الحسابات المزیفة التي تدار بواسطة الذكاء الاصطناعي للتضلیل والترویج لرسائلھا السیاسیة على وسائل التواصل الاجتماعي[ 5,37]، كما تسُتخدم تقنیات “deepfake” لخلق محتوى مرئي مضلل، مما یشكل تھدیداً للأمن القومي[ 37].
إن ھذه الاستخدامات، على الرغم من أنھا لیست مباشرة في القتل، إلا أنھا تشكل جزءًا لا یتجزأ من الحرب الحدیثة، حیث أصبحت المعلومات والبیانات ساحة معركة بنفس القدر الذي أصبحت فیھ الأرض والجو، إن تكامل الذكاء الاصطناعي في كل ھذه المجالات یخلق سیناریوھات معقدة، حیث یمكن لأي نظام ذكي أن یتحول إلى سلاح في أي لحظة، مما یزید من صعوبة التمییز بین الأنشطة السلمیة والأنشطة العدائیة .
كل ھذا التكامل یعزز فكرة أن الحرب لم تعد تقتصر على الأسلحة القتالیة، بل أصبحت شاملة، حیث تسُتخدم التكنولوجیا في كل جانب من جوانب العملیات، مما یفرض على الأطر القانونیة والأخلاقیة أن تتسع لتغطیة ھذا الطیف الأوسع من الاستخدامات.
سادساً – مستقبل الحرب: المخاطر الاستراتیجیة، والسباق التسلیحي، والدعوة للتنظیم الدولي ینُظر إلى الذكاء الاصطناعي لیس كمجرد أداة عسكریة، بل كعامل مزعزع للنظام یعید تشكیل العلاقات الدولیة

يحى دايخ يسطر:الذكاء الاصطناعي العسكري تطبیقات ومخاطر وتحدیات قانونیة وأخلاقیة

وینقل مركز الثقل الاقتصادي والعسكري، لذلك، یمثل ھذا التحول تحدیاً استراتیجیاً یتطلب من الدول الكبرى تغییر ھیكل قواتھا وثقافتھا العسكریة، وقد حذر خبراء مثل ھنري كیسنجر وغرام ألیسون من وقوع “لحظة أوبنھایمر” (Oppenheimer moment)، أي لحظة الندم، عندما یدرك العالم أن قوة تكنولوجیة جدیدة قد فرّطت في السیطرة علیھا[ 1]، فالقوى العظمى تدرك أن التأخر في تبني الذكاء الاصطناعي قد یؤدي إلى تآكل هیمنتھا، كما حدث مع روسیا في القرن التاسع عشر.[62] تعُرف ھذه المنافسة بـ “سباق الذكاء الاصطناعي” (AI Arms Race)، وھو سباق یضم جمیع القوى الكبرى تقریباً .
تظُھر البیانات الإنفاق الھائل الذي تبذلھ ھذه الدول: 181 ملیون دولار أنفقتھا روسیا بین 2021 و2023 [31]،
و150 ملیار دولار استثمرتھا الصین في قیادة مجال الذكاء الاصطناعي[ 31]، و4.6 ملیار دولار أنفقتھا
الولایات المتحدة[ 31].
ھذا الإنفاق یترجم إلى تطویر أسلحة أكثر ذكاءً، وشبكات اتصال أسرع، ومھارات تحلیلیة أفضل، ومع تزاید سرعة اتخاذ القرار القتالي الذي یوفره الذكاء الاصطناعي، فإن “الدافع للھجوم” (offensive advantage)
یزداد، بینما یصبح الدفاع أمام الھجمات الآلیة أكثر صعوبة بسبب بطء دورة اتخاذ القرار العسكري التقلیدي [15]، وقد كشفت الحرب في أوكرانیا عن ھذا التحول، حیث استخدم كلا الطرفین الطائرات المسیرة بكثافة ، مما أدى إلى تبني سیاسة “الھجوم” كوسیلة أساسیة للبقاء.[43]

يحى دايخ يسطر:الذكاء الاصطناعي العسكري تطبیقات ومخاطر وتحدیات قانونیة وأخلاقیة

في مواجھة ھذا السیناریو المقلق، تبرز الحاجة الملحة إلى التنظیم الدولي، لذا لقد دعا الأمین العام للأمم المتحدة إلى معاھدة ملزمة بحلول 2026 لحظر الأسلحة التي تعمل دون “إشراف بشري[ “24,22]، وقد دعم أكثر من 120 دولة ھذا الاتجاه[ 24]، وفي الوقت نفسھ، تقدم القادة العسكریون والأكادیمیون حلولاً أكثر مرونة باقتراح حل ثنائي المستوى: حظر الأنظمة التي لا یمكن التحكم فیھا قانوناً، وتنظیم الأنظمة التي تعمل ضمن “السیطرة بشري قابلة للتطبیق[ 38].
كما تدعو منظمات مثل حملة “Stop Killer Robots” إلى حظر الأنواع الأكثر إثارة للجدل من الأسلحة الذاتیة، مع التركیز على تطویر أنظمة تعُزز من دور الإنسان بدلاً من استبدالھ[ 21]، ھذه المقترحات تتناقض مع نھج بعض القوى العظمى التي ترى في الذكاء الاصطناعي وسیلة للحفاظ على ھیمنتھا، مما یخلق توتراً بین الضرورة الأمنیة والرغبة في الحفاظ على النظام الدولي القائم على القانون الإنساني.[53]
في الختام، یبدو مستقبل الحرب محفوفاً بالمخاطر والفرص في آن واحد فمن جھة، یبشر الذكاء الاصطناعي بتقلیل الخسائر البشریة، وزیادة الدقة، وتسریع العملیات، ومن جھة أخرى فإنھ یحمل في طیاتھ مخاطر زعزعة الاستقرار، وفقدان السیطرة البشریة، وانتھاك القانون الدولي الإنساني بشكل غیر مسبوق .

يحى دايخ يسطر:الذكاء الاصطناعي العسكري تطبیقات ومخاطر وتحدیات قانونیة وأخلاقیة

إن التحدي الأكبر الذي یواجه المجتمع الدولي لیس فقط كیفیة تنظیم الأسلحة القاتلة الذاتیة، بل كیف یمكن للبشریة أن تضمن أن ھذه التقنیات التي قد تفوق عقولھا.
إن السباق العالمي على ھیمنة الذكاء الاصطناعي في الفضاء والبحر والجو، كما یجري في الصین والولایات المتحدة، سیحدد المشھد الجیوسیاسي لعقود قادمة.[53]

وبالتالي إن الدعوة إلى حظر كامل للأسلحة الذاتیة قد تبدو غیر واقعیة في ظل ھذا السباق، مما یدفع إلى التفكیر في نماذج تنظیمیة أكثر مرونة، ولكنھا في نفس الوقت صارمة بما یكفي لحمایة الإنسان، فمستقبل السلام والأمن الدولیین یعتمد على قدرة المجتمع الدولي على تجاوز الخلافات السیاسیة، والتغلب على “الخوف من التكنولوجیا” من خلال حوار مفتوح، وبناء الثقة، ووضع آلیات مراقبة فعالة، فبدون ذلك، فإن الحرب التي
یخوضھا البشر في المستقبل لن تكون مجرد صراع على الموارد، بل سیكون صراع ضد أنظمة ذكیة قد تقرر مستقبلھا الخاص.

يحى دايخ يسطر:الذكاء الاصطناعي العسكري تطبیقات ومخاطر وتحدیات قانونیة وأخلاقیة

المصادر
1 .تقریر: “وادي السیلیكون للذكاء الاصطناعي الھجومي “— تحلیل نزاع أوكرانیا 2022–2024 .
2 .إحصائیات استخدام الطائرات المسیرة في أوكرانیا — وزارة الدفاع الأوكرانیة ،2023 .
3 .نظام “Kropyva / GIS Arta” — تقاریر فنیة من الجیش الأوكراني ،2023 .
4 . 2024 أبریل ، Magazine972 +تحقیق صحفي من “Lavender” — نظام.
5 . 2023 ، “Hivemind” — Shield AIنظام.
6 .مبادرة CJADC2 — وكالة الاستخبارات الجغرافیة المكانیة الوطنیة (NGA)، 2023 .
7 .تطبیقات الذكاء الاصطناعي في الأمن السیبراني والرعایة الصحیة — تقاریر البنتاغون ،2023 .
8 . 2024 ینایر ، The Guardianتحقیق “Gospel” — نظام.
9 .تقریر “مصنع الاغتیالات الجماعیة “— تحقیق+ 972 Magazine، أبریل 2024 .
10 .نظام “Where’s Daddy?” — تقاریر إسرائیلیة داخلیة ،2023 
11 .سیاسة “الضرر الجانبي المسموح به “— مصادر عسكریة إسرائیلیة ،2023 .
12 .مشروع “مایفن “— وزارة الدفاع الأمریكیة ،2017–2023 .
13 — Project Maven Technical Report, 2020. تحلیل لقطات الطائرات المسیرة.
14 . 2023 ، “SABER” — DARPAبرنامج.
15 “Feiyi” — People’s Liberation Army Daily, 2023. الطائرة الأمفینیة.
16 — RAND Corporation, AI in Military Decision-Making, 2022. أنظمة دعم القرار.
17 .تقلیل زمن “الاستشعار إلى الإطلاق “— تقاریر ISR الأمریكیة ،2023 .
18 MIT Technology Review, 2021. ظاھرة “الانحیاز نحو الأتمتة “— دراسة.
19 — University of Washington, 2011. دراسة الثقة في الروبوتات.
20 — Rafael Advanced Defense Systems, 2023. نظام القبة الحدیدیة.
21 .طائرة SGR-A1 — Samsung Techwin, 2006. 22 .التحیز الخوارزمي — تقاریر منظمة العفو الدولیة ،2023 .
23 — IEEE Security & Privacy, 2023. الھلوسة الخوارزمیة وتشویھ الصور.
24 .تصریحات الأمین العام للأمم المتحدة — خطاب أمام الجمعیة العامة، دیسمبر 2024 .
25 .تصریحات كاناكا راجان — أستاذة في جامعة نیویورك ،2023 .
26 Stanford, 2020. دراسة جامعة adversarial — ھجمات. — Cyber Command US, 2023. الذكاء الاصطناعي في الأمن السیبراني. 27
28 .قرار الجمعیة العامة للأمم المتحدة — دیسمبر 2024 .
29 .استراتیجیة الناتو للذكاء الاصطناعي — NATO AI Strategy, 2024.
30 .نظام “المحارب الذاتي “— وزارة الدفاع البریطانیة ،2022 .
31 .الإنفاق العسكري على الذكاء الاصطناعي — SIPRI Yearbook, 2024.
32 ViDAR — Sentient Vision Systems, 2021. نظام.
33 — Jane’s Defence Weekly, 2023. تحلیل صور المراقبة البحریة.
34 .روبوت “BAD One” — الجیش البریطاني ،2023 .
35 — US Space Force & CNSA Reports, 2023. تطبیقات الذكاء الاصطناعي في الفضاء.
36 .تقلیل تكالیف الصیانة — تقریر البنتاغون المالي ،2023 .
37 .استخدام الذكاء الاصطناعي في التضلیل — تقاریر Oxford Internet Institute, 2023.
38. مقترحات تنظیمیة ثنائیة المستوى — مركز Belfer للتكنولوجیا والشؤون الدولیة، ھارفارد ،2024.
39.

عن الكاتب

الوسوم

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *