مقالات وآراء

“لافندر” السّلاح الأقوى في حرب الإبادة في غزة…

د. أحمد الزّين

من الأقوال المأثورة المدويّة لألبرت أينشتاين قول رجّ صداه في عصرنا هذا: “من الواضح أنّ التّكنولوجيا ستتفوّق على إنسانيتنا” وهذا ما حصل!
فالذّكاء الاصطناعي (AI) صار من أحد التّقنيات العسكريّة، التي أوْلتها القوى الكبرى أكبر قدرٍ من الاهتمام في سنواتنا الأخيرة؛ يأتي في طليعة تلك الدّول، الولايات المتحدة التي أعلنت عن استراتيجيتها الثّالثة للأوفست في عام 2014، والتي سعت جاهدة من أجل الحفاظ على مميزاتها وشهرتها، عبر استخدام التّقنيات العسكريّة المتقدّمة مثل الذّكاء الاصطناعي والأسلحة غير المأهولة، ونتيجة هذه المبادرة، فقد أدرجت استراتيجيّة الأمن القومي الأميركيّة الصادرة في 12 تشرين الأول/ أكتوبر 2022، الذّكاء الاصطناعي كأحد التّقنيات التي يجب على الولايات المتحدة وحلفائها تعزيز الاستثمار فيها واستخدامها.

مقابل هذا السّعي الأميركي، برزت المنافسة الصّينيّة! ففي عام 2019 أعلنت الصّين عن استراتيجية عسكريّة جديدة ألا وهي الحرب الذّكيّة، التي تعتمد في كلّيتها على الذّكاء الاصطناعي. وباكورة هذا الإعلان كان في تصريح مسؤول في جيش الّتحرير الشّعبي الصّيني، عن قدرته في تجاوز الجيش الأميركي باستخدام الّذكاء الاصطناعي، لحقه خطاب متلفز في أيلول 2017 للرّئيس الرّوسي فلاديمير بوتين الذي نادى مصرّحاً: “إنّ أول دولة تُطوَّر ذكاءً اصطناعياً حقيقياً… ستحكم العالم”. عندها تسابقت الدّول الكبرى متسارعة في ما بينها، وأبدت اهتماماً كبيراً لتطوير الاستخدام العسكري للذّكاء الاصطناعي.
وإذ بهذا التّطور يتجلّى في الحروب المستحدثة، فالحرب الرّوسية الأوكرانيّة، تعدُّ أول صراع في التّاريخ، يستخدم فيه كلا الجانبين، الذّكاء الاصطناعي، حيث استخدمت روسيا الذّكاء الاصطناعي لشنّ هجمات إلكترونيّة، وفي المسار نفسه استخدمت أوكرانيا أيضاً، تقنية التعرّف على الوجه لرصد العملاء والجنود الرّوس، فضلاً عن تحليل استراتيجيات الاستخبارات والتّخطيط.
ورغم المساعي المقدّمة من الذّكاء الاصطناعي.. إلاّ أنّه كما غيره من الوسائل المتاحة في الحروب؛ ليس بتقنية ضروريّة ينبغي استخدامها دون قيود خاصةً في الجيش. ولعلّ التحذير الأكثر شهرة لتأكيد النّظريّة، يأتي من عالم الفيزياء ستيفن هوكينغ: “الذّكاء الاصطناعي قد يؤدي إلى نهاية البشريّة”.
كما يرمز فيلم SF Terminator، إلى المستقبل الذي يفقد فيه الذّكاء الاصطناعي المسلح السّيطرة على البشر، معيداً الفكرة نفسها مراراً وتكراراً.
إذاً، بالرّغم من تنبؤات مخاطره، ما هي مزاياه، خاصةً في الاستخدام العسكري له؟ وكيف سيتمّ استخدامه في الحروب المستقبلية؟
بوضوح نرصد، بأنّ لهذا الاستخدام العسكري للذّكاء الاصطناعي فوائد جمّة، تتبلوَر في معالجة أسرع للمعلومات، وكذلك اتخاذ قرارات أسرع، بالإضافة إلى بروز الأسلحة الذّاتيّة، ناهيك عن استخدامه في الحرب المعرفيّة.
وهذه المرصودات نراها عند مناقشة البعض للتطبيقات العسكريّة للذكاء الاصطناعي، حيث تركز المناقشات على بعض هذه الاستخدامات منها وأهمها وأكثرها إجراماً وفتكاً وسفكاً للأرواح: “اللافندر”!
فهذا النّظام المسمّى “اللافندر”، ليس باسمٍ على مسمّى قط، رائحته مليئة بالدّم المسفوك. استعمله العدو الإسرائيلي مستعيناً بالذّكاء الاصطناعي، لتحديد 37 ألف هدفاً محتملاً، حيث تتمّ تغذيته بالبيانات السّريّة، ليقوم باختيار الأهداف التي يُراد قصفها في قطاع غزة، والتي تشمل الجماعات المسلحة وقادتها.
إنّ توفر هذه الشّهادات الصّريحة، بشكل غير عادي لعدوّ يُعرَف بإنكاره لجرائمه، يعتبر لمحة نادرة عن التّجارب المباشرة، لمسؤولي المخابرات الإسرائيليّة، الذين كانوا يستخدمون أنظمة التّعلم الآلي للمساعدة في تحديد الأهداف خلال الحروب الحديثة…
لا بدّ من الإشارة بعد تلك الجرأة في استخدام “إسرائيل” لأنظمة الذّكاء الاصطناعي القويّة في حربها على حماس بأنّ المنطقة ستدخل في دوّامة مجهولة بالنّسبة للحرب المتقدّمة، الأمر الذي سيؤدي إلى إثارة مجموعة من الأسئلة القانونيّة والأخلاقيّة التي ستحدث تحوّلاً في العلاقة بين الأفراد العسكريين والآلات.
تعقيباً على ذلك، قال أحد ضباط المخابرات الذين استخدموا “لافندر”: “هذا أمر لا مثيل له في ذاكرتي”، مضيفاً: “لديّ ثقة أكبر في الآلية الإحصائيّة مقارنة بالجنديّ الحزين”.
“الجميع هناك، بما فيهم أنا، فقدوا أشخاصاً في 7 أكتوبر/ تشرين الأول. لقد فعلت الآلة ذلك ببرود. وهذا جعل الأمر أسهل. “تتضمّن الرّوايات شهادة مباشرة عن كيفيّة عمل ضباط المخابرات مع لافندر وكيف يمكن تعديل مدى وصول شبكتها فقد قال أحد المصادر: “في ذروته، تمكن النظام من تجنيد 37 ألف شخص كأهداف بشرية محتملة”. لكن الأرقام تتغيّر طوال الوقت، لأنّ ذلك يعتمد على المكان الذي تحدّد فيه هوية عميل حماس”.
وأضافوا: “كانت هناك أوقات تمّ فيها تعريف ناشط حماس على نطاق أوسع، وبعد ذلك بدأت الآلة تجلب لنا جميع أنواع أفراد الدفاع المدني، وضباط الشرطة، الذين سيكون من العار أن نهدر القنابل عليهم. إنهم يساعدون حكومة حماس، لكنهم لا يعرّضون الجنود للخطر حقاً”.
وتساءل مستخدم آخر للافندر قائلاً: “سأستثمر 20 ثانية لكلّ هدف في هذه المرحلة، وأقوم بالعشرات منها كلّ يوم. لم يكن لديّ أيّ قيمة مضافة كإنسان، باستثناء كوني ختم الموافقة. لقد وفّر الكثير من الوقت.” مركزاً في قوله عمّا إذا كان دور البشر في عملية الاختيار ذا معنى.
ففي العمليّات العسكريّة السّابقة التي نفذها الجيش الإسرائيلي، كان إنتاج الأهداف البشرية في كثير من الأحيان عمليّة تتطلب عمالة كثيفة، إلى أن أتت هذه الوسيلة الشّرسة واختصرت من التّعب البشري.
وقالت مصادر متعدّدة، التي وصفت تطوّر الأهداف في الحروب السّابقة لصحيفة “الغارديان”، بأنّ قرار “تجريم” فرد ما، أو تحديده كهدف مشروع، ستتمّ مناقشته ثمّ التّوقيع عليه من قبل مستشار قانوني. ففي الأشهر التي تلت 7 أكتوبر/ تشرين الأول تسارعت بشكل كبير وتيرة هذا النموذج للموافقة على الضّربات خاصة على أهداف بشرية. وقالت المصادر نفسها إنّه مع اشتداد قصف الجيش الإسرائيلي لغزة، طالب القادة بسلسلة مستمرة من الأهداف.
وبعد عجائب هذا النّظام ورائحته المليئة بالشّرور، عكس تسميته، نلاحظ بأنّ التّفاصيل حول أنواع البيانات المحدّدة المستخدمة لتدريب خوارزميّاته، أو كيفيّة وصول البرنامج إلى استنتاجاته، ليست معروفة.
ومع ذلك، فإنّ التّقارير تشير إلى أنّه خلال الأسابيع القليلة الأولى من الحرب، قامت الوحدة 8200، بتحسين خوارزمية لافندر وتعديل معايير البحث الخاصة بها.
وقالت المصادر إنّه بعد أخذ عينات عشوائيّة والتّحقق من توقعاتها، خلصت الوحدة إلى أن لافندر حقق معدل دقّة بنسبة 90%، ممّا دفع الجيش الإسرائيليّ إلى الموافقة على استخدامه الشّامل كأداة توصية مستهدفة.
وأضافوا أنّ لافندر أنشأ قاعدة بيانات، تضمّ عشرات الآلاف من الأفراد الذين تمّ تصنيفهم على أنّهم أعضاء من ذوي الرّتب المنخفضة في الجناح العسكري لحماس. وقد تمّ استخدام هذا جنباً إلى جنب مع نظام آخر لدعم القرار يعتمد على الذّكاء الاصطناعي، يُسمى “الإنجيل”، والذي أوصى بالمباني والهياكل كأهداف وليس كأفراد.
بمطالعة كلّ ما سبق يمكننا الاستنتاج بأنّ استخدام الذّكاء الاصطناعي في الحروب العسكريّة، يمثّل فرصة وتحدّياً على حدّ سواء.
فمن ناحية هو (فرصة)، يمكن الحديث عن انّ تقنيات الذّكاء الاصطناعي تعزّز القدرات العسكريّة بشكل كبير، من خلال تحسين عمليات صنع القرار، وإتمام المهام الروتينيّة، وزيادة القدرات البشريّة في ساحة المعركة كما يمكن لأنظمته معالجة كميات هائلة من البيانات في الوقت الفعلي، مما يتيح إدراكاً ظرفياً أسرع وأكثر دقّة. ويمكنه أيضاً المساعدة في التّخطيط للعمليّات العسكريّة، وتحسين تخصيص الموارد، وحتى التّحكم بشكل مستقلّ في المركبات غير المأهولة أو الطّائرات بدون طيّار.
علاوة على ذلك، يمكن للذكاء الاصطناعي أن يقلل من المخاطر التي تهدّد حياة البشر من خلال استبدال البشر في المهام الخطرة. على سبيل المثال، يمكن نشر طائرات بدون طيّار ذاتيّة التحكم في مهام الاستطلاع أو القتال دون المخاطرة بحياة الطيارين أو الجنود، وهذا يمكن أن يؤدّي إلى عملياّت عسكرية أكثر كفاءة وفعاليّة.
ومن ناحية (التّحدّي)، فإنّ استخدام الذكاء الاصطناعي في الحروب العسكريّة يثير مخاوف أخلاقيّة وقانونيّة واستراتيجيّة كبيرة، فأحد أبرز المخاوف الرئيسيّة، إمكانيّة قيام أنظمة الذّكاء الاصطناعي، باتخاذ قرارات مستقلة قد تؤدي إلى عواقب وخيمة غير مقصودة، أو انتهاكات للقانون الإنساني الدّولي بسبب افتقاره إلى الرّقابة البشريّة، بالاضافة لوجود مخاطر مرتبطة بعسكرة الذّكاء الاصطناعي، بما في ذلك احتمال حدوث سباق تسلّح للذّكاء الاصطناعي بين الدّول، ممّا يؤدّي إلى زيادة التّوترات وعدم الاستقرار. كما أنّ الاعتماد الكلّي على أنظمة الذّكاء الاصطناعي يثير أيضاً مخاوف تتعلق بالأمن السيبراني، حيث قد تكون هذه الأنظمة عرضة للقرصنة أو التّلاعب من قبل الخصوم.
في الختام، رغم أنّ الذّكاء الاصطناعي لديه القدرة على إحداث ثورة في العمليّات العسكريّة، إلاّ أنّ استخدامه والتّعامل معه يجب أن يتمّ بحذر ودراسة متأنية، لما يتضمّنه من مساوئ وآثار لا أخلاقيّة وغير قانونيّة. كما ينبغي وضع الضّمانات اللاّزمة، للتأكُّد التّام من السّيطرة البشريّة والمساءلة في حال الأنشطة العسكريّة التي تعتمد على الذّكاء الاصطناعي، والتعاون الدّولي ضروري لمواجهة التّحديات التي تفرضها عسكرة الذّكاء الاصطناعي.
هل سيكون استعمال الذكاء الاصطناعي سبباً لتتحوّل نصف الكرة الأرضية الى غزة؟

يقول كريستيان لوس لانج المؤرّخ، المعلّم، العالم السّياسي المتوفي عام 1938: “التكنولوجيا خادم مفيد لكنّه سيد خطير”… فما قوله الآن في زمننا الحالي مع اللافندر وأمثاله…؟

مقالات ذات صلة

شاهد أيضاً
إغلاق
زر الذهاب إلى الأعلى