You are currently viewing الحرب في عصر الذكاء الاصطناعي.  وتستخدم إسرائيل الذكاء الاصطناعي في عدوانها على غزة

الحرب في عصر الذكاء الاصطناعي. وتستخدم إسرائيل الذكاء الاصطناعي في عدوانها على غزة

يلعب الذكاء الاصطناعي دورًا مهمًا، ومثيرًا للقلق للغاية في بعض النواحي، في حرب إسرائيل في غزة، حيث تشير تقارير التحقيق الأخيرة إلى أن الجيش الإسرائيلي سمح لبرنامج للذكاء الاصطناعي بأخذ زمام المبادرة في مهاجمة الآلاف من نشطاء حماس في الأيام الأولى من عام 2018. الحرب. وربما لعب دوراً في عمليات القتل المتهورة وغير الدقيقة والدمار المتفشي ومقتل الآلاف من المدنيين.

ويرفض جيش الاحتلال الإسرائيلي هذا الادعاء بشكل قاطع، في حين رسم تقرير لموقع Business Insider الأمريكي صورة مروعة عن الوجهة التي يمكن أن تتجه إليها الحرب.

مستقبل مرعب

وقال ميك رايان، وهو لواء أسترالي متقاعد وخبير استراتيجي يركز على التطورات في الحرب، لـ BI: “إن قرار قتل إنسان هو قرار كبير للغاية”.

وفي وقت سابق من هذا الشهر، كشف تحقيق مشترك أجرته مجلة +972 و Local Call أن قوات الاحتلال الإسرائيلية استخدمت برنامج ذكاء اصطناعي يسمى “لافندر” لإنشاء أهداف محتملة لحركة حماس في قطاع غزة، نقلا عن مقابلات مع ستة مسؤولين في المخابرات الإسرائيلية مجهولين.

ويزعم التقرير أن الجيش الإسرائيلي اعتمد بشكل كبير على لافندر وتعامل بشكل أساسي مع معلوماته حول من يجب قتله “كما لو كان قرارا إنسانيا”، قالت المصادر. وقالت المصادر إن الجيش الإسرائيلي وافق بشكل فعال على قرار الآلة. ولم يستغرق الأمر سوى بضع ثوان ليحكم بنفسه.
وخلص التحقيق المشترك إلى أن سرعة الهجمات الإسرائيلية لم تفعل الكثير لتقليل الأضرار التي لحقت بالمدنيين القريبين. وفي الخريف الماضي، ظهرت تفاصيل برنامج الإنجيل الإسرائيلي، وأظهرت أن النظام قد زاد القدرة الإنتاجية المستهدفة لإسرائيل من حوالي 50 سنوياً إلى أكثر. من 100 يوميا.

وعندما سُئل عن التقرير بشأن لافندر، أشار مكتب التحقيقات في جيش الدفاع الإسرائيلي إلى بيان نُشر بتاريخ… وأي اتهام آخر يظهر عدم وجود معرفة كافية بعمليات جيش الاحتلال الإسرائيلي”.

ووصف شوشاني النظام بأنه قاعدة بيانات تدقيقية “مصممة لدعم التحليل البشري، وليس استبداله”، ولكن هناك مخاطر محتملة رغم ذلك.

لقد كان انتشار الذكاء الاصطناعي في الحرب واسع النطاق

إسرائيل ليست الدولة الوحيدة التي تستكشف إمكانات الذكاء الاصطناعي في الحرب. ويصاحب هذا البحث تركيز متزايد على استخدام الأنظمة غير المأهولة، كما يشهد العالم بشكل متزايد في أوكرانيا وأماكن أخرى. لم تعد مجرد خيال علمي.

قال بيتر سينجر، خبير حرب المستقبل في مركز الأبحاث New America، لـ BI: “تمامًا كما أصبح الذكاء الاصطناعي أكثر شيوعًا في عملنا وحياتنا الشخصية، كذلك في حروبنا”، موضحًا أننا “نعيش حياة جديدة. الثورة الصناعية.” وكما هو الحال مع الميكنة الأخيرة، فإن عالمنا يتغير، نحو الأفضل والأسوأ.

يتطور الذكاء الاصطناعي بشكل أسرع من الأدوات اللازمة للسيطرة عليه، ويقول الخبراء إن التقارير عن استخدام إسرائيل للخزامى تثير سلسلة من المخاوف التي كانت منذ فترة طويلة محورية في الجدل الدائر حول الذكاء الاصطناعي في حروب المستقبل.

أعطت العديد من الدول، بما في ذلك الولايات المتحدة وروسيا والصين، الأولوية لتنفيذ برامج الذكاء الاصطناعي في جيوشها، ومشروع مافن الأمريكي، الذي خطى خطوات كبيرة منذ عام 2017 لمساعدة القوات المسلحة على الأرض من خلال نشر كميات هائلة من الصواريخ القادمة. المعلومات للبحث عن البيانات هي مجرد مثال واحد. ومع ذلك، فقد تطورت التكنولوجيا في كثير من الأحيان بشكل أسرع مما تستطيع الحكومات مواكبته.

وفقًا لريان، فإن الاتجاه العام هو “أن التكنولوجيا وضرورات ساحة المعركة تتحرك إلى ما هو أبعد من النظر في القضايا القانونية والأخلاقية المحيطة بتطبيق الذكاء الاصطناعي في الحرب”. بمعنى آخر، الأمور تتحرك بسرعة كبيرة. وقال: “قد تمنع الأنظمة الحكومية والبيروقراطية الحالية السياسات المتعلقة بهذه القضايا من مواكبة التقدم”، مضيفًا أنها “قد لا تلحق بالركب أبدًا”.

في نوفمبر/تشرين الثاني الماضي، أعربت عدة حكومات عن قلقها في مؤتمر للأمم المتحدة بشأن الحاجة إلى قوانين جديدة لتنظيم استخدام البرامج القاتلة المستقلة. هذه هي الآلات التي يتم التحكم فيها عن طريق الذكاء الاصطناعي وتشارك في اتخاذ القرارات لقتل الناس.

لكن بعض الدول، وخاصة تلك التي تقود حاليا تطوير ونشر هذه التقنيات، كانت مترددة في فرض قيود جديدة، وعلى وجه الخصوص بدت الولايات المتحدة وروسيا وإسرائيل مترددة بشكل خاص في اعتماد قوانين دولية جديدة لدعم هذه المسألة.

وقال بول شار، خبير الأسلحة المستقلة في مركز الأمن الأمريكي الجديد، لـ BI: “قال العديد من الجيوش: ثقوا بنا، سنكون مسؤولين عن هذه التكنولوجيا”. ولكن في غياب الرقابة، من غير المرجح أن يثق كثير من الناس في استخدام الذكاء الاصطناعي من قبل بعض البلدان، مثل إسرائيل، التي ليس لديها ثقة كبيرة في أن الجيوش سوف تستخدم دائما التكنولوجيا الجديدة بشكل مسؤول.

وقال شاري إن برنامجًا مثل Lavender لا يبدو مثل الخيال العلمي ويتوافق تمامًا مع الطريقة التي تريد بها الجيوش العالمية استخدام الذكاء الاصطناعي. واتخاذ القرارات بشأن الأهداف التي يجب مهاجمتها.” “أهداف مثل الدبابات أو قطع المدفعية،” قال لـ BI.

والخطوة التالية هي نقل كل هذه المعلومات إلى خطة استهداف، وربطها بأسلحة أو منصات محددة، ثم اتخاذ الإجراء فعليًا بناءً على الخطة.

وقال شاري إن الأمر يستغرق وقتا طويلا، وفي حالة إسرائيل ربما تكون هناك رغبة في تطوير العديد من الأهداف بسرعة كبيرة. وقد أثار الخبراء مخاوف بشأن دقة برامج الذكاء الاصطناعي المستهدفة. يذكر أن برنامج لافندر الإسرائيلي يسحب البيانات من مجموعة تستخدم قنوات معلومات مختلفة، مثل وسائل التواصل الاجتماعي واستخدام الهاتف، لتحديد الأهداف.

وفي تقرير مجلة +972 والمكالمات المحلية، تقول المصادر أن نسبة دقة البرنامج البالغة 90% تعتبر مقبولة. المشكلة الصارخة هناك هي الـ 10% المتبقية، وهي أخطاء كثيرة بالنظر إلى حجم الحرب الجوية الإسرائيلية والزيادة الكبيرة في الأهداف المتاحة التي يوفرها الذكاء الاصطناعي.

يتعلم الذكاء الاصطناعي دائمًا، للأفضل أو للأسوأ، ومع كل استخدام، تكتسب هذه البرامج المعرفة والخبرة التي تستخدمها بعد ذلك لاتخاذ القرارات المستقبلية. ويشير التقرير إلى أنه بمعدل دقة يصل إلى 90%، يمكن للتعلم الآلي في Lavender تحسين عمليات القتل الصحيحة وغير الصحيحة. “، قال رايان لـ BI. وقال “لا نعرف”.

السماح للذكاء الاصطناعي باتخاذ القرارات في الحرب

في الحروب المستقبلية، يمكن أن يعمل الذكاء الاصطناعي جنبًا إلى جنب مع البشر لمعالجة كميات هائلة من البيانات واقتراح مسارات العمل المحتملة في خضم المعركة، ولكن هناك العديد من الاحتمالات التي يمكن أن تفسد مثل هذه الشراكة.
قد تكون البيانات التي تم جمعها أكثر من أن يتمكن البشر من معالجتها أو فهمها. إذا قام برنامج الذكاء الاصطناعي بمعالجة كميات هائلة من المعلومات لإنشاء قائمة بالأهداف المحتملة، فمن الممكن أن يصل إلى نقطة يصبح فيها الأشخاص سريعين مرهقين وغير قادرين على المساهمة بشكل هادف في عملية صنع القرار. .

هناك أيضًا إمكانية التصرف بسرعة كبيرة ووضع افتراضات بناءً على البيانات، مما يزيد من احتمال حدوث أخطاء، حسبما كتب مستشار اللجنة الدولية للصليب الأحمر والمجموعة المسلحة، روبن ستيوارت، والمستشارة القانونية جورجيا هيندز في أكتوبر 2023 حول هذه المسألة.

إعلان
“إحدى الفوائد العسكرية المعلنة للذكاء الاصطناعي هي السرعة الأسرع في اتخاذ القرار التي يوفرها للمستخدم مقارنة بخصمه. وأضافوا أن زيادة الوتيرة غالبا ما تؤدي إلى مخاطر إضافية على المدنيين “ويستخدم الصبر التكتيكي للحد من عدد الضحايا”.
وفي سعيهم للتصرف بسرعة، يمكن للأشخاص رفع أيديهم عن عجلة القيادة والاعتماد على الذكاء الاصطناعي مع القليل من الإشراف، وفقًا لتقرير مجلة +972، وتم تقييم المكالمات المحلية بواسطة الذكاء الاصطناعي لمدة 20 ثانية فقط. عادةً فقط للتأكد من أن جريمة القتل المحتملة كانت ذكرًا، قبل الدعوة للضربة.

تثير التقارير الأخيرة تساؤلات جدية حول مدى “إعلام” الأشخاص أثناء عملية صنع القرار. وفقًا لسينغر، فهو أيضًا “مثال توضيحي محتمل لما يُعرف أحيانًا باسم “تحيز الآلة”، وهو الموقف الذي “يخدع فيه الإنسان نفسه بالاعتقاد أنه نظرًا لأن الآلة أعطت الإجابة، فلا بد أن تكون الإجابة صحيحة”.
وأضاف سينغر: “لذا، في حين أن البشر “على دراية”، فإنهم لا يقومون بالعمل الذي ينبغي عليهم القيام به”.

في أكتوبر/تشرين الأول، دعا الأمين العام للأمم المتحدة أنطونيو غوتيريس ورئيسة اللجنة الدولية للصليب الأحمر، ميريانا سبولجاريك، الجيوش إلى “التحرك الآن للحفاظ على السيطرة البشرية على استخدام القوة” في القتال.
وقالوا: “يجب الحفاظ على سيطرة الإنسان على قرارات الحياة والموت. إن الاستهداف الذاتي للبشر بواسطة الآلات هو خط أخلاقي يجب ألا نتجاوزه”. “يجب أن يحظر القانون الدولي الآلات التي تتمتع بالقدرة والتقدير على إزهاق الأرواح دون تدخل بشري.”

الوجه الآخر للذكاء الاصطناعي

ولكن على الرغم من وجود مخاطر، إلا أن الذكاء الاصطناعي يمكن أن يكون له العديد من الفوائد العسكرية، مثل مساعدة الناس على معالجة مجموعة واسعة من البيانات والمصادر حتى يتمكنوا من اتخاذ قرارات مستنيرة، وتحرير مجموعة متنوعة من الخيارات للتعامل مع المواقف.

يمكن أن يكون التعاون الهادف بين الإنسان في الحلقة مفيدًا، ولكن في النهاية يعود الأمر إلى إدامة الإنسان لنهاية تلك العلاقة – وبعبارة أخرى، الاحتفاظ بالسلطة والسيطرة على الذكاء الاصطناعي “للإنسان بأكمله طوال وجودنا، لقد كنا مستخدمين “نحن أسياد الآلات، سواء كنت تقود طائرة أو تقود سفينة أو دبابة، ولكن مع العديد من هذه الأنظمة المستقلة والخوارزميات الجديدة، لن تستخدم الجيوش الآلات، بل “ستعمل مع هم.”

العديد من الجيوش غير مستعدة لمثل هذا التحول. وكما كتب رايان وكلينت هينوت في وقت سابق من هذا العام في تعليق لـ “حرب على الصخور”: “في العقد المقبل، يمكن للمؤسسات العسكرية أن تدرك وضعا حيث يفوق عدد الأنظمة غير المأهولة عدد البشر”.

وكتبوا: “في الوقت الحالي، تم تصميم تكتيكات المنظمات العسكرية ونماذج التدريب والقيادة الخاصة بها للمؤسسات العسكرية التي هي في المقام الأول بشرية، ويمارس هؤلاء البشر سيطرة وثيقة على الآلات”.

وقالوا: “إن تغيير التعليم والتدريب لإعداد الناس للتعامل مع الآلات – وليس مجرد استخدامها – يعد تطورًا ثقافيًا ضروريًا ولكنه صعب”. لكن هذا لا يزال عملاً قيد التقدم بالنسبة للعديد من الجيوش.

اترك تعليقاً