جرائم الحرب الإسرائيلية في غزة تظهر الخطر الحقيقي للذكاء الاصطناعي

إن الخطر الأكثر إلحاحًا من الذكاء الاصطناعي ليس سيناريو خيال علمي تتولى فيه الآلات السيطرة على البشر، بل هو استخدام الذكاء الاصطناعي كأداة لتنفيذ الفظائع التي هي من صنع الإنسان بنسبة 100 بالمئة، هو أمر يمكن أن نراه يحدث الآن في غزة.

للحظة وجيزة في عام 2023؛ بدا أن أكبر تهديد وجودي للبشرية لا يأتي من التغير المناخي البشري المنشأ، بل من شبح آخر من صنع الإنسان: الذكاء الاصطناعي. وكان إيذانًا بهذه النكهة البائسة الجديدة إطلاق شركة “أوبن إيه آي” لتطبيق شات جي بي تي 3، وهو نموذج لغوي كبير “LLM”، قادر على توليد تسلسلات طويلة من النصوص التنبؤية بناءً على مطالبات بشرية.

وفي الأسابيع التالية؛ وبينما كان الناس في جميع أنحاء العالم يستهلكون مليارات الكيلوواط من الطاقة في إرسال مطالبات مثل ”أعد كتابة أجزاء حرب النجوم حيث يكون جار جار جار بينكس هو في الواقع سيث لورد سري“؛ أصبح الخطاب العام مزدحمًا بمجموعة من التكهنات التكنولوجية والتجارب الفكرية الفلسفية وحبكات الخيال العلمي الهاوية حول الآلات الواعية.

ونشرت وسائل الإعلام الرئيسية مقالات رأي مثل ”هل يمكننا إيقاف الذكاء الاصطناعي الهارب؟“، و”ما الذي أطلقه البشر للتو؟“، وسارعت الحكومات في جميع أنحاء الغرب إلى تشكيل لجان رقابية، وتبنى كل شخص خبير بالتكنولوجيا لغة عامية جديدة بين عشية وضحاها تقريبًا، واستبدل مصطلحات مثل ”التعلم الآلي“ و”علم البيانات“ بـ”الذكاء الاصطناعي“.

وفي الوقت الذي أثار فيه إطلاق أوبن إيه آي سباق تسلح بين عمالقة التكنولوجيا مثل جوجل وأمازون وميتا، وقّع بعض التقنيين البارزين، مثل إيلون ماسك وستيف وزنياك، على رسالة مفتوحة تحذر من المستقبل المشؤوم للذكاء الاصطناعي غير الخاضع للرقابة، وحثوا جميع مختبرات الذكاء الاصطناعي على وقف تجاربهم حتى تتمكن أجهزتنا التنظيمية (وأخلاقياتنا) من اللحاق بالركب. وعلى صفحات نيويورك تايمز وسوبستاك المنقوصة، تصارع المثقفون العامون علانية مع المآزق الأخلاقية التي يطرحها شبح الذكاء الاصطناعي كلي القدرة.

وعلى الرغم من أن أكثر المعززين المتحمسين للذكاء الاصطناعي والمتخوفين من شبح الذكاء الاصطناعي بالغوا على الأرجح في تقدير قدرات الذكاء الاصطناعي وسرعة التطورات البحثية في هذا المجال، إلا أنهم أثاروا مجموعة من الأسئلة الأخلاقية المهمة حول دور التكنولوجيا في المجتمع. إلا أن طرح هذه الأسئلة بصيغة المستقبل حول ما يجب أن نفعله إذا ومتى وصلنا إلى نقطة افتراضية بعيدة في مجال التكنولوجيا، يتخلى عن مسؤوليتنا في الوقت الحاضر فيما يتعلق بالطرق التي نستخدم بها التكنولوجيا حاليًا وكيف يمكن أن يكون هذا الاعتماد على التكنولوجيا قد عرّض البشرية للخطر بالفعل.

ربما ينبغي لنا أن نكون يقظين بشكل خاص بشأن استخدام التكنولوجيا في الأمن السيبراني والحرب، ليس فقط بسبب المخاطر الأخلاقية الواضحة ولكن أيضًا لأن أوبن إيه آي عينت مؤخرًا جنرالًا متقاعدًا في الجيش الأمريكي ومستشارًا سابقًا في وكالة الأمن القومي الأمريكي في مجلس إدارتها. إن أفضل طريقة للاستعداد لمستقبل محفوف بالمخاطر تجلبه الآلات هو ملاحظة أن هذا المستقبل موجود بالفعل؛ وهو يحدث الآن في غزة.

حرب “إسرائيل” على غزة

في سلسلة من التحقيقات الرائدة، سلّطت المجلات الإسرائيلية مثل +972 و”النداء المحلي” الضوء على الدور الواسع للذكاء الاصطناعي في الحملة العسكرية الإسرائيلية على غزة التي بدأت في 8 تشرين الأول/أكتوبر 2023، والتي أطلقت عليها “إسرائيل” اسم عملية “سيوف الحديد”. وبالاعتماد بشكل كبير على شهادات ستة مصادر مجهولة داخل الجيش الإسرائيلي، وجميعهم لديهم خبرة مباشرة في هذه التكنولوجيا، يصف مراسل التحقيقات الاستقصائية يوفال أبراهام ثلاثة أنظمة خوارزمية يستخدمها الجيش الإسرائيلي: “الإنجيل” و”لافندر” و”أين أبي؟” على الرغم من أننا لا نستطيع التحقق بشكل مستقل من أي من الادعاءات التي قدمتها مصادر أبراهام، إلا أننا سنفترض صحتها خلال هذه المقالة.

ووفقًا لمصادر إبراهيم، يولد “الإنجيل” قائمة من الهياكل المادية لاستهدافها، ويولد ”لافندر“ قائمة من البشر لاستهدافهم، بينما ”أين أبي؟“ هو نظام تتبع إضافي يُستخدم بعد ذلك للتنبؤ بموعد دخول الأهداف التي يولدها “لافندر” إلى منازلهم حتى يمكن قصفها.

وقد أشارت جميع مصادر أبراهام، وهم جنود الاحتياط الذين تم تجنيدهم بعد 7 تشرين الأول/أكتوبر، إلى أن هذه الأنظمة – عند استخدامها – لا تخضع لرقابة بشرية تذكر؛ حيث يقوم الجنود في كثير من الأحيان بختم مخرجات النموذج (نفى الجيش الإسرائيلي هذه الادعاءات). ومن خلال تحقيقين؛ يشير أبراهام إلى أن هذه الأنظمة مسؤولة جزئيًا على الأقل عن حجم الدمار غير المسبوق الذي خلفه الهجوم العسكري الحالي، خاصة خلال الأسابيع القليلة الأولى.

وفي الواقع؛ تباهى الجيش الإسرائيلي بإلقاء أربعة آلاف طن من القنابل على قطاع غزة في الأيام الخمسة الأولى من العملية. وباعترافهم هم أنفسهم؛ فإن نصف هذه القنابل تم إسقاطها على ما يسمى بأهداف الطاقة. وأهداف الطاقة هي مبانٍ مدنية غير عسكرية، مثل المباني العامة أو الشقق السكنية الشاهقة الواقعة في مناطق مكتظة يمكن أن تتسبب في حال قصفها في إلحاق أضرار جسيمة بالبنية التحتية المدنية. وفي الواقع؛ يتم اختيارها لهذا السبب بالتحديد.

ويمكن إرجاع المنطق الكامن وراء أهداف القوة إلى عقيدة الضاحية، وهي إستراتيجية عسكرية تشرعن التدمير غير المتناسب للمدنيين، والتي وُضعت خلال حرب “إسرائيل” مع حزب الله في عام 2006 التي دافع عنها قائد الجيش الإسرائيلي في ذلك الوقت، غادي آيزنكوت. وعلى الرغم من أن الجيش الإسرائيلي لم يستخدمها رسميًا ضد الفلسطينيين حتى حملته العسكرية ضد غزة في عام 2014، إلا أن نظام “الإنجيل” سمح بتطبيق عقيدة الضاحية على نطاق أوسع، حيث تمكّن من تحقيق أهداف بمعدل أسرع من قصفها مع الحفاظ على بعض المصداقية الدولية ضد مزاعم القصف العشوائي.

وكرر المتحدث باسم الجيش الإسرائيلي، دانيال هاغاري، بإيجاز عقيدة الضاحية في 10 تشرين الأول/أكتوبر 2023؛ حيث قال: “نحن نركز على ما يسبب أقصى قدر من الضرر”، وهذا يعكس ما قاله آيزنكوت في عام 2008:” سوف نستخدم القوة غير المتناسبة… وسنتسبب في إلحاق ضرر ودمار كبيرين هناك”، وكان آيزنكوت عضوًا في حكومة الحرب الإسرائيلية التي شكلها بنيامين نتنياهو في 11 تشرين الأول/أكتوبر من العام الماضي، إلى أن استقال بعد فترة وجيزة من استقالة بيني غانتس في حزيران/يونيو 2024، مما دفع نتنياهو إلى حل الحكومة.

ويهدف مبدأ التناسب إلى منع الاستخدام المفرط للقوة ضد المدنيين، وهو مبدأ لا يتناسب مع المكاسب العسكرية المنشودة، وهو أحد المبادئ الأساسية للقانون الدولي الإنساني. وفي الممارسة العملية، يصعب إثبات انتهاكات هذا المبدأ، إلا إذا كان مرتكبو هذه الانتهاكات يتباهون بها.

من غير الواضح إلى أي مدى لا يزال الجيش الإسرائيلي يستخدم تكنولوجيا الذكاء الاصطناعي الموصوفة في +972 في المرحلة الحالية من عمليته العسكرية. ومن غير الواضح أيضًا مدى فائدة هذه التكنولوجيا في المرحلة الحالية، نظرًا للدمار الواسع النطاق الذي تسببت فيه “إسرائيل” بالفعل؛ حيث تضررت غالبية المنازل والمستشفيات والمباني الحكومية والمكاتب غير الربحية والمدارس أو دُمِّرت؛ وانقطعت الكهرباء إلى حد كبير؛ وتنقل الفلسطينيين الجوعى والنازحين بشكل متكرر من أماكنهم للهروب من الهجمات الإسرائيلية والعثور على مأوى.

ومع ذلك؛ من الممكن تمامًا أن تستخدم “إسرائيل” الأنظمة نفسها ضد لبنان إذا ما اندلعت حرب أكبر، فلدى “إسرائيل” أيضًا تاريخ طويل في بيع التقنيات العسكرية إلى دول أخرى، بما في ذلك دول أخرى ارتكبت أيضًا انتهاكات لحقوق الإنسان.

الفريق البشري-الآلي

وفي الحملات العسكرية السابقة التي كان يتم فيها اختيار أهداف الاغتيال يدويًا بشكل أكبر، وكان اختيار كل منها يستلزم عملية تجريم مطولة تنطوي على تدقيق المعلومات. وفي حين أن هذه العملية كانت قابلة للإدارة عندما كانت مجموعة الأهداف تشمل فقط مسؤولين رفيعي المستوى في حماس، إلا أنها أصبحت أكثر تعقيدًا عندما وسّع الجيش الإسرائيلي قائمة أهدافه المحتملة لتشمل جميع العناصر ذات الرتب الدنيا سعيًا لتحقيق هدفه المعلن المتمثل في القضاء على حماس. واستخدمت “إسرائيل” هذا الهدف، مهما كان ساميًا، كمبرر لاستخدام الذكاء الاصطناعي لأتمتة عملية تحديد الأهداف وتسريعها.

ونموذج “لافندر” هو نموذج تم تدريبه على تحديد جميع أعضاء حماس والجهاد الإسلامي في فلسطين، بغض النظر عن رتبتهم، بهدف واضح هو إعداد قائمة قتل. ونموذج “لافندر” الذي وصفته مصادر أبراهام يشبه إلى حد كبير ما وصفه رئيس وحدة النخبة 8200 في جيش الدفاع الإسرائيلي في كتاب إلكتروني نُشر ذاتيًا في عام 2021 بعنوان ”فريق الإنسان والآلة: كيفية خلق التآزر بين الذكاء البشري والذكاء الاصطناعي الذي سيحدث ثورة في عالمنا”، تحت الاسم المستعار العميد ي. س.، وقدمه في عرض تقديمي في مؤتمر للذكاء الاصطناعي استضافته جامعة تل أبيب في أوائل عام 2023.

ونظرًا للطبيعة الحساسة للغاية لعمل الوحدة 8200، فإن هوية قائدها عادةً ما تكون سرية طوال فترة عمله. إلا أنه من المفارقات أن هوية القائد الحالي، يوسي سارييل، تم اختراقها من خلال ممارسات القائد السيئة في مجال الأمن السيبراني؛ حيث تم ربط كتابه الإلكتروني المنشور ذاتيًّا بحسابه الشخصي على جوجل.

وحصل أبراهام على شرائح من العرض التقديمي الذي قدمه سارييل في جامعة تل أبيب في عام 2023 عن الذكاء الاصطناعي والذي يتضمن عرضًا مصورًا لنموذج التعلم الآلي، والذي يبدو أنه تم نشره لأول مرة في الحملة العسكرية الإسرائيلية على غزة عام 2021. فالتعلم الآلي هو مجال متعدد التخصصات يجمع بين مفاهيم وتقنيات من الرياضيات وعلوم الحاسوب والإحصاء، وهو يبني نماذج يمكنها تعلّم الأنماط من بيانات التدريب وتعميم هذه النتائج على البيانات الجديدة، وغالبًا ما تكون في شكل تنبؤات أو استنتاجات أخرى.

وتنقسم مشاكل التعلم الآلي عادةً إلى تعلم خاضع للإشراف وتعلم غير خاضع للإشراف، وذلك اعتمادًا على ما إذا كانت بيانات التدريب مصنفة أو غير مصنفة، أو على مقدار الإشراف الذي يحظى به النموذج عند التعلم من بيانات التدريب. وتم تقديم مخطط سارييل بعنوان “التعلّم تحت الإشراف”. ويشير المصطلح على الأرجح إلى “التعلم الإيجابي وغير المسمى”، وهي حالة خاصة من مشاكل التعلم شبه الخاضع للإشراف؛ حيث تتضمن بيانات التدريب لخوارزمية التصنيف تسميات للفئة الإيجابية فقط.

وبالتالي، يجب أن تتعلم خوارزمية التصنيف كيفية التنبؤ بما إذا كانت العينة عضوًا في الفئة الإيجابية أو السلبية بناءً على إمكانية الوصول إلى الأمثلة الإيجابية فقط في بيانات التدريب. في هذه الحالة، تشير الكلمتان “إيجابي” و”سلبي” إلى ما إذا كانت العينة أو الفرد مناضلاً أم لا. وهذا يعني أنه في بيانات التدريب (وربما في الإستراتيجية العسكرية والأيديولوجية العسكرية للجيش الإسرائيلي على نطاق أوسع)؛ لا توجد فئة للمدنيين الفلسطينيين.

وقد جُمعت السمات المستخدمة لتصنيف الأفراد من مجموعة واسعة من مصادر المراقبة، على الأرجح تحت إشراف الوحدة 8200، بما في ذلك سجلات الهاتف، ووسائل التواصل الاجتماعي، والصور، والمراقبة البصرية، والاتصالات الاجتماعية. إن الحجم الهائل من معلومات المراقبة التي تجمعها إسرائيل، وهي واحدة من أبرز مطوري ومصدري التكنولوجيا السيبرانية في العالم، عن الفلسطينيين، ولا سيما في غزة، أمر مذهل، ويجعل من الصعب للغاية فهم سبب عدم تصنيف المدنيين المعروفين تصنيفًا سلبيًا في بيانات التدريب.

وفي عام 2014، وقّع ثلاثة وأربعون من قدامى المحاربين الذين خدموا في الوحدة 8200 على رسالة ينتقدون فيها الوحدة ويرفضون مواصلة الخدمة فيها، قائلين إن ”المعلومات التي يتم جمعها وتخزينها [من قبل الوحدة 8200] تضر بالأبرياء”. وتأتي الكثير من بيانات الحكومة الإسرائيلية وتخزين البيانات والقدرة الحاسوبية من جوجل وأمازون، التي توفرها عقود بمليارات الدولارات لعدة سنوات.

مراكز اتخاذ القرار

على الرغم من أن النماذج تبدو دقيقة، إلا أنها من الناحية العملية غامضة ومرنة بما يكفي لاستيعاب (وإخفاء) العديد من النوايا بسهولة؛ حيث يستلزم بناء نظام ذكاء اصطناعي مجموعة غير محدودة تقريباً من مراكز اتخاذ القرار.

أولًا وقبل كل شيء، تتضمن مراكز اتخاذ القرار هذه تحديد المشكلة، وجمع بيانات التدريب ومعالجتها (بما في ذلك وضع العلامات على العينات)، واختيار الخوارزمية ووضع معاييرها وقيمها، واختيار وهندسة الميزات التي سيتم تضمينها في النموذج، وأخيرًا، عملية تدريب النموذج والتحقق من صحته. وترتبط كل نقطة من نقاط القرار هذه بالتحيزات والافتراضات التي يجب مراعاتها بعناية وموازنتها مع بعضها البعض.

ويتمثل أحد الافتراضات الشائعة للخوارزميات المستخدمة في مشاكل تعلّم وحدة المعالجة المركزية في أن العينات ذات التسميات الإيجابية في مجموعة التدريب يتم اختيارها عشوائيًا تمامًا، بشكل مستقل عن سمات أو سمات العينات. وعلى الرغم من أن هذا الافتراض غالبًا ما يتم انتهاكه في العالم الحقيقي – كما هو الحال بالتأكيد في تصنيف مقاتلي حماس والجهاد الإسلامي – إلا أنه يسمح بمجموعة أكبر من الخيارات بين الخوارزميات.

ومع ذلك؛ في ظل هذا الافتراض، لا يمكن تقدير دقة النموذج، بل يمكن تقدير دقة الاستدعاء فقط. وكلاهما مقياسان إحصائيان للدقة؛ حيث تشير دقة النموذج إلى نسبة التنبؤات الإيجابية التي هي بالفعل – وفقًا للحقيقة الأرضية – إيجابية حقًا، مع الأخذ بعين الاعتبار أي نتائج إيجابية خاطئة قام بها النموذج، في حين يشير استرجاع النموذج إلى نسبة العينات الإيجابية في البيانات التي صنفها النموذج بشكل صحيح.

فالنموذج الافتراضي الذي يتنبأ بأن جميع العينات إيجابية سيكون له استدعاء مثالي (سيحدد بشكل صحيح كامل الفئة الإيجابية بالكامل)، ولكن دقته ضعيفة (سيصنف الفئة السلبية بالكامل بشكل غير صحيح على أنها إيجابية، مما يولد العديد من النتائج الإيجابية الخاطئة). وبالنظر إلى أن الهدف المعلن للحكومة الإسرائيلية منذ 7 تشرين الأول/أكتوبر هو القضاء على حماس، لا يمكن للمرء إلا أن يفترض أن الجيش الإسرائيلي – على الرغم من أنه نأى بنفسه مؤخرًا عن هذا الهدف – مهتم أكثر بتحسين التذكير بالنموذج وليس دقته، حتى لو كان ذلك على حساب توليد المزيد من النتائج الإيجابية الخاطئة (الفشل في اكتشاف المدنيين على هذا النحو).

في الواقع؛ فإن التصريحات المتعددة لنتنياهو وأعضاء حكومة الحرب الإسرائيلية السابقة – ناهيك عن العقاب الجماعي والتدمير الشامل لظروف الحياة في غزة – تلقي بظلال من الشك على ما إذا كان الفلسطينيون الأبرياء موجودين أصلاً كفئة وجودية بالنسبة للجيش الإسرائيلي. فإذا لم يكن هناك فلسطينيون أبرياء، فإن أي قياس لدقة النموذج لا لزوم له.

ومن المثير للقلق أن مصادر أبراهام تشير إلى أن مجموعة التدريب لا تشمل فقط مقاتلين معروفين من حماس والجهاد الإسلامي في فلسطين بل أيضًا موظفين مدنيين يعملون في وزارة الأمن في غزة ويساعدون في إدارة الحكومة التي تديرها حماس ولكنهم ليسوا أعضاء في حماس، ولا حتى نشطاء سياسيين على الإطلاق.

ولن يكون من المستغرب أن يصنف الجيش الإسرائيلي الموظفين المدنيين الذين يعملون في حكومة حماس كأعداء لإسرائيل، نظراً للتعريف الواسع المعروف عن الجيش الإسرائيلي للإرهابي. ولكن هذا من شأنه أيضًا أن يخلق مشكلة خطيرة للنموذج، على افتراض أنه تم تدريبه في الواقع على بيانات إيجابية وغير مصنفة فقط. إذا تم تصنيف هذه العينات على أنها إيجابية، فهذا يعني أن النموذج سيتعلم ربط السمات المشتركة بين الموظفين المدنيين بالفئة الإيجابية، مما يؤدي إلى تصنيفات خاطئة.

في الواقع، وفقًا لمصادر أبراهام، يستهدف “لافندر” بشكل خاطئ المدنيين الذين يشتركون في الاسم نفسه مع أحد المسلحين المشتبه بهم، أو لديهم أنماط اتصال مرتبطة بشكل كبير مع مسلحين مشتبه بهم من حماس (مثل موظفي الخدمة المدنية)، أو تلقوا هاتفًا محمولًا كان مرتبطًا في السابق بمسلح مشتبه به من حماس. وعلى الرغم من أنه من المعروف أن النموذج يرتكب أخطاءً بنسبة 10 بالمئة تقريبًا من الوقت، إلا أنه لا يتم التدقيق في المخرجات باستثناء الحاجة العرضية للتأكد من أن المستهدفين ذكور (بشكل عام، يفترض جيش الدفاع الإسرائيلي أن معظم الذكور، حتى الأطفال، هم من المسلحين).

ولأن النموذج يتنبأ باحتمالية أن يكون فرد معين متشددًا، يمكن تقصير أو إطالة قائمة الأهداف، أو المتشددين المفترضين، عن طريق تغيير العتبة التي يتم عندها تحويل هذا الاحتمال إلى متغير ثنائي، متشدد أو لا. هل يُفترض أن يكون الشخص الذي يبلغ احتمال كونه متشددًا بنسبة 70 في المئة؟ أكثر بقليل من 50 بالمئة؟ لا نعرف، لكن الإجابة قد تتغير من يوم لآخر أو من أسبوع لآخر.

من الناحية العملية؛ يمكنك تعديل العتبة لتوليد عدد الأهداف التي تريدها، سواء لأنك، كما أوضح أحد مصادر أبراهام، تتعرض لضغوط ”لجلب … المزيد من الأهداف“ أو لأنك بحاجة إلى تقليص عدد الأهداف مؤقتًا بسبب الضغط الأمريكي.

قوائم القتل

وعلى الرغم من أننا لا نعرف نطاق العتبات المستخدمة، أو نطاق الاحتمالات التي يولدها النموذج، إلا أننا نعرف، بفضل تقارير أبراهام، أن العتبات كانت تتغير بالفعل بانتظام، أحيانًا بشكل تعسفي وأحيانًا بشكل صريح لجعل القائمة أطول. وغالبًا ما كانت هذه التغييرات تُجرى من قبل ضباط عسكريين ذوي رتب منخفضة لا يملكون رؤية ثاقبة في الأعمال الداخلية للنموذج وغير مخولين بوضع إستراتيجية عسكرية.

وهذا يعني أن الفنيين ذوي الرتب المنخفضة مخولون بتحديد العتبات التي يعيش أو يموت عندها الناس. وبالنظر إلى أن الأهداف يتم قصفها عمدًا في منازلها، فإن تغيير عتبة معينة بهامش صغير يمكن أن يؤدي بشكل معقول إلى زيادة مضاعفة في عدد الضحايا المدنيين.

ومن خلال تغيير الخصائص، أو بيانات التدريب، أو – بكل بساطة وسهولة – عتبة الاحتمالات التي يتم عندها تصنيف الأشخاص كمقاتلين، ويمكن للمرء أن يهيئ النموذج لتقديم أي مخرجات مرغوبة بشكل أساسي مع الحفاظ على إمكانية الإنكار المعقول بأنه يستند إلى قرار متحيز وغير موضوعي.

ويتم تغذية قائمة القتل التي تم إنشاؤها بواسطة “لافندر” في نظام مساعد، “أين أبي؟”، على الرغم من أن الجيش الإسرائيلي لم يقصف في الماضي سوى كبار المسؤولين العسكريين في منازلهم، إلا أن جميع الأهداف – بما في ذلك نشطاء حماس المفترضين من ذوي الرتب المنخفضة، وبسبب خطأ في النموذج، المدنيين الفلسطينيين الذين تم تصنيفهم بشكل خاطئ – تم قصفهم عمدًا في منازلهم خلال عملية “سيوف الحديد”.

إن القصف المتعمد للمنازل التي لا يوجد فيها أي نشاط عسكري ينتهك بشكل مباشر مبدأ التناسب؛ حيث إن القيام بذلك يؤدي حتمًا إلى زيادة عدد القتلى من المدنيين ويتعارض مع ادعاء الجيش الإسرائيلي المستمر بأن استخدام حماس للمدنيين كـ”دروع بشرية” هو المسؤول عن عدد القتلى في غزة.

ويشير أبراهام أيضًا إلى أن هذه الأنظمة المتشابكة – والقرارات البشرية التي تقوم عليها – قد تكون السبب في إبادة عشرات العائلات بالكامل. وسواء كانت النية الصريحة لمسؤولي جيش الدفاع الإسرائيلي بإبادة عائلات بأكملها لا تبدو ذات أهمية كبيرة إذا كان هناك إجراء معمول به يقوم بذلك بشكل منهجي.

وعلاوة على ذلك، فقد تم اتخاذ القرار باستخدام قنابل “غبية” غير موجهة عند قصف هذه الأهداف، مما أدى إلى المزيد من الأضرار الجانبية أو الخسائر في صفوف المدنيين، على الرغم من حقيقة أن “إسرائيل” تمتلك أحد أكثر الجيوش تطورًا وتجهيزًا في العالم. وقد برر الجيش الإسرائيلي هذا القرار على أساس الحفاظ على الأسلحة باهظة الثمن مثل الصواريخ الموجهة بدقة، على الرغم من أنه يفعل ذلك مباشرة على حساب التضحية بالمزيد من الأرواح البشرية. وتهتم “إسرائيل” بتوفير المال للقنابل (التي تمتلك منها إمدادات لا نهائية تقريبًا) أكثر من اهتمامها بإنقاذ حياة الفلسطينيين الأبرياء.

الغطاء التكنولوجي

من الواضح أن عملية “سيوف الحديد” لا تعتمد على هذه الأنظمة في الدقة، فعدد القتلى المدنيين يشير بوضوح إلى أنه لا الأهداف التي يتم إنشاؤها بواسطة الذكاء الاصطناعي ولا الأسلحة دقيقة (بالطبع، هذا يعني أن هذا يعني أن نأخذ هدف “إسرائيل” المتمثل في القضاء على المسلحين فقط في ظاهره). ما توفره، بدلًا من الدقة، هو الحجم والكفاءة – فمن الأسهل والأسرع بكثير بالنسبة للآلة توليد الأهداف أكثر من الإنسان – بالإضافة إلى توفير غطاء تكنولوجي للاختباء وراءه.

ولأنه لا يوجد شخص واحد مسؤول عن توليد الهدف، فإن جميع المشاركين في العملية يتمتعون بإمكانية الإنكار. ولأنه قد يكون من الأسهل أن نضع الثقة والإيمان في الآلة، التي غالبًا ما ننسب إليها العصمة والموضوعية بشكل خاطئ، أكثر من إنسان ناقص تهزه العواطف (وهذا ما تؤكده بالفعل بعض مصادر أبراهام)، فقد نولي قرارات الآلة تدقيقًا أقل.

هذا هو الحال حتى لو كان من الممكن النظر إلى قرارات الآلة هذه بدقة أكبر على أنها قرارات بشرية يتم تنفيذها وأتمتتها بواسطة آلة. في الواقع، على الرغم من أن الجنود الذين قابلهم أبراهام يشيرون إلى أن هذه الأنظمة قد حلت محل عملية صنع القرار البشري، إلا أن ما يبدو أن ما فعلته هذه الأنظمة في الواقع هو التعتيم على ذلك.

لقد كان قرارًا بشريًا بالسماح بوقوع ”أضرار جانبية“ تصل إلى عشرين شخصًا لأهداف مفترضة من المستوى الصغير ومائة شخص لأهداف مفترضة من المستوى الكبير. لقد كان قرارًا بشريًا بقصف منازل الأهداف المبتدئة، وتحسين التذكير وليس الدقة، ونشر نموذج بمعدل خطأ لا يقل عن 10 في المائة وتطبيق عتبات اعتباطية تحدد الحياة والموت.

وقرر البشر استخدام بيانات مشوشة للغاية لتوليد ميزات للنموذج، وتصنيف الموظفين المدنيين كمقاتلين من حماس، و”التخلص من عنق الزجاجة البشري” في توليد الأهداف لتوليد أهداف بمعدل أسرع من إمكانية قصفها. كما قرروا استهداف المباني المدنية في المناطق المكتظة واستخدام قنابل غير موجهة لضرب هذه الأهداف، مما أدى إلى المزيد من الأضرار الجانبية.

ويلعب التجريد من الإنسانية وتوزيع المسؤولية دورًا قويًا في تفسير كيفية ارتكاب الفظائع، لا سيما على نطاق واسع. فمن خلال اختزال مجموعة كاملة من السكان إلى مجموعة من الأرقام واستخدام الآلات لبناء “مصنع الاغتيالات الجماعية“، تساعد أنظمة الذكاء الاصطناعي هذه في توفير بعض الآليات النفسية اللازمة لارتكاب أنواع الفظائع التي رأيناها على مدار الأشهر التسعة الماضية في غزة.

الاستعانة بمصادر خارجية للسيطرة

ويخفي الجيش الإسرائيلي منطق الإبادة الجماعية وراء قشرة متطورة من التكنولوجيا، على أمل أن يضفي ذلك بعض الشرعية على أعماله العسكرية مع إخفاء الواقع الوحشي لحربه غير المتكافئة. وقد فعل ذلك بالضبط في منتصف تشرين الأول/أكتوبر 2023، عندما منح المسؤولون الإسرائيليون مراسلي صحيفة نيويورك تايمز إمكانية وصول محدودة إلى مخرجات أنظمة تتبع البيانات الخاصة بهم، “على أمل أن يظهروا أنهم يفعلون ما في وسعهم للحد من الأضرار التي تلحق بالمدنيين”. في الشهر الأول من الحرب، قُتل أكثر من 10,000 فلسطيني على يد “إسرائيل”، من بينهم 4,000 طفل و2,700 امرأة.

ويجب علينا أن نأخذ على محمل الجد التناقض بين “الفريق البشري-الآلي” الذي يتصوره العميد ي. س. في كتابه وبين أنظمة الذكاء الاصطناعي التي تم نشرها تحت قيادة يوسي سارييل. فما يفعله النموذج المثالي من الناحية النظرية، والذي يبدو في كثير من الأحيان معقولاً وحميداً، سيكون دائماً مختلفاً عما يفعله النموذج على أرض الواقع.

ما يفصل بينهما، في جزء كبير منه، هو سلسلة من القرارات البشرية الغامضة والمقتضيات الخارجية، بعضها يبدو تافهًا، وبعضها ضمنيًا، وبعضها الآخر مهم. ولا تتحمل النماذج المسؤولية الأخلاقية عن القرارات المؤتمتة التي تتخذها النماذج، بل يتحملها الوكلاء البشريون الذين يختارونها ويدربونها وينشرونها، وكذلك البشر الذين يتركونها تحدث دون أن يحركوا ساكناً.

وبما أن الذكاء الاصطناعي أصبح جزءًا لا يتجزأ من الطريقة التي تعمل بها حياتنا اليومية ومجتمعاتنا الأوسع نطاقًا، يجب أن نتأكد من أننا لا نتجاهل أو نتخلى عن المسؤولية الأخلاقية عما تقوم به نماذج الذكاء الاصطناعي. ونظرًا لأن النماذج التوليدية مثل شات جي بي تي تفتح الباب أمام أتمتة التعلم الآلي نفسه، يجب أن نكون حذرين بشكل خاص.

ولا يكمن الخطر الأكثر إلحاحًا في الذكاء الاصطناعي في أن الآلات ستطور ذكاءً جامحًا وتبدأ في التصرف خارج نطاق السيطرة البشرية. بل هو أن نصبح نحن، كبشر، معتمدين أكثر من اللازم على الذكاء الاصطناعي، ونستغني طواعية عن عملية صنع القرار والتحكم. وكما هو الحال دائمًا، نحن أكبر تهديد لإنسانيتنا، وليس الآلات.