Skip to main content

أسئلة وأجوبة: استخدام الجيش الإسرائيلي للأدوات الرقميّة في غزّة

 

اختصاصي تكنولوجي لدى وحدة "ماتزبن" للبيانات والتطبيقات التشغيلية التابعة للجيش الإسرائيلي يعمل على مكتبه، في قاعدة عسكرية للجيش الإسرائيلي في رمات غان، إسرائيل في 11 يونيو/حزيران 2023.  ©2023 نير إلياس/رويترز

بعد الهجوم الذي شنته الجماعات الفلسطينيّة بقيادة "حماس" على جنوب إسرائيل يوم 7 أكتوبر/تشرين الأوّل 2023، راجت تقاريرمستفيضة عن استخدام الجيش الإسرائيلي لأدوات رقميّة في عمليّاته في قطاع غزة. أفادت تقارير أنّ الجيش الإسرائيلي يستخدم تقنيات مراقبة والذكاء الاصطناعي وأدوات رقميّة أخرى لتحديد من أو ما سيهاجمه في غزة ومتى.

وجدت "هيومن رايتس ووتش" أنّ أربع أدوات رقميّة يستخدمها الجيش الإسرائيلي في غزّة تعتمد على بيانات خاطئة وتقديرات تقريبية غير دقيقة لتوفير معلومات للعمليّات العسكريّة. استخدام الجيش الإسرائيلي لهذه الأدوات الرقميّة يعرّض القوات الإسرائيليّة لخطر انتهاك القانون الإنساني الدولي، وخاصة قوانين الحرب المتعلقة بالتمييز بين الأهداف العسكريّة والمدنيين، وضرورة اتخاذ جميع الاحتياطات الممكنة قبل الهجوم لتقليص الضرر اللاحق بالمدنيين.

تشير أبحاث هيومن رايتس ووتش إلى أنّ الأدوات يُفترض أنها تعتمد على مراقبة إسرائيليّة مستمرّة ومنهجيّة لجميع فلسطينيي غزة، بما في ذلك من خلال البيانات التي جُمعت قبل الأعمال العدائيّة الحاليّة بطريقة تتعارض مع القانون الدولي لحقوق الإنسان. تستخدم الأدوات البيانات الشخصيّة للفلسطينيين لتوفير معلومات للعمليات العسكرية، مثل توقع التهديدات وتحديد الأهداف. تعتمد بعض الأدوات على التعلّم الآلي، أي استخدام الأنظمة المحوسبة التي يُمكنها استخلاص استنتاجات من البيانات والتعرّف على الأنماط دون تعليمات صريحة.

لم يكن من الممكن توثيق متى وأين تُستخدم هذه الأدوات الرقميّة أو مدى انتشارها مع طرق أخرى لجمع المعلومات والاستعلامات. غير أنّ استخدام الجيش الإسرائيلي لهذه الأدوات، بدلا من المساعدة في تحقيق استهداف أكثر دقة والحدّ من الخسائر المدنيّة في الأرواح والممتلكات، قد يتسبب في تفاقم المخاطر التي يواجهها المدنيون، ويُثير مخاوف أخلاقيّة وقانونيّة وإنسانيّة كبيرة.

وثيقة الأسئلة والأجوبة هذه تقدّم تحليلات تقنيّة وقانونيّة لأربع أدوات رقميّة، وتحدّد المخاطر الجديدة والتحديات والأسئلة المتعلقة بها، وتقيّم كلّ منها في ضوء القانون الدولي المنطبق.

تستند هذه الوثيقة إلى تصريحات عامة من مسؤولين إسرائيليين، وتقارير إعلاميّة، ومقابلات مع خبراء وصحفيين، ومواد لم تتناولها التقارير سابقا ونشرها الجيش الإسرائيلي، بما في ذلك البيانات الشخصيّة لسكان غزة، والتي يبدو أنها نُشرت عن طريق الخطأ على الانترنت.

 

  1. ما هي أهمّ الأدوات الرقميّة التي يستخدمها الجيش الإسرائيلي في غزة؟

قيّمت هيومن رايتس ووتش أربع أدوات استخدمها الجيش الإسرائيلي في هجومه المستمرّ على غزة تتعلّق بالتخطيط العسكري والاستهداف. تعتمد إحدى هذه الأدوات على تتبع الهواتف الخلوية لمراقبة إجلاء الفلسطينيين من أجزاء في شمال غزة. وهناك أداة أخرى، يُسميها الجيش "غوسبيل" (The Gospel)، ووظيفتها إعداد قائمات بالمباني أو الأهداف الهيكليّة الأخرى التي يجب مهاجمتها. وهناك أداة ثالثة يُسميها الجيش "لافندر" (Lavender) ووظيفتها وضع تصنيفات للأشخاص في غزة بحسب الاشتباه في انتمائهم إلى الجماعات الفلسطينيّة المسلّحة بهدف وضعهم ضمن الأهداف العسكريّة. تهدف أداة "أين أبي؟" (Where’s Daddy?) إلى تحديد الوقت الذي يكون فيه هدف ما في موقع معيّن حتى تتسنّى مهاجمته هناك.

 

  1. ما هي أداة مراقبة الإجلاء التي يعتمدها الجيش الإسرائيلي وكيف تعمل؟

بدأ الجيش الإسرائيلي في قصف غزّة يوم 7 أكتوبر/تشرين الأول 2023، بعد وقت قصير من شنّ الجماعات الفلسطينيّة المسلّحة لهجوم على جنوب إسرائيل. في 13 أكتوبر/تشرين الأول، أصدر الجيش أوامر إجلاء لجميع سكّان شمال غزّة، حيث يعيش أكثر من مليون شخص، لترك منازلهم في غضون 24 ساعة والاتجاه إلى جنوب وادي غزة، رغم عدم وجود مكان آمن يذهبون إليه ولا طريق آمن للسفر أو مأوى مناسب.

تعتمد أداة مراقبة الإجلاء التي يستخدمها الجيش الإسرائيلي على بيانات موقع الهواتف الخلوية لمراقبة حركة الأشخاص في غزّة. استنادا إلى تقرير نشرته "نيويورك تايمز" في 16 أكتوبر/تشرين الأوّل، قبل أسبوع من بدء الجيش الإسرائيلي للعمليّات البريّة الكبرى في شمال غزّة، كان الجيش الإسرائيلي يستخدم هذا النظام لمراقبة إجلاء الفلسطينيين من منازلهم شمال وادي غزّة. نشرت "واشنطن بوست" و"الغارديان" لاحقا تفاصيل إضافيّة عن هذا النظام.

قال صحفيون إنّهم اُطلعوا على مكتب في مقرّ القيادة الجنوبيّة في مدينة بئر السبع الإسرائيلية، كانت فيه شاشات كبيرة عليها خريطة غزّة مقسّمة إلى 620 جزءًا، وكل جزء ملوّن حسب درجة إجلاء السكّان. كما تضمّنت الخريطة تسميات للمستشفيات والمساجد والملاجئ وغيرها من المباني. توقّع الصحفيون أنّ عدد الهواتف الخلوية التي كان يتمّ تعقبها وقتها يتجاوز المليون. قبل أكتوبر/تشرين الأول 2023، أفادت وزارة الاتصالات في غزّة بوجود 1,041,198 اشتراكا نشطا في الهواتف الخلوية في غزّة.

وفقا لهذه التقارير، يستخدم النظام تثليثأبراج الهواتف الخلويّة (cell tower triangulation) وبيانات مراقبة أخرى لتحقيق مشاهدة حيّة لتحرّكات سكّان غزة. قال مسؤولون عسكريون إسرائيليون للصحفيين إنّ هذه المعلومات تُستخدم لتحديد العمليات التي يُمكن للجيش تنفيذها في بعض الأماكن، ونوع الأسلحة التي يمكن أن يستخدمها.

 

  1. هل البيانات التي يوفرها تثليث أبراج الهواتف الخلويّة دقيقة بما يكفي لاعتمادها في القرارات العسكريّة؟

البيانات التي يوفرها تثليث أبراج الهواتف الخلويّة، التي تساعد في تحديد موقع تقريبي للهواتف الخلوية استنادا إلى الأبراج التي يُمكنها الاتصال بها، لا يُرجّح أنها تعطي معلومات دقيقة عن المكان المحدد لوجود الهواتف، وبالتالي الأشخاص الذي يحملونها. يتفاقم عدم الدقّة هذا بسبب نقص الكهرباء لشحن الهواتف بعد أن قطعت إسرائيل جميع خطوط الكهرباء إلى غزّة، وتوقف محطّة الطاقة الوحيدة في غزّة عن العمل بسبب الحصار المفروض على واردات الوقود، وبسبب الأضرارالكبيرة التي لحقت بالبنية التحتيّة للهاتف في غزة.

الأدوات التي تستخدم بيانات توفرها أبراج الهواتف الخلويّة لاحتساب تواجد المدنيين كوسيلة لتوفير معلومات تخدم القرارات المتعلقة بالعمليات العسكريّة تزيد من خطر إلحاق أضرار بالمدنيين في تلك العمليّات. قد تتسبب هذه الأدوات في وصول القادة العسكريين إلى استنتاجات خاطئة حول عدم وجود مدنيين، أو وجود عدد قليل فقط، في منطقة ما، وبالتالي يُمكن مهاجمة هذه المنطقة.

 

  1. ما هي المعلومات الأخرى المعروفة عن البيانات التي يستخدمها نظام مراقبة الإجلاء؟

في مايو/أيار 2024، اكتشفت هيومن رايتس ووتش بيانات نشرها الجيش الإسرائيلي علنا على الإنترنت، يفترض أن النشر تم بشكل خاطئ، تضمّنت ما يُفترض أنها بيانات تشغيليّة تتعلق بالأنظمة المستخدمة لمراقبة الإجلاء وحركة الأشخاص في غزة، وكذلك لتوقع الضرر المدني المحتمل الذي قد تُسبّبه الهجمات في مناطق معيّنة.

ضُمّنت هذه البيانات في كود [شفرة] المصدر لموقع معلومات الإجلاء التابع للجيش الإسرائيلي. تحتوي البيانات على أرقام سكّانية تتفق مع بيانات التعداد السكاني لغزّة منذ عشر سنوات، وبيانات سكّانيّة موزّعة، ومعلومات حول تحرّكات السكان المدنيين، والوجود العسكري الإسرائيلي في غزّة، وعدد الهجمات تراكميا، لكل جزء من الأجزاء الـ620 المكوّنة لقطاع غزة. كما تضمّنت البيانات معلومات شخصيّة: ألقاب [شهرة] أكبر العائلات الموجودة في كل جزء.

حلّلت هيومن رايتس ووتش هذه البيانات المتعلقة بالوجود العسكري الإسرائيلي وأجرت مسحا لها فوجدتها متفقة مع التوغل الإسرائيلي في غزة منذ منتصف نوفمبر/تشرين الثاني 2023، عندما سيطرت القوات الإسرائيليّة على معظم شمال القطاع ولم تدخل خان يونس في الجنوب بعد. رغم أنّ هيومن رايتس ووتش لم تتمكّن من تأكيد أصل المعلومات المنشورة على الانترنت واستخدامها، إلا أنها تشبه البيانات الموصوفة في التقارير الإعلاميّة المتعلقة بنظام مراقبة الإجلاء، وكذلك بالتخطيط للعمليّات العسكريّة. قد يعتمد نظام مراقبة الإجلاء أيضا على مصادر أخرى للبيانات. أبلغت هيومن رايتس ووتش "سلطة حماية الخصوصية"، وهي الهيئة المعنية بحماية البيانات في إسرائيل، بنشر هذه البيانات.

دمار بعد ضربة إٍسرائيلية على مبان سكنية ومسجد في رفح، قطاع غزة، في 22 فبراير/شباط 2024.  © 2024 فاطمة شبير/أسوشيتد برس فوتو
  1. ما هي "لافندر" وكيف تعمل؟

تستخدم لافندر التعلّم الآلي لتعطي لسكان غزة درجة عدديّة تتعلق باحتمال انتماء شخص منهم إلى جماعة مسلّحة. استنادا إلى تقارير، فإنّ مسؤولين في الجيش الإسرائيلي هم الذين يضعون الحدّ الأدنى الذي يُمكن بعده تصنيف الشخص كهدف قابل للهجوم.

أقرّ الجيش بوجود أداة مثل لافندر بعبارات عامة للغاية، واصفا إياها بـ "قاعدة بيانات تهدف إلى مقارنة مصادر المعلومات الاستخباراتية".

هناك عرض وكتاب من إعداد ضابطين إسرائيليين يُقدّمان تفاصيل تقنيّة مهمة. في عرض تقديمي في فبراير/شباط 2023، وصف مدير الذكاء الاصطناعي وعلوم البيانات في "الوحدة 8200"، قسم استخبارات الإشارة في الجيش، أداة رقميّة تستخدم التعلّم الآلي "للعثور على إرهابيين جدد". يعمل هذا النظام، الذي قال الضابط إنّه استُخدم أوّل مرة في غزة في 2021، على تجميع بيانات المراقبة لتصنيف الأشخاص بناءً على احتمال ارتباطهم بجماعة مسلّحة.

تتضمّن الأداة الموصوفة في العرض، والتي تعتقد هيومن رايتس ووتش أنها لافندر أو أداة أخرى تعتمد على نفس التكنولوجيا الأساسيّة، نوعا من التعلّم الآلي شبه الخاضع للإشراف يُسمى "التعلّم الإيجابي غير المصنّف"، الذي يُدرّب خوارزميّة من قاعدة بيانات تحتوي في الآن نفسه على بيانات مُصنفة (إيجابية) وغير مصنفة (سلبيّة). يستخدم هذا النوع من التعلّم الآلي صفات تتعلق بالبيانات المصنفة لمحاولة تحديد الأنماط في قاعدة بيانات أكبر. وفي هذه الحالة، تبحث الخوارزميّة عن خصائص في بيانات المراقبة وغيرها من البيانات حول الأفراد الذين يشتبه الجيش الإسرائيلي في انتمائهم إلى جماعة مسلّحة، ثم تستخدم نفس الخصائص لتحديد المزيد من الأشخاص المشتبه بهم من عامة السكان. ولأنّ العديد من نقاط البيانات لن تكون مؤكّدة إذا تمّ تطبيق هذه التقنية على عدد كبير من السكّان، فإنّ هذه العمليّة تعتمد إلى حدّ كبير على التخمين غير المبرهن.

 

  1. على أيّ أساس تُحدّد لافندر درجة الاشتباه؟

دون الوصول إلى لافندر، من المستحيل معرفة نقاط البيانات التي تستخدمها الأداة لزيادة درجة الاشتباه في شخص ما. بصفة عامة، يعتمد التعلّم الآلي شبه الخاضع للإشراف على خوارزميّة لمعالجة كميات كبيرة من البيانات، ثمّ تحديد أنواع البيانات المفيدة للقيام بمهمّة معيّنة. قد يوفر الكتاب الذي ألفه يوسي سرييل سنة 2021، وهو رئيس الوحدة 8200، حول الاستخدامات العسكريّة للذكاء الاصطناعي بعض المعلومات الإضافية. وصف سرييل "آلة استهداف" بخصائص مشابهة جدا لـ لافندر ويُمكن استخدامها لتحديد الأهداف المحتملة من خلال جمع وتحليل علاقاتهم الاجتماعيّة، تماما مثل منصّات التواصل الاجتماعي.

الصفات التي ذكرها سرييل والتي يُمكن أن تساهم في جعل شخص على درجة أعلى من الاشتباه تشمل اتصالاته أو ارتباطاته الاجتماعيّة، أو انتمائه إلى مجموعة دردشة مع شخص يعتقد الجيش الإسرائيلي بالفعل أنه مرتبط بجماعة مسلّحة، أو حتى لمجرّد تغيير الهواتف أو العناوين بشكل متكرّر.

 

  1. لماذا تُعدّ تقييمات لافندر إشكاليّة وخطيرة؟

تقييمات لافندر فيها عيوب خطيرة قد تعرّض المدنيين لخطر جسيم أثناء النزاع المسلّح. والتعلّم الإيجابي غير المصنّف (انظر السؤال 5) ليس أداة مناسبة لتوفير معلومات لاتخاذ قرارات بشأن تحديد الأهداف العسكريّة المشروعة. الافتراضات التي تجعل الأداة تُحّدد درجة الاشتباه غير متجذرة في القانون الدولي الإنساني، بل هي معايير تم تطويرها بواسطة خوارزميّة وتستند إلى بيانات يُرجّح أن تكون متحيّزة وغير مكتملة، ويستحيل التدقيق فيها من الناحية التقنيّة.

هذا الاعتماد على فرضيات خاطئة على الأرجح لتوفير معلومات قصد اتخاذ قرارات عسكريّة قد يؤدي إلى استهداف المدنيين بشكل خاطئ. تجمع لافندر البيانات حول سلوك واتصالات أعداد كبيرة من الأفراد لوضع درجة اشتباه فيهم. باستخدام أدوات الشرطة التنبؤيّة، يتم افتراض تورّط السكان عامّة من خلال معالجة بيانات مراقبة أفراد لا يُشتبه في ارتكابهم جريمة، مما ينتهك حقهم في افتراض البراءة. في سياق الحرب، يعني هذا خلق افتراضات حول كونهم أهدافا عسكريّة خاضعة لهجوم قانوني، بينما تفترض قوانين الحرب اعتبارهم مدنيين. بالإضافة إلى ذلك، قد يتسبب استخدام التعلّم شبه الخاضع للإشراف في نتائج إيجابيّة كاذبة من خلال تحديد الأشخاص على أنهم مشتبه بهم بناءً على صفات أو سلوكيات لا تؤثر بأيّ حال من الأحوال على المخرجات المؤثرة غير القانونيّة أو التي تنطوي على تهديد أو إشكاليات.

هناك مخاوف إضافيّة ناجمة عن استخدام السلطات لتعريفات فضفاضة للإرهاب والجماعات الإرهابيّة، والاعتماد على بنود فضفاضة في القانون العسكري الإسرائيلي في الأراضي الفلسطينيّة المحتلّة لحظر الجمعيات باعتبارها "منظمات معادية". في الضفة الغربيّة مثلا، حظر الجيش منظمات حقوقيّة فلسطينيّة واعتبرها "جماعات إرهابيّة"، واحتجز فلسطينيين لمجرّد انتمائهم أو ارتباطهم بهذه المنظمات أو بكيانات تابعة لها.

إذا استُخدمت تعريفات فضفاضة مماثلة في تدريب أدوات التعلّم الآلي مثل لافندر، بهدف توفير معلومات لاتخاذ قرارات استهداف، فإنّ المخرجات ستخضع لانحياز مماثل، وقد تزيد من احتمال استهداف المدنيين في الهجوم.

 

  1. ما هي أداة "غوسبيل" وكيف تعمل؟

تستخدم أداة غوسبيل خوارزميّة لمعالجة بيانات المراقبة بقصد إعداد قوائم للأهداف. استنادا إلى تقارير إعلاميّة، تُحدّد غوسبيل أربع فئات من الأهداف غير البشريّة: الأهداف العسكريّة، بما في ذلك الأهداف تحت الأرض مثل الأنفاق، ومنازل عائلات المقاتلين المشتبه بهم، و"أهداف القوّة"،  وهي الهياكل المدنيّة التي تتعرّض للهجوم مع هدف معلن، وفقا لمحللي استخبارات حاليين وسابقين تم اقتباسهم في تقارير إعلاميّة، ألا وهو "خلق صدمة" من شأنها "دفع المدنيين للضغط على "حماس". وصفت مقالات على موقع القوات الإسرائيلية في 2022 و2023 أداة قائمة على خوارزمية تشبه غوسبيل إلى حد كبير، وبعضها ذكرها بالاسم.

هناك معلومات أقلّ متاحة حول كيفية عمل غوسبيل مقارنة بلافندر، لكن من المرجح أنها تستخدم أيضا التعلّم الإيجابي غير المصنف للوصول إلى استخلاصاتها. غوسبيل في الواقع هي أداة تُستخدم لتحديد ما هي الهياكل التي تُعتبر أعيانا مدنيّة وأهدافا عسكريّة، وهي عمليّة تمييز مطلوبة من المهاجمين بموجب قوانين الحرب.

 

  1. ما هي أداة "أين أبي؟" وكيف تعمل؟

وفقا لتقارير إعلاميّة، تعتبر "أين أبي؟" أداة تستخدم تتبع مواقع الهواتف الخلوية لإخطار عملاء الجيش الإسرائيلي عندما يدخل الأشخاص الذين تمّ تحديدهم كأهداف عسكريّة إلى موقع محدّد – غالبا منزل عائلي، وفقا لتقارير – حيث يُمكن مهاجمتهم. تمكّنت هيومن رايتس ووتش من تأكيد استخدام الجيش الإسرائيلي لأداة بهذه الوظيفة، لكنها لم تتأكد من أيّ تفاصيل تقنيّة أخرى.

 

  1. هل بيانات مواقع الهواتف الخلوية وحدها دقيقة بما يكفي لشنّ ضربات محددة الهدف؟

بيانات مواقع الهواتف الخلوية ليست دقيقة بما يكفي لإثبات أنّ شخصا معيّنا موجود في مكان ما في وقت محدّد، وقد تؤدّي إلى أخطاء قاتلة إذا استُخدمت لتوفير معلومات لشنّ هجمات عسكريّة. الهاتف الخلوي ليس وسيلة موثوقا فيها لتحديد هدف بشري، وخاصة في مناطق النزاع، حيث ربما يغيّر الأشخاص أرقامهم أو أجهزتهم أثناء الطوارئ، وقد يتغيّر الوصول إلى الشبكات والأجهزة بشكل متكرر ومفاجئ.

بالإضافة إلى ذلك، فإنّ أكثر الطرق شيوعا لتتبع مواقع الهواتف الخلوية هي من خلال تحديد مواقع أبراج الهواتف الخلوية، وتُسمى معلومات موقع الهاتف الخلوي، أو عبر الوصول إلى بيانات "نظام تحديد المواقع العالمي" (GPS). لا تتمتّع أيّ من هذه الأنظمة بمفردها بالدقة الكافية لتحديد موقع الهواتف الخلوية لشنّ هجمات دقيقة، واستخدامها في اتخاذ قرارات الاستهداف يثير قلقا بشأن عدم اتخاذ جميع الاحتياطات الممكنة لتجنب إلحاق الضرر بالمدنيين، وهو ما تقتضيه قوانين الحرب.

 

  1. ما هي حدود الأنظمة التي تعتمد على البيانات الضخمة والتعلّم الآلي والذكاء الاصطناعي؟

هذه الأنظمة محدودة بعدة افتراضات والميل إلى إعادة انتاج تحيّزات المجتمع.

"ظاهرة الصندوق الأسود": بحكم تصميمها، لا تسمح أنظمة التعلّم الآلي والذكاء الاصطناعي وغيرها من الأنظمة الخوارزميّة بالتدقيق أو إظهار عملها أو عمليّات صنع القرار حول كيفيّة إعداد المخرجات، وتفتقر إلى التوثيق لدعم توزيع المسؤوليّة على الأطراف الفاعلة ذات الصلة. من المهم أن تسمح الأدوات الرقميّة للمستخدمين بفحص عمل الأنظمة، لمعرفة كيف يتمّ تحديد المخرجات وباستخدام أيّ بيانات. وهذا مهمّ بشكل خاص في حالة الأسلحة أو أشكال تحديد الأهداف التي تستخدم الذكاء الاصطناعي.

"تحيّز الأتمتة": يحدث تحيّز الأتمتة عندما يضع الناس ثقة مفرطة في مخرجات الأدوات الرقميّة، ويرجع ذلك في جزء منه إلى تصوّر أنها أكثر حيادا من البشر. وجدت دراسات أنّ استخدام الأدوات الرقميّة، بما في ذلك في التطبيقات العسكريّة، قد يتسبب في تقليص التدقيق بشأن مخرجاتها، وحتى الثقة في المخرجات الآليّة والاعتماد عليها باستمرار في مواجهة المعلومات المتناقضة.

افتراضات تثير إشكاليّات: تعتمد جميع الأنظمة الرقميّة على افتراضات أساسيّة للعمل، ألا وهي المعطيات التي تستند إليها الحسابات (مثلا، بالنسبة لأداة خاصة بالتوصيات المتعلقة بالمسلسلات التلفزيونيّة، فإنّ الأمر كالتالي: إذا كان شخص ما يشاهد غالبا مسلسلات الخيال العلمي، تصير الأداة مطالبة بالتوصية بمزيد من الخيال العلمي). رغم أنّ التعليمات ومعايير الضبط الخاصة بالأنظمة التي تعمل بالتعلّم الآلي والذكاء الاصطناعي يضعها المطوّرون، فإنّ هذه الافتراضات لا يكتبها المبرمجون صراحة، بل تُطوّرها خوارزميات تستند إلى بيانات التدريب الأوليّة. تعالج الأدوات القائمة على هذه التكنولوجيا كميّات كبيرة من البيانات، مع وضع مخرجات أو هدف محدّد في الاعتبار، ثمّ تكون قادرة على تكوين استنتاجاتها الخاصة(مع ذلك، فإنّ مالكي هذه التكنولوجيا ومطوّريها ومستخدميها هم الذين يتحمّلون في نهاية المطاف المسؤوليّة عن كيفيّة استخدام الأنظمة القائمة على الخوارزميات). قد تنجح هذه الطريقة في بعض التطبيقات منخفضة المخاطر، مثل التوصيات التلفزيونيّة، لكنها تثير مخاوف كبيرة عند استخدامها في السياقات العسكريّة، حيث تكون العواقب حياة أو موت.

إعادة إنتاج تحيّزات المجتمع: رغم أنّ مخرجات الأنظمة الخوارزميّة قد تبدو محايدة، إلا أنّ الآلات قد تعكس على الأرجح تحيّزات مبرمجيها والمجتمع. هذا الخطر مرتفع بشكل خاص عند تطوير واستخدام أدوات رقميّة توفر معلومات لاتخاذ قرارات بشأن ما إذا كان يُمكن مهاجمة الأشخاص أو الأعيان الأخرى كأهداف عسكريّة. في سياق الجيش الإسرائيلي والأعمال العدائيّة في الأراضي الفلسطينيّة المحتلّة، مثلا، وجدت "محكمة العدل الدوليّة" في يوليو/تموز أنّ إسرائيل تمارس التمييز والفصل العنصري ضدّ الفلسطينيين. الأدوات الرقميّة التي طوّرها واستخدمها الجيش الإسرائيلي لاستهداف الناس في الأراضي المحتلّة قد تعكس مثل هذا التمييز وهذه التحيّزات المنهجيّة.

"مُدخلات خاطئة - مُخرجات خاطئة": البيانات المعيبة تؤدي إلى نتائج معيبة. إذا بُني نظام رقمي على بيانات غير دقيقة أو قديمة أو غير كاملة أو لا تمثل السياق الذي يسعى النظام إلى العمل فيه، فإنّ مخرجاته ستكون معيبة مثله.

 

  1. ما هي المخاطر والتحديّات الجديدة التي تفرضها الأدوات الرقميّة التي تعتمد على البيانات بشكل مكثف في السياقات العسكريّة؟

تخلق الأدوات الرقميّة المستخدمة في سياق عسكري مخاطر وتحديّات جديدة من خلال اعتمادها على المراقبة التطفليّة، والتجريد الرقمي من الإنسانيّة، وإمكانية الاعتماد المفرط للجيش على الأدوات الرقميّة. قد تزيد هذه الأدوات من وتيرة الحرب.

تعتمد الأدوات التي تستخدم التعلّم الآلي والذكاء الاصطناعي على كميّات هائلة من البيانات لتتوصّل إلى مخرجات (توقعات متعلقة بالتهديدات، وتحديد الأهداف، إلخ). يخضع الفلسطينيون في غزّة وفي الضفة الغربيّة إلى مراقبة مستمرّة وشاملة من قبل السلطات الإسرائيليّة، وبعض هذه البيانات باتت تُستخدم الآن لتوفير معلومات للعمليات العسكريّة والتخطيط في غزة.

قبل الأعمال العدائيّة الحاليّة، حافظت إسرائيل كقوّة احتلال على سيطرة كبيرة على جوانب الحياة في غزّة، مما انجرّ عنه التزامات بموجب القانون الدولي لحقوق الإنسان والقانون الإنساني الدولي لضمان رفاه السكّان. تؤكّد المادة 17 من "العهد الدولي الخاص بالحقوق المدنيّة والسياسيّة"، وإسرائيل طرف فيه، على الحق في الخصوصيّة، والذي لا يخضع للتدخل غير القانوني أو التعسفي.

أكّدت "لجنة حقوق الإنسان التابعة للأمم المتحدة"، هيئة الخبراء الدوليين التي تفسّر العهد الدولي الخاص بالحقوق المدنيّة والسياسيّة بشكل رسمي، على أنّ "أيّ تدخل في الخصوصيّة يجب أن يكون متناسبا مع الغاية التي يسعى إلى تحقيقها وضروريا في سياق وضع معيّن". والحكومات مُلزمة باحترام حقوق الأفراد في الخصوصيّة، بغضّ النظر عن جنسيتهم أو موقعهم، نظرا لأنّ التكنولوجيا الرقميّة تسمح بمراقبة واسعة حتى خارج الاقليم.

حصلت الحكومة الإسرائيليّة على بيانات من غزّة وخزّنتها بطرق يفترض أنها تنتهك الحق المكفول دوليا في الخصوصيّة وحقوق الإنسان الأخرى. هذا الأمر تحديدا إشكالي لأنّ مراقبة إسرائيل للفلسطينيين في غزّة مرتبطة ارتباطا وثيقا بنظام من الانتهاكات الحقوقيّة التي ترقى إلى سياسة الفصل العنصري.

أثناء النزاع المسلّح، ينبغي تفسير حقوق الإنسان على خلفيّة القانون الإنساني الدولي. وبالتالي، فإنّ ما يُعتبر تدخلا "تعسفيا وغير قانوني" في الخصوصيّة بموجب المادة 17 من العهد الدولي الخاص بالحقوق المدنيّة والسياسيّة قد يكون مختلفا عند أخذ قوانين الحرب في الاعتبار، وهي مجموعة القوانين (قاعدة التخصيص) المنطبقة بعد اندلاع الأعمال العدائيّة.

التجريد الرقمي من الإنسانيّة: تختزل الأنظمة المؤتمتة البشر في سلسلة من نقاط البيانات، تتم معالجتها بأنظمة تنطوي بطبيعتها على تحيّز وقيود بناءً على الطريقة التي بُرمجت بها. عند اختزال البشر في نقاط بيانيّة، ومراقبتهم وفرزهم وتصنيفهم، قد يُسهّل ذلك تحديد من سيتعرّض للأذى، بما ذلك الاستهداف بقصد القتل، وتنفيذ هذه الإجراءات. يُطلق على هذا المسار من المراقبة المؤتمتة إلى إلحاق الأذى "التجريد الرقمي من الإنسانيّة".

الاعتماد المُفرط على الأدوات الرقميّة: في بيئة سريعة الوتيرة وحافلة بالضغوط، أو بيئة فيها ضغط لتحديد أعداد كبيرة من الأهداف في حيّز زمني قصير، كما هو الحال في النزاع المسلّح، يتكوّن ميل إلى الافراط في الاعتماد المُفرط على الأنظمة الرقميّة التي تستطيع تحديد المخرجات بشكل سريع. اعتبرت "اللجنة الدوليّة للصليب الأحمر" هذا خطرا ناتجا عن الأنظمة التي تعتمد على البيانات الضخمة والتعلّم الآلي والذكاء الاصطناعي المُستخدمة لتوفير معلومات تساعد على تحديد الخيارات العسكريّة، مشيرة إلى أنها قد تُسهّل اتخاذ قرارات تشوبها أخطاء، أو تتسبب في انتهاكات لقوانين الحرب، وتزيد من احتمال إلحاق الضرر بالمدنيين.

زيادة وتيرة الحرب: اعتبرت اللجنة الدوليّة للصليب الأحمر أيضا قدرة الأنظمة الرقميّة على تسريع وتيرة الحرب عامل خطر على المدنيين، خاصة في حال وجود سرعة تشغيليّة متزايدة تمنع إجراء تحليل معمق وتدقيق لمصادر المعلومات المُستخدمة في التخطيط العسكري. قال ضباط عسكريون إسرائيليون علنا إنّ الأدوات الرقمية المستخدمة في تحديد الأهداف سمحت للضباط بتحديد عدد من الأهداف في غضون أيام يساوي ما كانوا يُحدّدونه في سنة، قبل استخدام هذه الأدوات.

 

  1. هل تستخدم أنظمة الأسلحة ذاتيّة التشغيل لدى الجيش الإسرائيلي الأدوات الرقميّة؟

الأدوات الرقميّة لدى الجيش الإسرائيلي ليست أسلحة ذاتية التشغيل – أي أسلحة تختار الأهداف وتهاجمها على أساس المعالجة بالاستشعار بدلا من المدخلات البشريّة، والتي سعت هيومن رايتس ووتش منذ وقت طويل إلى حظرها بمعاهدة. على عكس ذلك، هي أنظمة لمعالجة البيانات توفر معلومات للقائمين بالتخطيط في الجيش الإسرائيلي. اتخاذ القرار بشأن مهاجمة الهدف الموصى به وتنفيذه يتم بشكل منفصل من قبل إنسان وليس آلة. تتطلّب كلّ أداة رقميّة مدخلات وإشرافا بشريّا.

لكن في أكتوبر/تشرين الأول 2022 اعتمد "مجلس حقوق الإنسان التابع للأمم المتحدة" قرارا أكّد على الأهميّة المحوريّة للقرار البشري عند استخدام القوّة، وحذّر من الاعتماد على مجموعات البيانات غير التمثيليّة، والبرمجة القائمة على الخوارزميات، وعمليّات التعلّم الآلي. هذه التكنولوجيات قد تتسبب في إعادة إنتاج ومفاقمة أنماط التمييز، والتهميش، والتفاوت الاجتماعي، والصور النمطيّة، والتحيّز القائمة – مع نتائج لا يمكن التنبؤ بها.

تطرح الأدوات الرقميّة لدى الجيش الإسرائيلي مشاكل مماثلة لأنظمة الأسلحة ذاتيّة التشغيل، فهي تعمل بطرق يصعب، أو كما هو الحال في خوارزميات التعلم الآلي التي تستخدمها لافندر وغوسبيل، يستحيل التحقق منها أو تحديد مصدرها. وفي الوقت نفسه، تشجّع هذه الأدوات على الافراط في الاعتماد على البيانات، فتبدو ظاهريا دقيقة وغير متحيّزة.

 

  1. كيف ينطبق القانون الإنساني الدولي على الاستخدام العسكري للأدوات الرقميّة؟

الأدوات الرقميّة ليست أسلحة عسكريّة. لكن استخدامها في العمليات العسكريّة يجعلها تخضع للقيود المنصوص عليها في القانون الدولي الإنساني. كما لاحظت اللجنة الدوليّة للصليب الأحمر: "كل تكنولوجيا حربيّة جديدة يجب أن تُستخدم، وأن يكون بالإمكان استخدامها، بما يتوافق مع قواعد القانون الدولي الإنساني القائمة".

لافندر وغوسبيل تُثيران مشاكل كبيرة – وربما قاتلة – في ما يتعلق بالاستهداف العسكري، وتحديد ما إذا كان من الممكن مهاجمة هدف مقصود بشكل قانوني، وفي أيّ ظروف. هناك قاعدتان عامتان موجودتان في قانون المعاهدات الدولية والقانون العرفي، وهما الأكثر صلة: 1) الشرط الذي يفرض على القوات المهاجمة التمييز بين الأهداف العسكريّة والمدنيين والأعيان المدنيّة، ومهاجمة الأهداف العسكريّة فقط؛ و2) الشرط الذي يفرض على القوات المهاجمة اتخاذ جميع الاحتياطات الممكنة لتقليص الخسائر العرضيّة في أرواح المدنيين والضرر اللاحق بالأعيان المدنيّة.

تعتمد لافندر وغوسبيل على التعلّم الآلي للتمييز بين الأهداف العسكرية والمدنيين والأعيان المدنيّة. وإذا تمّ التصرّف وفقا لتوصياتهما أو تقييماتهما للأدوات الرقميّة دون تدقيق كاف أو معلومات إضافيّة، كما أفادت بذلك تقارير، فإنّ النتيجة ستكون شنّ هجمات تتسبب في أضرار مدنيّة، مما يجعل القوات الإسرائيليّة تنتهك قوانين الحرب في هذه الهجمات، وهو ما قد يرقى إلى جرائم حرب.

أفادت تقارير أنّ أداة "أين أبي؟" تستخدم تتبع موقع الهواتف الخلوية لإخطار العملاء العسكريين بدخول الأشخاص الذين حُدّدوا كأهداف عسكريّة إلى موقع معيّن، مثل منزل العائلة. لا تحظر قوانين الحرب شنّ هجمات على أهداف عسكريّة مشروعة، مثل القادة العسكريين عندما يكونون في منازلهم، لكن تظلّ جميع الشروط القانونيّة سارية. ليس من الواضح ما إذا كانت هذه العوامل الأخرى مأخوذة في الاعتبار، مثل ما إذا كان الهجوم سيتسبب في خسائر مدنيّة غير متناسبة مع الميزة العسكريّة المرجوّة منه.

تثير هذه الأدوات أيضا مخاوف عندما يتمّ تطبيق معايير غير موجودة بموجب القانون الدولي. استخدام التعلم الآلي لوصف شخص ما بـ"الإرهابي" – وهو مصطلح غير معرّف بموجب القانون الدولي لحقوق الإنسان والقانون الدولي الإنساني – قد يُعرّض شخصا إلى الاعتقال أو إلى هجوم قاتل دون احترام الشروط المتعلقة بالأدلّة على ارتكابه مخالفات جنائية، كما ينصّ على ذلك القانون الدولي. كما أنّ الهجمات الموجهة ضدّ ما يُسمى "أهداف القوّة" – أي الهياكل المدنيّة الكبيرة التي قالت تقارير إنّ أداة غوسبيل تُحدّدها قصد استهدافها من أجل تحقيق التأثير النفسي المفترض لتدميرها – تظلّ مفهوما غير مقبول بموجب القانون الدولي الإنساني. ومهاجمة هذه الأهداف يقتضي احترام مبادئ التمييز والتناسب والحيطة.

Your tax deductible gift can help stop human rights violations and save lives around the world.

المنطقة/البلد
الموضوع

الأكثر مشاهدة