الذكاء الاصطناعي كسلاح استعماري في فلسطين
خريستو المر
يُقدَّم الذكاء الاصطناعي عادةً بوصفه ذروة التقدّم البشري، ووعداً بالكفاءة، والموضوعية، والدقّة. غير أنّه في غزّة تحوّل إلى أداة استعماريّة؛ فأنظمة الاستهداف المعتمدة على الذكاء الاصطناعي، مثل برنامج «لافندر» لجيش الاحتلال، ليست أدواتٍ حيادية في الحرب، بل امتداد للمشروع الاستعماريّ الاستيطانيّ في فلسطين، يعمل منهجيّاً على إنتاج الإعاقة الجماعيّة وأيضاً… لإخفائها.
تحت غطاء «الاستهداف الدقيق»، تُخفي هذه الأنظمة قراراتٍ سياسيّة للنظام الصهيونيّ حول اعتبار حياة الفلسطينيّين حياة قابلة للهدر بالقتل، وقابلة للإصابة والإعاقة عوض القتل. لقد أصبح الذكاء الاصطناعي وسيلةً لإدارة الحياة والموت الفلسطينية، حيث يحوّل المشروع الاستيطانيّ الاستعماريّ أجساد الفلسطينيّات والفلسطينيّين إلى بيانات، ويجعل من الوجود الإنساني احتمالاتٍ رقميّة، وبالأدقّ، احتمال عرقلة للمشروع الاستيطانيّ يجب أن يفنى.
المعلومات المتوافرة تقول إنّ نظام «لافندر» حدّد ما يصل إلى 37 ألف فلسطينيّ كأهدافٍ محتملة، بناءً على أنماط التواصل التي يستخدمونها؛ أمّا المحلّلون البشريّون الذين كانوا يراقبون نتائج التحاليل، فكانوا يقضون ثوانٍ معدودة لمراجعة كل اسم ينتجه النظام قبل إعطاء الأوامر بالقصف. وذلك في ظلّ نظام عسكريّ عرّف مسبقاً نسبة «خطأ مقبولة»، أي قبِل مسبقاً باستهداف مدنيين كُثر. هذه الممارسة والاستخدام للذكاء الاصطناعي يكشفان كيف يُحوّل نظام العنف الاستعماريّ القائم في فلسطين مظهر «الدقّة العلميّة» إلى وسيلة للعنف تُشرعَن عبر وهم «الحياد» المعلوماتيّ.
تقنيات الذكاء الاصطناعيّ ليست أدواتٍ تقنيةً فحسب، بل أدوات سياسية بامتياز. فهذه التقنية تعمل على أساس قاعدة بيانات، وكلّ قاعدة بيانات تحمل في داخلها تاريخ المجتمع، والعلاقات الاجتماعيّة فيه (قلّة وجود بيانات حول مجموعة من الناس في مستشفى خاص، لا تعني أنّهم لا يتعرّضون للمرض، بل أنّهم فقراء)، ونظرة جامع البيانات والمحلّل الذي يعمل (فالاثنين يقرّران ما يجب أن يُجمع، وما ينبغي أن يُحلّل، وبذلك يقرّران ما يجب أن يُخفى من التحليل).
من هنا، فالذكاء الاصطناعي الذي يقوم على تحليل البيانات مرشّحٌ لأن يُنتج برامج منحازة ضدّ ما هو غير ممثَّل في البيانات. كما إنّ قرارات تصنيف شخص ووضعه في خانة أو أخرى (مريض/خال من المرض؛ مذنب/بريء؛ عدوّ/غير عدوّ) قائمة على نسبة احتمالات خطأ «مقبولة» يقرّرها المبرمج.
الافتراضات والتحيّزات المتأصّلة في البيانات التي تتعلّم منها برامج الذكاء الاصطناعيّ العسكريّة لجيش الاحتلال، هي افتراضاتٌ نابعة من العنصرية للمشروع الفكريّ القائم خلف الاحتلال وأدواته، ولهذا ينبغي أن نقرأ هذه البرامج على حقيقتها: أدوات عنف استعماريّ
وأخيراً، فإنّ غموض طريقة عمل بعض خوارزميّات برامج العمل الاصطناعي (ما يُسمّى بـ«الصندوق الأسود») تثير الحفيظة إذ لا يمكن فهمها عامّة. هذه العتمة التي تحيط بالذكاء الاصطناعيّ، هذه الحياديّة الكاذبة التي يمثّلها، والتي نحاول كشفها هنا، هي التي يستخدمها الاحتلال لخلق شكل براءة كاذبة، وغسل لليدين بماء العلوم: إنّها مسؤوليّة الآلة، والبرنامج المحايد، وليست مسؤوليّتنا.
هذا الانزياح للمسؤولية من الإنسان نحو الآلة يتيح استمرار العنف وكأنه نتيجةٌ علميّة، رياضيّة، لا مسؤوليّة أخلاقية وقانونيّة. في الحالة الفلسطينيّة، علينا أن نفهم أنّ الافتراضات والتحيّزات المتأصّلة في البيانات التي تتعلّم منها برامج الذكاء الاصطناعيّ العسكريّة لجيش الاحتلال، هي افتراضاتٌ نابعة من العنصرية للمشروع الفكريّ القائم خلف الاحتلال وأدواته، ولهذا ينبغي أن نقرأ هذه البرامج على حقيقتها: أدوات عنف استعماريّ، أدوات لمتابعة المشروع العنصريّ الصهيونيّ.
وإن ركّزنا على الإعاقة، فإنّ إعاقة الأجساد الفلسطينية ليست ظاهرةً جديدة. فمن رصاص القنّاصة الموجّه إلى الناس خلال مسيرات العودة الكبرى، إلى الغارات الحالية الموجَّهة بالذكاء الاصطناعي، يبقى المنطق ذاته: السيطرة عبر الإعاقة. فالإعاقات ليست نتيجةً عَرَضية للحرب، بل استراتيجيةٌ مدروسة للمستعمِر لـ«إدارة» السكّان الأصليّين، وفي الآن نفسه محاولة التنصّل من المسؤوليّة عن المجازر والإبادة والإعاقة.
إنّ الدولة الاستيطانية الصهيونيّة، بدعم من الولايات المتّحدة ودول أخرى، تمارس التسبّب في الإعاقة كإحدى أدوات الهيمنة على الفلسطينيّين. لقد عمل الاحتلال على أتمتة هذا المنطق في غزّة عبر الذكاء الاصطناعي مُحوّلاً سياسة الهيمنة إلى نظامٍ رقميٍّ للحكم والسيطرة عبر المعاناة الإنسانية. هكذا نفهم أنّ أيّ كلام عن «إصلاح» البيانات المتحيّزة أو تحسين «دقّة» الخوارزميات، ليس كافياً، لأنّ المشكلة لا تكمن في الشيفرة، بل في البُنى الاستعمارية والرأسمالية التي تخدمها تلك الشيفرة.
من هنا، فإنّ الموقف الصحيح هو ذاك المتجذّر في التحرّر والعدالة، عندها يمكن إعادة تخيّل جذرية للتكنولوجيا (وهي ليست همّنا هنا) ترتكز على مبادئ أخلاقيّة.
يمكن للذكاء الاصطناعي أن يمدّ إمبراطورية العنف بقدراتٍ جديدة، أو أن يصبح وسيلةً لبناء مستقبلٍ قائمٍ على الرعاية والتضامن والتحرّر الجماعي. إنّ الخيار أمامنا أخلاقيٌّ قبل أن يكون تقنيّاً: فإذا أردنا تكنولوجيا عادلة، علينا أولاً أن نفكّك الأنظمة التي حوّلتها إلى سلاحٍ ضد الحياة.
* كاتب وأستاذ جامعي

