
أ. طارق عبد اللطيف أبوعكرمة
مقدمة: في عالمٍ يُسوّق فيه الذكاء الاصطناعي كأمل الإنسانية الجديد، يتكشّف وجهٌ آخر أكثر قتامة: خوارزميات لا تصنع العدالة، بل تبرمج القتل، وتعيد تعريف الإنسان كمعطى قابل للحذف. في مقدّمة هذا الوجه، تتربّع شركة (بلانتير) الأميركية، بقيادة أليكس كارب، ليس بوصفها مجرد منتج للتقنيات، بل كفاعل سياسي وأمني يُعيد تشكيل الجغرافيا البشرية بمنطق إحصائي صارم. يعتمد هذا التحليل على النظرية النقدية للتقنية (كما طورها فرانك باسكواللي). وبيانات ميدانية من تقارير حقوقية وتسريبات إعلامية. بالإضافة الى المقارنة مع نماذج عالمية للقمع الرقمي.
في قبو مظلم من أقبية التكنولوجيا، حيث تُحاك القرارات بعيدًا عن ضجيج الضمير، يجلس مهندسو الموت الجدد يبرمجون نهاية العالم ليس بقنابل نووية، بل بأسطر من الكود. بلانتير تكنولوجيا، تلك الشركة التي يقدمها رئيسها أليكس كارب كـ(فيلسوف العصر الرقمي)، لم تعد مجرد منصة تحليل بيانات، بل أصبحت مصفاة بشرية تُديرها خوارزميات لا تعرف الرحمة، وتُعيد إنتاج الاستعمار بأدوات القرن الحادي والعشرين.
في العدوان على الشعب العربي الفلسطيني وغيرها من ساحات الدم، لم تكن التكنولوجيا (مساعدة)، بل حاسمة في تحديد من يعيش ومن يُمحى. لقد أصبح الذكاء الاصطناعي امتدادًا للسلطة بأدوات رقمية، يُصنّف البشر إلى أهداف بناءً على متغيرات، ويتعامل مع القتل كعملية حسابية. ومن هنا، تبرز ضرورة مساءلة الجذر الفلسفي والأخلاقي لهذا التحول: هل ما نعيشه هو حقبة جديدة من التقدم، أم مرحلة متقدمة من الانهيار القيمي والعنف المقنن؟ هذا المقال يحاول أن يفكك البنية المعرفية التي تسمح بتحويل أدوات التفكير إلى وسائل للإبادة، ويعيد طرح سؤال جوهري: هل تحررنا التقنية، أم تستعبدنا بطرق أكثر نُعومة وفتكًا؟
ما كشفه الاستاذ الباشمهندس عادل خلف الله، عضو قيادة قطر السودان والناطق الرسمي لحزب البعث العربي الاشتراكي، في تحليله المدوي (المُرفق بالفيديو)، ليس مجرد فضحٍ لاستغلال التكنولوجيا في الحرب، بل هو كشفٌ للـ (الإبادة الرقمية المنظمة) – الإبادة الجماعية المُبرمجة مسبقًا عبر أنظمة مثل (لافندر) و(أكس كارب)، التي تحوّل الفلسطيني إلى (نقطة بيانات) قابلة للحذف بضغطة زر.
أولًا: بلانتير ووحدة الاستخبارات (8200 – التحالف السيبراني لبرمجة القتل): لم يكن تأسيس مركز بلانتير في إسرائيل عام (2013)، بالتعاون مع وحدة (8200) الاستخباراتية، مجرّد توسّع تكنولوجي في حقل الاستخبارات، بل كان لحظة فاصلة تؤسس لما يمكن تسميته بـ (الذكاء الاصطناعي السيادي)، حيث تتحول الآلة من أداة للتحليل إلى فاعل ميتافيزيقي يعيد تعريف (العدو)، ويعيد برمجة الموت ذاته.
في هذا التحالف القاتل، يُعاد إنتاج الإنسان عبر ثلاثية: البيانات – التوقع – التصنيف، حيث تُحوَّل حياة الشعب العربي الفلسطيني إلى أنماط اتصال، وتحركات مرصودة، وعادات اجتماعية قابلة للتفكيك والتكميم. خوارزميات بلانتير لا تُحلل فحسب، بل تحكم وتُصدر الأحكام بالقتل وفق منطق لا إنساني مبرمج.
1. من يرسل رسالة؟ → هدف محتمل.
2. من يتردد على حي معين؟ → تهديد إحصائي.
3. من له علاقات قرابية ممتدة؟ → شبكة إرهابية محتملة.
التحالف بين بلانتير ووحدة (8200) لا يعكس فقط اندماجًا استخباراتيًا، بل يُجسّد عقلًا جديدًا ما بعد-إنساني، حيث يُختزل الفرد في مدخلات رياضية، ويتم تعليق القانون لصالح “برمجية الاستثناء. فالمجال الحربي هنا لم يعد ساحة للصراع، بل معملًا للقتل الحسابي الذي لا يحتاج إلى ضمير.
إنها لحظة سقوط الكائن البشري في قبضة المعادلات، حيث تتحول الحياة إلى مجرّد سلسلة من الإشارات الرقمية، وتُستبدل المسؤولية الأخلاقية بجدوى الأداء. بهذا، تُصبح الحرب تجربة (ما بعد أنثروبولوجية)، تُدار لا من خلال الجنود، بل من خلال كودات خوارزمية تُنفذ بلا تردد.
ثانيًا: نظام (لافندر): الذكاء الاصطناعي بوصفه بنية للقتل البارد: لافندر هو نظام ذكاء اصطناعي يعمل على: جمع البيانات: من الهواتف ووسائل التواصل. والقيام التحليل الاحتمالي، حيث يُصنف الأشخاص بناءً على علاقاتهم الجغرافية والاجتماعية. ومن ثم اتخاذ القرار، وذلك بتحديد (الأهداف) دون تدخل بشري في معظم الأحيان. كما أن نظام (لافندر) لا يمثّل مجرّد أداة مساعدة للمخابرات، بل هو تجسيد لعصر (القتل الاحتمالي) حيث تُبنى قرارات الإعدام على مؤشرات سلوكية تستخلصها الخوارزميات من أنماط الاتصال، وسجل المواقع، وحتى توقيت النوم والاستيقاظ.
إنه نظام لا يُحاسب على نيات أو أفعال، بل على تجاور البيانات، على تشابه رقمي مع آخرين تم تصنيفهم مسبقًا. يتحول الإنسان إلى (دالة احتمالية) في منظومة رياضية تنفي الشرعية الأخلاقية وتستبدلها بعتبة إحصائية:
1. X اتصالات مشبوهة + Y مواقع معينة = احتمال تهديد 0.83.
2. إذا تجاوزت العتبة 0.7 → قصف تلقائي
وباسم هذا (الذكاء)، تُبرّر المذابح باعتبارها (حسابات خاطئة مقبولة)، أي أن نسبة معينة من القتلى الأبرياء تُدمَج مسبقًا في التصميم الإحصائي كـ (خطأ متوقَّع). هنا، يفقد الموت قدسيته، ويتحوّل إلى نتيجة (جانبية) لتقديرات رياضية – لا أحد مسؤول عنها، ولا أحد يحزن لها.
كشف تحقيق (972 (2023)) أن لافندر يُولد الأهداف تلقائيًا بحد أدنى للتدخل البشري، حيث يتم تصنيف أي شخص يتصل بـ 3 أشخاص مشتبه بهم كـ (هدف شرعي).
ثالثًا: لافندر كبيوبوليتيكا خوارزمية: حين تُدار الحياة والموت عبر الرياضيات: لافندر لا يعمل فقط كأداة استخبارات، بل كمنصة لـ إعادة إنتاج السلطة الحيوية (biopower) في عصر الذكاء الاصطناعي. فالحياة لم تعد تُدار بقوانين أخلاقية أو حقوقية، بل بثلاث عمليات أساسية:
1. . التجريد الإبستيمي (Epistemic Abstraction): يُختزل الإنسان إلى مدخلات يمكن قراءتها ومعالجتها:
أ. عدد المكالمات
ب. المواقع الجغرافية
ت. قائمة الاتصالات
ويُجرّد من سياقه الثقافي والتاريخي والاجتماعي، ليُعاد إنتاجه ككائن قابل للتصنيف في جداول إلكترونية.
2. . التعليب الأمني (Security Packaging): يُعاد تعريف الخطر في ضوء نموذج رياضي، لا سياسي أو أخلاقي. يُصبح التهديد مشتقًا من علاقة رياضية بين متغيرات، ليُحوّل الخطر إلى نمط، والقرار إلى ناتج معادلة.
3. التطهير الرقمي (Digital Cleansing): يُحوَّل الضحايا إلى (قيم شاذة) أو(( outliers تُستبعد من قواعد البيانات عن طريق القصف أو التصفية. فلا يُسجل موتهم كجريمة، بل كخلل في النظام يُعالَج بـ (تحديث خوارزمي).
بهذا، نعيش لحظة انهيار المعنى الأخلاقي، حيث تُدار الحرب عبر لوحات تحكم، ويُقاس النجاح عبر مؤشرات الأداء، لا عبر الكرامة أو القانون.
رابعًا: ألكس كارب: الفيلسوف الذي يبرمج العنف بوجه ناعم: رئيس شركة بلانتير، ألكس كارب، لا يتحدث كلغوي تقني، بل كـ (فيلسوف نظامي) يبرّر الانتقال من الأخلاق إلى الأداء. فهو يخلع على التقنية عباءة أخلاقية مزيّفة، مقدّماً نفسه كحامٍ للديمقراطية، بينما أدواته تُستخدم في سحق المجتمعات وتفكيك النسيج البشري للشعب العربي الفلسطيني.
1. يصف التضامن مع فلسطين بأنه (عدوى أيديولوجي).
2. يدعو إلى عزل المعارضين كما يُعزل المرضى
3. يجلس على طاولة الاستثمارات في مشاريع مثل (نيوم)، بينما تُوظّف تقنياته في ملاحقة الفقراء والأبرياء في فلسطين.
كارب لا يبيع فقط برامج، بل يبيع نظرة للعالم: عالم تُدار فيه السياسة كخوارزمية، ويُختزل فيه الإنسان إلى ملف بيانات. إنه يُنتج فلسفة قاتلة ترتدي قناع الحداثة، وتحول الموت إلى قرار تنفيذي في (نظام تشغيل).
ما نشهده اليوم ليس فقط تطورًا تكنولوجيًا، بل تحوّلًا في بنية التفكير السيادي. فالحرب لم تعد عملًا سياسيًا بل أصبحت مشروعًا خوارزميًا؛ والمجزرة لم تعد فعلاً مشينًا بل (انحرافًا مقبولًا) في مصفوفة إحصائية.
هذه الأنظمة – بلانتير، لافندر، وحدة (8200) – لا تقتل فقط الأجساد، بل تقتل الفهم، تُشوّه الضمير، وتُعطّل فلسفة الحياة. إنها تعيد تشكيل علاقتنا بالموت، بالعدو، بالآخر، وبالإنسانية نفسها.
في عالم تحكمه خوارزميات، وتُقاس فيه الأرواح بنسب النجاح، يجب أن نعيد السؤال الفلسفي الجوهري: من يملك حق تعريف العدو؟ ومن يملك حق المحو؟ فربما أخطر ما في الذكاء الاصطناعي العسكري ليس قدرته على القتل، بل قدرته على إعادة تعريف المعنى ذاته.
خامسًا: التكنولوجيا كأداة استعمارية جديدة — من الاستعمار الكلاسيكي إلى الكود الخبيث: لم تعد السيطرة الاستعمارية في عصرنا ترتدي خوذة الجندي أو تحمل بندقية، بل تلبس اليوم بدلة المبرمج وتختبئ داخل كود برمجي وخوارزمية ذكية. بلانتير، في هذا السياق، ليست مجرد شركة برمجيات، بل تجسيد حديث للهيمنة التي تتغذى على بيانات المستضعفين وتُعيد تشكيل الجغرافيا الأخلاقية للعالم. هي نموذج صارخ لتحالفات مشبوهة تمزج بين رأس المال التقني والقوة الجيوسياسية والعسكرة المؤتمتة.
1. العقود العسكرية ليست مجرد خدمات بيانات، بل مشاريع لإعادة تعريف الحرب: كيف تُدار، ومن يُقتل، وبأي حقّ. ما كانت القوى الاستعمارية تفعله بالبوارج والسفن تفعله اليوم بالخوادم والذكاء الاصطناعي.
2. الأجهزة الاستخباراتية في هذا السياق لا تجمع المعلومات فحسب، بل تُبرمج العالم وفق نظرتها الأمنية، وتجعل من “التهديد” تعريفًا قابلاً للتخصيص حسب مصالح القوى الكبرى. لم تعد السيادة تُخرق عبر الحدود، بل عبر الكود، والتجسس، والتصنيف الآلي للفئات الخطرة.
3. اختبار التكنولوجيا في الأجساد المهمشة — من الشعب العربي الفلسطيني في غزة، إلى السود في أمريكا، إلى اللاجئين في أوروبا — هو امتداد لمختبرات الاستعمار القديم. لم يُعد البشر يُعامَلون كضحايا، بل كبيانات قابلة للتنميط والإبادة الرقمية.
اشارت تقارير من (هيومن رايتس ووتش) و (أمنستي) تُثبت استخدام الذكاء الاصطناعي في استهداف مدنيين، مثل: هيومن رايتس ووتش (2023)، فإن نظام لافندر استُخدم في تحديد أهداف عشوائية في غزة بفلسطين بناءً على معايير إحصائية فضفاضة، ما أدى إلى مقتل مدنيين مثل عائلة أبو عطوة في تفجير (يوليو 2022).
مثلما تُستخدم أنظمة الذكاء الاصطناعي الصينية في اضطهاد (الأويغور (كمنصة (Sharp Eyes)، يوظف الكيان الصهيوني التقنية لتعزيز الاحتلال عبر آليات متشابهة: التصنيف العرقي، وذلك بأن كلا النظامين يعتمدان على بيانات السلوك والعلاقات. والتطهير الرقمي، وذلك بحذف الأفراد من الخدمات الأساسية بناءً على خوارزميات.
إنّ السؤال الأخلاقي لم يعد محصورًا في (كيفية إصلاح الخوارزمية؟)، لأن هذه الخوارزميات لم تولد معطوبة؛ بل صُممت لتخدم مصالح من يملك السلطة. بل السؤال الجذري هو (كيف نحاكم الشركات التي تمارس الحرب عبر الشيفرة؟ وكيف نعيد الاعتبار للعدالة الإنسانية في وجه من يحول الحياة إلى معادلة خسارة وربح؟). إنها استعمارية من نوع جديد — حيث لا تحتاج الإمبراطورية إلى احتلال الأرض، بل إلى السيطرة على سُحب البيانات.
سادساً: المواجهة الأخلاقية والسياسية: كيف نكبح خوارزميات القتل؟: في مواجهة هذا الانزياح المرعب نحو (العنف المؤتمت)، تُطرح ضرورة استراتيجية عاجلة: كيف نعيد ضبط العلاقة بين الإنسان والتكنولوجيا؟ وكيف نُسائل النظام العالمي الذي يمنح الشركات التقنية حصانة تتجاوز القوانين الدولية؟ لقد آن الأوان لبلورة جبهة مقاومة متعددة المستويات، لا تكتفي بالإدانة الأخلاقية، بل تنتج بديلاً معرفيًا ومؤسساتيًا يواجه هذه الطغمة الخوارزمية.
1. المساءلة القانونية والمؤسساتية
أ. تشريعات دولية جديدة: يجب تطوير إطار قانوني عالمي يُصنّف استخدام الذكاء الاصطناعي في عمليات الاستهداف والقتل الجماعي كـ (جريمة حرب) أو (جريمة ضد الإنسانية)، بصرف النظر عن هوية الجاني أو الضحية.
ب. تجريم الخوارزميات المميتة: على غرار (اتفاقية حظر الألغام)، يمكن الدفع نحو اتفاقية دولية لحظر أنظمة التصنيف الآلي للأشخاص في السياقات العسكرية، خصوصًا تلك التي تعتمد على احتمالات غير يقينية.
ت. محاكمات جنائية للشركات: يجب توسيع مبدأ (المسؤولية الجنائية للشركات) ليشمل مزودي البرمجيات والمنصات التي تُستخدم في ارتكاب مجازر خوارزمية.
2. الجبهة العربية: من التنديد إلى الفعل: رغم صمت رسمي عربي يكاد يرقى إلى التواطؤ، لا تزال هناك إمكانيات للتحرك:
أ. تبني حملات دبلوماسية قانونية في الأمم المتحدة ومجلس حقوق الإنسان ضد الشركات المتورطة في جرائم الحرب، مثل بلانتير.
ب. فرض حظر أكاديمي وأمني وتقني على هذه الشركات داخل الدول العربية، وقطع أي علاقات تجارية معها.
ت. دعم حركة “العدالة الخوارزمية” عبر المنظمات الحقوقية، وتقديم ملفات قانونية للهيئات القضائية الدولية.
ث. تفعيل المقاطعة التكنولوجية كامتداد لحملات (BDS) مقاطعة، سحب الاستثمارات، العقوبات.
3. بناء أخلاقيات مضادة: من (الرقمنة الأخلاقية) إلى (الذاكرة الخوارزمية): لسنا أمام مشكلة تقنية فقط، بل أزمة قيمية وحضارية. فهذه الخوارزميات تستند إلى رؤية للعالم ترى الإنسان ككائن إحصائي، يُختزل إلى سلوكيات ونقاط على شبكة رقمية. لذلك، يجب بناء منظومة أخلاقية مضادة:
أ. منهجيات تقييم أخلاقي للذكاء الاصطناعي العسكري ترفض فكرة (الخطأ المقبول).
ب. تجريم خطاب (النفعية الخوارزمي) الذي يُسوّغ المذبحة بدعوى (فعالية الحرب (
ت. تبني فلسفة رقمية إنسانية تُعيد الاعتبار للسياق، والتاريخ، والعدالة كقيم تتجاوز الكفاءة.
4. مقاومة معرفية وثقافية: إذا كانت خوارزميات بلانتير تكتب مصير الشعب العربي الفلسطيني في سطر كود، فعلينا نحن أن نكتب تاريخنا بلغة الذاكرة المقاومة:
أ. رقمنة الرواية العربية الفلسطينية وتوثيق المجازر بلغة تكنولوجية لا تُعادي التقنية، بل تعيد توجيهها للعدالة.
ب. تأسيس تحالف أكاديمي عالمي ضد عسكرة الذكاء الاصطناعي، يضم مفكرين وتقنيين وأخلاقيين.
ت. إنتاج خوارزميات بديلة مضادة للاستعمار الرقمي، تعزز التمييز بين المراقبة للحماية، والمراقبة للقتل.
ومن نماذج المقاومة الناجحة، مبادرات مقاطعة، في (2021)، نجحت حملة مقاطعة شركة( (NSO (الإسرائيلية)، (صاحبة برنامج بيجاسوس) بعد ضغط دولي قادته منظمة العفو الدولية، مما أدى إلى شبه إفلاسها. يمكن تطبيق نموذج مماثل على بلانتير عبر تحالفات حقوقية.
سابعاً: نحو جبهة خوارزمية إنسانية: إننا لا نعيش فقط صراعًا سياسيًا أو جيوسياسيًا، بل نخوض صراعًا إبستمولوجيًا على تعريف الإنسان: هل هو مجرد كتلة بيانات تُدار بالاحتمال، أم كائن أخلاقي له حقوق لا يمكن تنميطها أو حذفها برمجياً؟
ما يحدث اليوم هو إعادة برمجة الإبادة الجماعية بلغة السيليكون والدوائر الإلكترونية، وعليه فإن معركتنا ليست فقط ضد أدوات القتل، بل ضد الأسس الفلسفية التي تمنحها الشرعية. إذا لم يُخلق وعي عالمي جديد يواجه هذه التقنية القاتلة، فإننا نُسلّم مستقبل البشرية لأرقام لا روح لها، وبرمجيات تُغذّى على الأيديولوجيا وتُنفّذ القتل دون تأنيب ضمير.
خاتمة: الذكاء الاصطناعي بين وعد التحرير وخطر الإبادة: إن قصة بلانتير وأمثالها ليست مجرد انحراف تقني، بل اختلال معرفي في تصورنا للسلطة، والأخلاق، والمستقبل. حين تُدمج الرأسمالية الرقمية مع البيروقراطية الأمنية، يصبح القتل مسألة كفاءة، وتتحول الحرب إلى تجربة مختبرية، تتغذى على البيانات بدلًا من الحوار، وعلى الاستهداف بدلًا من الفهم. لم تعد المجازر بحاجة إلى جنرالات غاضبين، بل إلى محللين هادئين خلف الشاشات، يديرون الجريمة بنعومة برمجية.
إن أخطر ما في الذكاء الاصطناعي ليس تقنيته، بل (العقلية) التي ترافقه: عقلية اختزالية تُعيد الإنسان إلى سلسلة من الأكواد، تُبرر المسح الشامل تحت عنوان (الكفاءة الأمنية)، وتمنح الآلة شرعية أخلاقية لإصدار الأحكام. هذا التواطؤ الصامت بين التقنية والقوة يكشف عن أزمة حضارية، حيث يُستبدل الضمير بالخوارزمية، ويُصمم القتل كنظام تشغيل.
ولذلك، يجب ألا يكون السؤال: كيف نتحكم في الذكاء الاصطناعي؟، بل: كيف نحمي إنسانيتنا من التفسخ داخل منطقه؟ هل لا نزال قادرين على إنتاج معرفة تُعلي من شأن الكرامة، في وجه برمجياتٍ تُقدّم الكفاءة على الرحمة؟ من لا يرى أن التقنية مشبعة بالقيم، يعيش وهم الحياد وهو يسير نحو الهاوية.
كما تقول شير توركل:(من لم يعلم يقينًا أن التقنية ليست محايدة، فقد خبّأ روحه في مصانع البيانات المشبوهة (. في نهاية المطاف، لا يُقاس تطور المجتمعات بذكائها الاصطناعي، بل بمدى قدرتها على صيانة الإنسان من التحوّل إلى رقم فائض عن الحاجة.
Leave a Reply