استعراض علمي وتأملي لمحاضرة: (حوكمة الذكاء الاصطناعي)

بقلم: طارق عبد اللطيف أبوعكرمة

في يوم 21 يونيو 2025، تشرفت بحضور محاضرة بالغة الأهمية بعنوان “حوكمة الذكاء الاصطناعي”، قدمها أستاذنا القدير أ.د. عبد السلام الطائي. تناولت المحاضرة منظومة الحوكمة كإطار أخلاقي وتشريعي مواكب للتطور المتسارع في تقنيات الذكاء الاصطناعي، التي بدأت تتغلغل في شرايين المجتمعات والمؤسسات حول العالم، وتهدد بإعادة تشكيل قواعد اللعبة الإنسانية.

الجذور التاريخية للحوكمة والفكر الخوارزمي

استهلت المحاضرة بإطلالة تاريخية لافتة، استعرض فيها المحاضر الجذور الحضارية العميقة للفكر الخوارزمي، متتبعًا الإرث العراقي من مسلة حمورابي إلى مخطوطات الخوارزمي في القرن التاسع الميلادي. رسم هذا المسار ليؤكد أن التفكير الخوارزمي لم يكن وليد الثورة الرقمية، بل امتداد لحضارة عرفت التشفير والتنظيم قبل آلاف السنين، بل وسبق أن تعرضت للنهب المعرفي كما حصل في سرقة البطارية البغدادية بعد غزو العراق 2003 م.

انتقل بعدها المحاضر إلى تعريف الحوكمة بوصفها مجموعة من السياسات والمعايير والمؤسسات، التي تضمن الاستخدام العادل، الشفاف، والآمن للذكاء الاصطناعي. ونبّه إلى أن الحوكمة ليست فقط نظام رقابة، بل منظومة أخلاقية لضمان بقاء الإنسان هو المركز، لا مجرد عنصر ضمن معادلات الخوارزميات.

سلطة الرمزية في ظل الذكاء الاصطناعي ومخاطر “السياسي والدين الاصطناعي”

تطرقت المحاضرة كذلك إلى المفهوم المثير لـ “سلطة الرمزية في ظل الذكاء الاصطناعي”، موضحة كيف يمكن أن ينشأ “السياسي الاصطناعي” أو “الدين الاصطناعي” كنتيجة لتطور أدوات التأثير، حين يصبح من الممكن خلق رموز وهمية تمارس سلطة على العقل الجمعي دون رقيب بشري. وهي قضية تنذر بتحول خطير في مصادر الشرعية والمصداقية، ما لم يتم تطويقها بإطار معرفي وأخلاقي صارم.

الذكاء الاصطناعي في المنطقة والعالم: تطبيقات وتحديات

في حديثه عن المنطقة العربية، استعرض المحاضر زيارة الرئيس ترامب الأخيرة، وكيف رُكزت بشكل لافت على توقيع اتفاقيات الذكاء الاصطناعي مع المملكة العربية السعودية، في سياق تنافسي مع الصين وأوروبا. وأشاد بتجارب مثل الإمارات، التي استحدثت وزارة للذكاء الاصطناعي ضمن رؤية استراتيجية بعيدة المدى تمتد إلى عام 2071، مما يعكس وعيًا متقدمًا بالتحول العالمي نحو الاقتصاد المعرفي.

قدم الجزء العلمي من المحاضرة بانوراما دقيقة للتطبيقات الواسعة للذكاء الاصطناعي في المجالات الصحية، الأمنية، التعليمية، الفضائية، المناخية، الصناعية، والزراعية. ونبّه إلى أن “الحوكمة الرقمية” باتت ضرورة وجودية توازي الحاجة إلى التشريعات السياسية، وتشمل الأمن السيبراني، حماية البيانات، وضمان استمرارية الخدمات الحكومية الحيوية.

تتلخص أهمية الحوكمة كما تم تناولها في محاور خمس: تعزيز الثقة، ضمان العدالة الخوارزمية، حماية الحقوق، الشفافية، والمساءلة. وتتجلى تطبيقاتها في إدارة المخاطر، توزيع الصلاحيات، وتحقيق الاستخدام الأمثل للبيانات. أما أهدافها بعيدة المدى فتتضمن تحقيق الكفاءة المؤسسية، تعزيز العدالة، وتوفير بيئة ابتكارية مستدامة.

في محور العلاقة بين الذكاء الاصطناعي والدين والسياسة، أكد الدكتور الطائي أن هذه الثلاثية تشكل “نسيجًا معقدًا” يسهم في إعادة تعريف السلطة والمقدس، ما لم نحتكم إلى مرجعية أخلاقية وقانونية تحفظ للإنسان قيمته وهويته. وقد مثل مصطلح “الدين الاصطناعي” أحد أبرز التنبيهات الفكرية في المحاضرة، لما يحمله من دلالات حول اختطاف الوعي الديني لصالح قوى تصطنع الرموز وتحتكر التأويل.

وأشار كذلك إلى التحديات التقنية والمؤسسية، وأبرزها:

  • غياب إطار قانوني دولي موحد.
  • سرعة الابتكار مقابل بطء المشرّع.
  • استعصاء فهم “الصندوق الأسود للخوارزميات” الذي يغيب عنه التفسير والشفافية.

توصيات وملاحظات شخصية

في ختام المحاضرة، قُدمت توصيات دقيقة لتوجيه الذكاء الاصطناعي نحو الخير المشترك:

  • وضع معايير محلية تحكم الذكاء الاصطناعي وفق خصوصية كل دولة.
  • دمج الأخلاقيات الرقمية في التعليم، لضمان جيل أكثر وعيًا.
  • تحفيز البحث العلمي في الذكاء الاصطناعي التفسيري (Explainable AI).
  • منع الاحتكار التقني عبر دعم المصادر المفتوحة، والمساءلة المؤسسية.

وفي ملاحظاتي الشخصية، لفتني ما طرحه الدكتور الطائي حول ثلاثة مفاهيم خطيرة: الدين الاصطناعي، السياسي الاصطناعي، وخطر الاستبداد الخوارزمي. لقد أيقظت هذه المفاهيم أسئلة عميقة حول طبيعة السلطة القادمة: من سيصوغ القيم؟ من سيحدد الخير والشر؟ هل نثق بخوارزمية لا تبكي ولا تشعر؟

ورغم التفاؤل بإمكانات الذكاء الاصطناعي في تحسين الإنتاجية وخلق وظائف جديدة، تبقى المخاوف قائمة من تآكل الوظائف التقليدية، وانتقال السلطة تدريجيًا من “العقل البشري” إلى “القرار الآلي”. وهذا ما يجعل مسؤوليتنا كأفراد، وكمؤسسات، أن نعيد رسم العلاقة بين الإنسان والآلة، بحيث يكون الذكاء الاصطناعي أداة للارتقاء لا بديلًا عن الإنسان.

رؤية شخصية وتعمق في المفاهيم

أثارت المحاضرة اهتمامي، خاصة في النقاط المتعلقة بالتالي (التي أرى من الضرورة تناولها للتوضيح أكثر):

1. الدين الاصطناعي:

  • المقصود: قد يشير إلى استخدام الذكاء الاصطناعي في تفسير النصوص الدينية، أو حتى ظهور “أديان جديدة” قائمة على التكنولوجيا (مثل دين “الذكاء الخارق” الذي طرحه بعض المستقبليين).
  • التأثيرات:
    • إمكانية تحريف النصوص الدينية عبر تفسيرات آلية.
    • ظهور حركات تدعو لعبادة الذكاء الاصطناعي كقوة خارقة.
  • التحديات: كيف يمكن حماية الهوية الدينية من التلاعب الآلي؟

2. السياسي الاصطناعي:

  • المقصود: استخدام الذكاء الاصطناعي في صنع القرار السياسي، مثل:
    • تحليل البيانات لتوجيه الحملات الانتخابية.
    • إنشاء “زعماء افتراضيين” أو سياسات آلية.
  • المخاطر:
    • التلاعب بالرأي العام عبر خوارزميات موجهة.
    • فقدان الشفافية في صنع القرار.

3. تأثير الذكاء الاصطناعي على العمل والموظفين:

  • الإيجابيات:
    • زيادة الإنتاجية عبر الأتمتة.
    • ظهور وظائف جديدة في مجالات البرمجة والتحليل الآلي.
  • السلبيات:
    • فقدان وظائف تقليدية (مثل المحاسبة، التصنيع).
    • الحاجة إلى إعادة تأهيل العمالة (Reskilling).
  • الحلول: ضرورة تعلم مهارات غير قابلة للأتمتة (كالإبداع، القيادة، الذكاء العاطفي).

4. كيف نستعد لمخاطر الذكاء الاصطناعي ونستفيد منه؟

  • على المستوى الفردي:
    • تطوير مهارات التعامل مع الذكاء الاصطناعي (مثل تحليل البيانات، البرمجة).
    • الوعي بأخلاقيات التكنولوجيا وحدود استخدامها.
  • على المستوى المجتمعي:
    • تشريعات تحمي الخصوصية وتحد من الانحياز الخوارزمي.
    • دمج تعليم الذكاء الاصطناعي في المناهج الدراسية.

5. دور الدول في مواجهة الذكاء الاصطناعي:

  • واجبات الدول:
    • التشريع: وضع قوانين تنظم استخدام الذكاء الاصطناعي (مثل قانون GDPR في الاتحاد الأوروبي).
    • الاستثمار: دعم البحث العلمي وتوطين التكنولوجيا.
    • التعليم: إعداد أجيال قادرة على المنافسة في سوق العمل المستقبلي.
    • الأمن السيبراني: حماية البنية التحتية من الهجمات الآلية.
  • نماذج ناجحة:
    • الصين: استثمرت بقوة في الذكاء الاصطناعي كجزء من خطتها للسيطرة التكنولوجية.
    • الإمارات: لديها وزارة للذكاء الاصطناعي واستراتيجية واضحة حتى 2071.

الذكاء الاصطناعي ليس تهديدًا بحد ذاته، لكن سوء إدارته هو الخطر الحقيقي. على البشرية أن تختار: إما أن تكون مسيطرة على التكنولوجيا، أو مسيرة بواسطتها. الدور الأكبر يقع على الحكومات في صنع هذه المعادلة، لكن الأفراد أيضًا مطالبون بالتكيف والابتكار.

توصيات استراتيجية للتعامل مع الذكاء الاصطناعي: بين الوعي، الضبط، والاستفادة القصوى

1. رفع مستوى الوعي (التعليم والفهم):

  • دمج مفاهيم الذكاء الاصطناعي في المناهج الدراسية، بدءًا من المراحل الأساسية، مع التركيز على:
    • الأخلاقيات الرقمية: كيف نستخدم الذكاء الاصطناعي دون انتهاك الخصوصية أو تعزيز التحيز؟
    • التفكير النقدي: تمييز المعلومات المولّدة آليًا، مثل (Deepfakes) والمحتوى المضلل.
  • حملات توعية عامة عبر وسائل الإعلام ومنصات التواصل، تُظهر:
    • إمكانات الذكاء الاصطناعي الإيجابية (مثل التشخيص الطبي، مكافحة التغير المناخي).
    • مخاطره (البطالة التقنية، الاستبداد الرقمي).

2. تطوير أطر قانونية وحوكمة رشيدة:

  • إنشاء هيئات وطنية ودولية لتنظيم الذكاء الاصطناعي، مثل:
    • وضع مبادئ لاستخدام الذكاء الاصطناعي (الشفافية، المساءلة، عدم التمييز).
    • منع استخدامه في تطبيقات تهدد حقوق الإنسان (كالتعذيب، القمع السياسي).
  • تشريعات صارمة ضد:
    • انتهاك الخصوصية عبر تحليل البيانات الشخصية.
    • الأسلحة ذاتية التشغيل (Autonomous Weapons).

3. إعادة هيكلة سوق العمل واستثمار الكفاءات:

  • إعادة تدريب العمالة (Upskilling) في المهارات غير القابلة للأتمتة:
    • الإبداع، القيادة، الذكاء العاطفي.
    • المهارات التقنية المتقدمة (برمجة الذكاء الاصطناعي، تحليل البيانات).
  • تشجيع الوظائف الإنسانية-التقنية (Hybrid Jobs) مثل:
    • خبير أخلاقيات الذكاء الاصطناعي.
    • مصمم تفاعلات إنسان-آلة.

4. تعزيز البحث العلمي والابتكار المسؤول:

  • دعم المراكز البحثية، التي تدرس:
    • ذكاء اصطناعي شفاف (Explainable AI) لفهم كيفية اتخاذه للقرارات.
    • ذكاء اصطناعي صديق للبيئة (لتقليل استهلاك الطاقة).
  • تعاون دولي لمنع سباق التسلح التقني، والتركيز على تطبيقات تنموية (مثل الزراعة الذكية، الرعاية الصحية).

5. الموازنة بين الابتكار والحماية الاجتماعية:

  • إطلاق “ضمان تقني” (Tech Safety Net) يشمل:
    • دخل أساسي لضحايا الأتمتة (في حال فقدان الوظائف).
    • تأمين صحي يشمل الآثار النفسية للتعامل مع الآلات.
  • تشجيع الاقتصاد الإبداعي كبديل للوظائف الروتينية، مثل:
    • الفن الرقمي، التعليم التفاعلي، المشاريع الاجتماعية.

6. دور الأفراد: من المستهلكين إلى المشاركين الفاعلين:

  • تعلم مهارات التحكم في الأدوات الرقمية، مثل:
    • ضبط إعدادات الخصوصية في التطبيقات.
    • استخدام منصات ذكاء اصطناعي مفتوحة المصدر (لتفادي الاحتكار).
  • المشاركة في النقاش العام عبر:
    • الضغط على الحكومات لتبني سياسات عادلة.
    • دعم المنظمات التي تُعنى بحقوق المستخدمين مثل (Electronic Frontier Foundation).

الخيار ليس بين رفض التكنولوجيا أو الخضوع لها، بل في كيف نجعلها تعكس قيمنا الإنسانية. هذه التوصيات ليست نهائية، بل هي نقطة بداية لحوار متجدد مع كل تطور تقني. السؤال الجوهري: هل نريد ذكاءً اصطناعيًا يخدم البشرية، أم بشرًا يخدمون نظامًا آليًا؟

خاتمة

لم تكن المحاضرة مجرد سرد معلوماتي، بل كانت صوتًا استباقيًا ينذرنا من فقدان زمام المستقبل لصالح ذكاء لا أخلاق له. لقد قدمت تحديًا فلسفيًا يتجاوز التخصصات، وجعلتنا نعيد النظر في موقعنا من خارطة السلطة الرقمية الناشئة. إن الخيار ليس بين أن نرفض التكنولوجيا أو نُسلم لها القيادة، بل في أن نُمسك بزمامها بعقل نقدي وروح إنسانية.

والسؤال الحاسم، الذي تركته المحاضرة معلقًا في الأذهان: هل نُريد عالمًا تصنعه الخوارزميات… أم عالمًا تصنعه القيم ويخدم فيه الذكاء الاصطناعي الإنسان، لا العكس؟

إذا استهوانا هذا السؤال… فقد بدأنا أولى خطوات الحوكمة.

Be the first to comment

Leave a Reply

Your email address will not be published.