اجتاح الذكاء الاصطناعي مجالات الحياة العصرية كلّها، بدءاً من المكانس الكهربائية "الذكية" وصولاً إلى المركبات الذاتية القيادة والتقنيات المتطوّرة في تشخيص الأمراض.
وبينما يعتبر مناصروه أنه يحدث ثورة في حياة البشر، يؤكّد مَن ينتقده أنّ هذه التكنولوجيا تنطوي على خطر أن تتولّى الآلات مهمة اتّخاذ القرارات المصيرية في الحياة. ويبرز هنا قلق من جانب الهيئات الناظمة في أوروبا وأميركا الشمالية.
ويُرجَّح أن يقر الاتحاد الأوروبي العام المقبل قانون "أرتيفشل إنتلجنس أكت" الذي يهدف إلى كبح جماح عصر الخوارزميات.
ونشرت الولايات المتحدة حديثاً خطة لشرعنة حقوق مرتبطة بالذكاء الاصطناعي، فيما تدرس كندا احتمال اللجوء إلى قانون ينضوي تحت الهدف نفسه.
وغالباً ما يتم التلميح إلى استخدام الصين البيانات الحيوية، بالإضافة إلى تقنية التعرف على الوجه وغير ذلك من التقنيات الرامية إلى بناء نظام تحكم قوي.
وتشير غري هسيلباك، وهي باحثة دنماركية تقدّم مشورة للاتحاد الأوروبي في شأن التكنولوجيا المثيرة للجدل، إلى أنّ الغرب يخاطر في إنشاء "بنى أساسية شمولية".
وتقول لوكالة فرانس برس: "أرى أنّ هذه الخطوة تمثّل تهديداً كبيراً أياً تكن الفوائد".
لكن قبل المباشرة بالتحرّك، تواجه الهيئات الناظمة مهمّة شاقة تتمثل في تحديد المفهوم الدقيق للذكاء الاصطناعي.
لا يوجد تعريف متفق عليه للذكاء الاصطناعي
وقال سوريش فينكاتاسوبرامانيان، المشارك في إعداد وتشريع الحقوق الخاصة بالذكاء الاصطناعي إنّ محاولة تحديد مفهوم الذكاء الاصطناعي "خطوة حمقاء". وأشار في تغريدة عبر تويتر إلى أنّ أي تقنية تؤثر على حقوق الناس ينبغي أن تكون ضمن نطاق مشروع القانون.
إلا أنّ الاتحاد الأوروبي الذي يضم 27 بلداً يأخذ المسار الأكثر تعقيداً في محاولة لتحديد هذا المجال الواسع.
وتذكر مسودّة مشروع القانون الخاص به المقاربات التي يُشار إليها على أنّها تمثل الذكاء الاصطناعي، ومن ضمنها أي نظام كمبيوتر يتضمّن التشغيل الآلي.
لكنّ المشكلة تنبع من استعمالات مصطلح الذكاء الاصطناعي المتغيّرة.
ووُصف هذا المفهوم على مدى عقود على أنّه محاولات لإنشاء آلات تحاكي التفكير البشري.
وفي أوائل القرن الحادي والعشرين، جفّ إلى حد كبير التمويل المتعلّق بهذا البحث.
وترافق بروز شركات سيليكون فالي العملاقة مع تجدّد في مصطلح الذكاء الاصطناعي كشعار جذاب لبرامج هذه الشركات وخوارزمياتها.
وأتاح هذا التشغيل للشركات استهداف المستخدمين بالإعلانات والمحتوى، ما ساعدهم على جني مئات المليارات من الدولارات.
وتشير ميريديث ويتكر، وهي موظفة سابقة في "غوغل" ومشاركة في تأسيس معهد "أرتيفشل إنتلجنس ناو" التابع لجامعة نيويورك، في حديث إلى وكالة فرانس برس، إلى أنّ "الذكاء الاصطناعي كان وسيلة للشركات كي تستفيد بصورة أكبر من بيانات المراقبة وتخفي ما كان يجري".
وخلص كل من الاتحاد الأوروبي والولايات المتحدة إلى أنّ أي تعريف للذكاء الاصطناعي ينبغي أن يكون شاملاً قدر الإمكان.
إشكالية أدوات المراقبة البيومترية وحقوق الإنسان
اتّخذت كلّ من القوّتين الغربيتين مساراً مختلفاً عن الآخر. ويأتي مشروع قانون الاتحاد الأوروبي المتعلق بالذكاء الاصطناعي في أكثر من مئة صفحة.
ومن بين أكثر المقترحات الملفتة فيه حظر كامل لبعض التقنيات "عالية الخطورة"، كأدوات المراقبة البيومترية المستخدمة في الصين.
ويقترح المشروع كذلك الحدّ بشكل كبير من استخدام أدوات الذكاء الاصطناعي من المسؤولين عن ملف الهجرة والشرطة والقضاة.
وتلفت هسيلباك إلى أنّ بعض التقنيات "كانت ببساطة تحمل إشكالية كبيرة جداً في ما يتعلق بالحقوق الأساسية".
ومن ناحية ثانية، يشكل مشروع القانون الأميركي مجموعة مبادئ مختصرة صيغت بلغة طموحة، مع نصائح بينها مثلاً ما يندرج تحت فكرة "ضرورة أن تكون محمية من الأنظمة غير الآمنة أو غير الفعالة".
وصدر مشروع القانون الذي يستند إلى القوانين المعمول بها حالياً، عن البيت الأبيض.
ويعتبر الخبراء أنه من غير المحتمل وجود قانون خاص بالذكاء الاصطناعي في الولايات المتحدة قبل عام 2024 أقلّه، لأنّ الكونغرس وصل إلى طريق مسدود في هذا الشأن.
وتتعدّد الآراء في شأن مزايا كل مقاربة خاصة بكلي الجانبين. ويرى غاري ماركوس من جامعة نيويورك لوكالة فرانس برس أنّ "موضوع الذكاء الاصطناعي بحاجة ماسة إلى قانون" ينظّمه.
ويشير إلى أن "النماذج اللغوية الكبيرة"، بينها الذكاء الاصطناعي المسؤول عن روبوتات المحادثة وأدوات الترجمة وبرامج النصوص التنبؤية، قد تُستخدم لنشر معلومات مضللة.
وتبدي ويتكر شكوكاً في قيمة القوانين الرامية إلى التصدّي للذكاء الاصطناعي بدل مكافحتها "نماذج المراقبة" التي تقوم عليها. وتقول "إذا لم يعالج القانون الموضوع بشكل جوهري، فأعتقد أنّ الأمر سيمثّل معالجة موقتة كأن نضع ضمادة على جرح في الجسم".
ويشير الباحث شون ماكغريغور الذي يتولى تسجيل الأعطال التقنية لدى قاعدة بيانات "أرتيفشل إنتالدجنس إنسيدنت"، إلى أنّ الذكاء الاصطناعي كان هدفاً أفضل للهيئات الناظمة من مفهوم الخصوصية الذي ينطوي على إبهام أكبر.
ويحذّر من احتمال التوصل إلى قوانين تفرط في تنظيم الذكاء الاصطناعي.
ويقول لوكالة فرانس برس "إنّ السلطات الحالية يمكنها تنظيم موضوع الذكاء الاصطناعي"، معدّداً أمثلة بينها لجنة التجارة الفدرالية الأميركية ووزارة الإسكان والتنمية الحضرية.أما النقطة التي يتّفق عليها الخبراء فهي الحاجة إلى تبديد الترويج المفرط للذكاء الاصطناعي والغموض المحيط به.
ويعتبر مكغريغور أنّ الأمر "ليس سحرياً"، مشبّهاً الذكاء الاصطناعي ببرنامج "مايكروسوفت إكسل" المعقّد جداً.