استولى الذكاء الاصطناعي مؤخراً على اهتمام العالم، بعد أن تحول من منتج تستحوذ على خدماته الدول والشركات، والمؤسسات الأكاديمية، إلى منتج «شعبي» يستخدمه الكثيرون في العمل والدراسة، والترفيه، وغير ذلك؛ بينما يدور جدل كبير حول المنافع والأخطار الآنية والمحتملة له، بين متحفظ على الإطلاق ومصوّرٍ للذكاء الاصطناعي على أنه أكبر خطر يهدد البشرية منذ اختراع الأسلحة النووية، إلى مبالغ في منافعه للبشرية، واعتباره فتحاً جديداً سينقلها إلى المزيد من التقدم والازدهار.
وإن كانت منافع الذكاء الاصطناعي ليست محل جدل كبير، فإن هناك خلافات أساسية حول الأخطار التي قد تنتج عنه. ومؤخراً، قرر اثنان من أكبر المهتمين بالذكاء الاصطناعي؛ «إيلون ماسك» و«سام ألتمان» التريث قليلاً قبل استئناف إصدارات جديدة، حيث طالب «ماسك» بالتوقف عن تدريب أنظمة ذكاء اصطناعي جبارة لأنها تمثل أخطاراً ضخمة على المجتمع، مؤكداً الحاجة لجعله متوائماً مع القيم الإنسانية، وأعلن عن خطته لإطلاق نموذج جديد للتعامل مع ما يسميه التحيز الليبرالي لتطبيقات محادثات الذكاء الاصطناعي، وذلك بهدف تحقيق درجة عالية من المصداقية، كما دعا إلى تدخل الدول لوضع تشريعات تضبطه.
كما أكد «ألتمان»، أن شركته لا تعمل حاليّاً على تدريب نسخة متقدمة من تقنية ChatGPT، مما يبدو تأثراً بالرسالة التي وقعها نحو ألف من القيادات التقنية والباحثين والمهتمين، مطالبة بالتوقف المؤقت عن تطوير أنظمة أكثر قوة بسبب الأخطار المحتملة منها على الإنسانية، ومؤكدة أن مختبرات الذكاء الاصطناعي أصبحت في حالة سباق غير منضبط لتطوير برمجيات لا يستطيع أحد، حتى مطوروها، فهمها أو التحكم فيها، كما حذرت من أن التوقف إذا لم يُفعَّل بسرعة، فإن الحكومات يجب أن تتدخل وتفرضه. كما قرر «جيفري هينتمان»، الأب الروحي للذكاء الاصطناعي، مغادرة وظيفته في «غوغل» حتى يتمكن من الحديث بحرية واستقلالية عن أخطاره، مؤكداً أنه من الصعوبة أن تمنع الناس السيئين من استخدامه في أعمال شريرة.
وفي شهر مارس (آذار) هذا العام، حاول اثنان من موظفي «غوغل» إيقاف إطلاق منتج قائم على الذكاء الاصطناعي؛ لأنه أنتج جملاً غير صحيحة وخطيرة، وقبل ذلك أطلق موظفون مسؤولون عن الجوانب الأخلاقية في شركة مايكروسوفت نفس التحذير، ومع ذلك استمرت الشركتان في سباقهما المحموم، وقامتا بإصدار منتجاتهما لتحقيق سبق التحكم في منتجات الذكاء الاصطناعي الحديثة.
وعلى مستوى الدول، أصدرت الحكومة الصينية مؤخراً، ضوابط مشددة يجب التزامها، كما أصبحت إيطاليا أول دولة تضع حظراً مؤقتاً على تقنية «ChatGPT»، وفي الولايات المتحدة التقى الرؤساء التنفيذيون لشركات الذكاء الاصطناعي الكبرى مع نائبة الرئيس الأميركي لمناقشة أخطاره، في اجتماع رفيع المستوى حضره مسؤولون عسكريون، وأمنيون، واقتصاديون وغيرهم.
يقدم «علم نفس إدراك الأخطار»، تفسيرات مهمة تساعد على فهم هذا الجدل، حيث يهتم بدراسة العوامل ذات العلاقة بتقديرنا للأخطار والمنافع العائدة من مختلف التقنيات. ومن أهم ما توصل إليه أن إدراك الناس للمنافع والأخطار لا يقوم دائماً على أسس موضوعية وشواهد وبيانات علمية، بل قد يتأثر بعوامل نفسية واجتماعية وبيئية وسياسية عدة، وإن تأثير تلك العوامل لا يقتصر على عامة الناس، بل يشمل الخبراء والأكاديميين والمهنيين وصانعي السياسات. ومن هذه العوامل:
- طبيعة الخطر، فالصورة الذهنية للأخطار الناتجة عن الذكاء الاصطناعي، خاصة تلك التي تركز على احتمالية فقدان السيطرة على التقنية، تسهم في تعزيز المخاوف، فالناس ينزعون لاعتبار ما لا يستطيعون التحكم فيه وتوجيهه على أنه ذو خطورة عالية، ويعزز هذا التخوف حداثة التقنية، وعدم معرفة تفاصيلها، فالإنسان يشعر بأنه أكثر قدرة على التحكم في الخطر إذا كان معروفاً أو مألوفاً لديه.
- الخبرات الشخصية يمكن أن تؤثر في إدراكنا لأخطار التقنية ومنافعها، فبعض المعلومات الناتجة عن استخدام الشخص لتطبيقات الذكاء الاصطناعي، التي قد تخالف معتقداته الشخصية أو الدينية، أو تتعارض مع معايير المجتمع الذي يعيش فيه وعاداته وتقاليده، تدفعه دون وعي منه لتضخيم أخطاره وتقليل منافعه.
- الانتماءات المؤسسية والآيديولوجية للعاملين في مجال الذكاء الاصطناعي، حيث لا يمكن أن نتوقع ممن يعمل في مجال الذكاء الاصطناعي أن يكون موضوعياً تماماً في أحكامه حول منافعه وأخطاره، كما أن جماعات الضغط من ذوي الاهتمامات الخاصة، وبعض الأوساط العلمية والأكاديمية المعارضة لتقنيات الذكاء الاصطناعي، تفعل العكس بتهويلها للأخطار وتصويرها بأنها قد تؤدي لزوال البشرية.
- ثقة الجمهور بالجهات التنظيمية والتشريعية وشركات التقنية التي تعمل على تعريف الناس بالأخطار ودرجة حدتها وإمكانية التحكم في التقنية، فإذا كانت درجة الثقة بهذه المؤسسات عالية فإن إدراك الناس للأخطار سيكون متواكباً مع تقديراتها، أما في حال فقدان الثقة، فإن المعلومات المقدمة لن يكون لها التأثير المطلوب.
- التغطية الإعلامية تقوم بأدوار مهمة في تشكيل إدراك المنافع والأخطار، فأحياناً تكون الأخطار منخفضة، ولكن كثرة الحديث عنها إعلامياً يؤدي إلى تضخيمها في أذهان الناس، ويجعلها تبدو وكأنها وشيكة الحدوث، وهذا ما يُطلق عليه «التضخيم المجتمعي للأخطار»، ويمكن ملاحظته في التعامل الإعلامي مع الأمراض النادرة، فنَشْر صور الإصابات وحِدَّتها، وبصورة درامية أحياناً، يجعلها متاحة في أذهان الناس، مما يسهل تخيل وقوعها، حتى ولو كانت نسبها ضئيلة جدّاً في الواقع.
- العوامل العاطفية تؤثر على إدراكنا للأخطار والمنافع من الخيارات المختلفة. فعندما تكون اتجاهاتنا سلبية نحو خيار معين، فإننا ننزع للتقليل من منافعه وتهويل أخطاره، والعكس صحيح. كما أن تعرضنا لمعلومات إيجابية (كالحملات التسويقية) يؤثر على تفضيلاتنا وتقديرنا للأخطار والمنافع التي قد تنتج عنها. إن فهم صانعي السياسات والقرارات للعوامل ذات التأثير على إدراك المنافع والأخطار من الذكاء الاصطناعي، ذو أهمية بالغة في الوصول لمعرفة أفضل، وتحديث القناعات دون التشبث بآراء مسبقة. فأي سياسة، أو قرار يجب أن يعتمد على تقدير دقيق للمنافع والأخطار الآنية والمتوقعة، وبالتالي وضع إجراءات للوقاية أو التقليل منها، وتجنب التعامل مع ما يطرح دون تحليل ناقد قائم على نظرة علمية متوازنة.
إن البشرية ما زال أمامها الكثير لمعرفة الآثار الحقيقية للذكاء الاصطناعي، والجدل الجاري يجب أن يكون محفزاً لجميع الجهات ذات العلاقة للتعاون للوصول إلى نتائج علمية بعيدة عن التأثر بالجوانب غير الموضوعية، وإنَّ من الضروري أن يُبنَى التواصل مع المجتمعات المحلية والعالمية عن الأخطار المحتملة من دون تضخيم أو تهوين، والعمل بشفافية لزيادة مستوى الثقة بما يقدم من معلومات عن مختلف جوانب الذكاء الاصطناعي وآثاره على مختلف مجالات الحياة، وعن الإجراءات المتخذة لتنظيمه؛ فالعامل الإنساني سيبقى عنصراً لا غنى عنه في التأكد من أن التقنيات الحديثة سيكون لها مردود إيجابي على البشرية، وبأقل أضرار ممكنة، من خلال الرقابة الفاعلة والمحاسبية.
ومن الجوانب ذات الأهمية الاستراتيجية، أن تعطي الدول تقنيات الذكاء الاصطناعي صفة سيادية، وذلك بأن تقوم الدول بتصميم نماذجها الخاصة بها، لتجنب تحديات وأخطار الذكاء الاصطناعي المحتملة، خصوصاً المتمثلة في تحكم الدول التي تملك تلك التقنيات، وسعيها لتكييف المعرفة والخبرة لخدمة مصالحها، وتجاهل قيم وثقافات المجتمعات الأخرى، وتقديم المعلومات المغلوطة عنها مما قد يؤثر سلباً على أمنها واستقرارها.
* أكاديمي وخبير نفسي