شهدت تقنيات الذكاء الاصطناعي في الآونة الأخيرة تطوّرات مبهرة جعلت الصور التي تنتجها تبدو شديدة الواقعيّة ورائجة على مواقع التواصل الاجتماعي، ما أثار تساؤلات حول سبل تمييزها عن الصور الحقيقيّة.
وصحيحٌ أنه حتى اليوم ما من أداة يمكن أن تجزم إن كانت الصورة وليدة برنامج ذكاء اصطناعيّ، إلا أنّ عناصر عدّة قد تُشير إلى استخدام هذه التقنيّة، بحسب خبراء استطلعت وكالة فرانس برس آراءهم بين 21 و23 آذار/مارس 2023.
إمكانات لا محدودة
تتيح بعض برمجيات الذكاء الاصطناعي، مثل "دال-إي" و"ميدجورني" و"ستايبل ديفيوجن" و"كرايون"، توليد صور بمجرّد إدخال بعض الكلمات المفتاحية باللغة الإنجليزيّة مثل (رائد فضاء يركب حصاناً على كوكب المريخ). حينها سيركّب البرنامج تلك الصورة مستعيناً بقواعد بيانات ضخمة من الصور.
وفيما يلجأ البعض إلى تطبيقات الذكاء الاصطناعيّ لدواعٍ فنيّة وترفيهيّة أو على سبيل الفكاهة، يعمد البعض الآخر لإنتاج صور مرتبطة بأحداث سياسيّة، ما يجعلها مادّة للتضليل.
وتنتشر هذه الصور على أنّها حقيقيّة، على الرغم من إشارة صانعيها إلى أنّها نتاج برنامج ذكاء اصطناعي.
هل من أداة خاصّة لكشف الصور؟
هناك أدوات عدّة لكشف هذه الصور وأخرى قيد التطوير، إلا أنّ النتائج التي تقدّمها ليست حاسمة، وقد تعطي نتائج غير دقيقة، بحسب تجارب قام بها صحافيو فرانس برس.
ويشرح ديفيد فيشينغر المهندس المتخصّص في الذكاء الاصطناعيّ في جامعة فيينا للتكنولوجيا لفرانس برس أنّ عمل الذكاء الاصطناعي لا يقوم على مجرّد اقتطاع أجزاء من صورٍ لإعادة تركيبها، إذ "يلجأ إلى ملايين بل مليارات الصور لاستخراج بيانات منها، ثمّ يعيد استخدامها لتوليد صورة جديدة تماماً".
لهذه الأسباب، لا يمكن لمنصّات كشف الذكاء الاصطناعي أن تصل لنتائج حاسمة في هذه المرحلة.
العودة إلى المصدر
بحسب الخبراء، أفضل طريقة لكشف حقيقة الصورة تكمن في العثور على مصدرها الأصليّ.
فالصور التي انتشرت في الآونة الأخيرة على أنّها لتوقيف الرئيس الأميركي السابق دونالد ترامب، نشرها أولاً إليوت هيغينز، مؤسّس موقع "بيلينغكات" المتخصّص بالتحقيقات باستخدام المصادر المفتوحة على الإنترنت.
وأشار إليوت هيغينز عند نشر الصور في 20 آذار/مارس الماضي إلى أنها ليست حقيقية بل أنّه هو من صمّمها.
وفي الصورة، تظهر وجوه عدد من رجال الأمن مموهة وتظهر أقدام وأذرع عناصر شرطة هنا وهناك بطريقة غير منطقية.
المقارنة بصور موثوقة المصدر
صورة أخرى لاقت رواجاً على مواقع التواصل الاجتماعي زعم ناشروها أنّها تُظهر الرئيس الروسي فلاديمير بوتين راكعاً يقبّل يد نظيره الصينيّ خلال زيارته الأخيرة إلى موسكو.
لكنّ التغطية الصحفية لهذا اللقاء تُظهر أن الصالة التي اجتمع فيها الرئيسان في الحقيقة مختلفة تماماً عن تلك الظاهرة في الصورة المتداولة، ما يثير الشكوك حول صحّتها. على الصورة المزيفة، يظهر عامود في القاعة مكسور، وبعض الكراسي غريبة الشكل، ورأس فلاديمير بوتين كبير بشكل غير اعتيادي.
تحليل الصورة
تترك بعض برامج الذكاء الاصطناعي علامة على الصور، على غرار الشّريط الملّون على صور برنامج "دال إي"، وعلامة القلم الملوّن على صور برنامج "كرايون".
لكنّ هذه العلامات يمكن إزالتها بسهولة. عدا عن أنّ البرامج الأخرى لا تترك في الأصل علامات.
وعلى الرغم من التطوّرات التي شهدتها هذه البرمجيات، إلا أنّ الصور التي تنتجها لا تزال تشوبها عيوبٌ وتشوّهات خصوصاً على مستوى الأذنين أو اليدين. فبعض الصور تظهر شديدة الواقعيّة لولا أن التحديق فيها يُظهر مثلاً يداً من ستّة أصابع.
ومن العناصر الأخرى التي يصعب على برمجيات الذكاء الاصطناعي أنّ تقلّدها: الشعر والأسنان والنظّارات الشمسيّة، إذ تظهر أحياناً وكأنها ذائبة على وجه الأشخاص.
انتبهوا للظلال والمرايا
وينصح فينسنت تيراسي، أحد مؤسسي شركة "درافت آند غول" الناشئة، بالتحديق بالظلال والمرايا وانعكاس الأشكال على المياه في الصور، لأن ذلك قد يُظهر وجود عناصر غير منطقية تشير إلى أن الصورة وليدة برنامج ذكاء اصطناعي، داعياً للتركيز خصوصاً على خلفية الصورة، فكلمّا ابتعدت العناصر عن وسط الصورة تزيد نسبة تعرّضها لتشوّهات، كما يقول.
في هذا الإطار، تحذّر الأستاذة في جامعة فريديريك -2 في نابولي والمتخصصة في الذكاء الاصطناعيّ أناليزا فيردوليفا من أنّ برمجيات الذكاء الاصطناعي تتحسّن يوماً بعد يوم ويجب ألاّ نركن فقط إلى هذه الأخطاء التي تظهر حالياً.