يزداد قلق الخبراء حول العالم بشأن الأدوات الجديدة لتقنية الذكاء الاصطناعي التي تسهل من أي وقت مضى عملية تحرير الصور و مقاطع الفيديو خاصة عند نشر و مشاركة المحتوى عبر مواقع التواصل الاجتماعي دون التحقق من صحة هذا المحتوى.

و يتم تطوير بعض هذه الأدوات بواسطة أدوبي، لكن الشركة تعمل أيضًا على استخدام تقنية مقابلة و ذلك عن طريق البحث عن كيفية استخدام التعلم الآلي في تحديد الصور المحررة تلقائيًا.


اعلان



حيث تم توضيح أحدث عمل للشركة، و الذي عُرض هذا الشهر في مؤتمر CVPR، عن كيفية حل للأدلة الجنائية الرقمية التي يقوم بها البشر بواسطة الآلات أو تقنية الذكاء الاصطناعي في وقت أقل بكثير.

و قال المتحدث باسم الشركة إن هذا المشروع كان عبارة عن مشروع بحثي في مرحلة مبكرة، و لكن الشركة ترغب في المستقبل في لعب دور في تطوير التكنولوجيا التي تساعد في مراقبة صحة الوسائط الرقمية و التحقق منها.

و الجدير بالذكر أن أدوبي لم تطلق من قبل برامج مصممة لكشف الصور المزيفة. و لكن، تشير الشركة إلى عملها مع تطبيق القانون باستخدام الطب الشرعي الرقمي للمساعدة في العثور على الأطفال المفقودين، على سبيل المثال. و ذلك كدليل على موقفها المسؤول تجاه التكنولوجيا الخاصة بها.

و تُظهر ورقة البحث الجديدة كيف يمكن استخدام التعلم الآلي للتعرف على ثلاثة أنواع شائعة من التلاعب بالصور: الربط، حيث يتم الجمع بين جزئين من صور مختلفة. الاستنساخ، حيث يتم نسخ و لصق الأشياء داخل الصورة. و الإزالة، عندما يتم تحرير شيء في الصورة تماما.

و للاطلاع على هذا النوع من التلاعب، يبحث خبراء الطب الشرعي الرقميون عادة عن أدلة في الطبقات المخفية للصورة. عندما يتم إجراء هذه الأنواع من التعديلات، فإنها تترك وراءها آثار رقمية، مثل التناقضات في الاختلافات العشوائية في اللون و السطوع التي أنشأتها أجهزة استشعار الصور. و التي تظهر عندما تقوم بتجميع صورتين مختلفتين، على سبيل المثال، أو نسخ شيء من أحد أجزاء الصورة و لصقها.

و كما هو الحال مع العديد من أنظمة التعلم الآلي الأخرى، تم تعليم برنامج أدوبي عن طريق استخدام مجموعة كبيرة من الصور المحررة. و من خلال ذلك، تعلم البرنامج كيفية تحديد الأنماط الشائعة التي تشير إلى التلاعب في الصور.