ثلاثة من موظفي سامسونج قاموا بتسريب بيانات حساسة إلى ChatGPT

منذ 1 سنة 164

ظاهريًا، قد تبدو ChatGPT كأداة يمكن أن تكون مفيدة لمجموعة من مهام العمل. ولكن قبل أن تطلب من خدمة الدردشة الروبوتية تلخيص المذكرات المهمة أو التحقق من عملك بحثًا عن الأخطاء، عليك ان أن تتذكر أن أي شيء تشاركه مع ChatGPT يمكن استخدامه لتدريب النظام وربما يظهر في ردوده على المستخدمين الآخرين.

وهذا شيء ربما كان ينبغي على العديد من موظفي سامسونج أن يكونوا على دراية به قبل أن يُقال إنهم يشاركون معلومات سرية مع خدمة الدردشة الروبوتية.

بعد فترة وجيزة من بدء قسم أشباه الموصلات في سامسونج السماح للمهندسين باستخدام ChatGPT، سرب العمال معلومات سرية إليه في ثلاث مناسبات على الأقل، وفقًا لمجلة The Economist Korea (كما رصدتها Mashable).

وبحسب ما ورد، طلب أحد الموظفين من خدمة الدردشة الروبوتية التحقق من شفرة مصدر قاعدة البيانات الحساسة بحثًا عن الأخطاء، وطلب آخر تحسين الكود، وقام ثالث بتغذية اجتماع مسجل في ChatGPT وطلب منه إنشاء دقائق.

تشير التقارير إلى أنه بعد التعرف على الأخطاء الأمنية، حاولت سامسونج الحد من مدى الأخطاء المستقبلية من خلال تقييد طول رسائل ChatGPT للموظفين إلى كيلوبايت أو 1024 حرفًا من النص. يقال أيضًا أن الشركة تحقق مع الموظفين الثلاثة المعنيين وتبني روبوت الدردشة الخاص بها لمنع حوادث مماثلة.

المصدر