بمحض الصدفة، عثر غريغ مارستون، وهو ممثل أداء صوتي بريطاني، على «كونور» عبر الإنترنت، أي نسخة مستنسخة من صوته عبر تقنية الذكاء الاصطناعي، جرى تدريبها على صوته. وفوجئ مارستون بأن صوته يتفوه بأمور لم ينطقها قط.
في ذلك الوقت، كان مارستون قد سجل جلسة لصالح شركة «آي بي إم»، ووقّع في وقت لاحق على نموذج يسمح باستخدام تسجيل صوته عبر طرق مختلفة. في ذلك الوقت، لم يرد بذهن مارستون أن الشركة ستستغل أكثر من العبارات التي سجلها بصوته.
وبفضل الذكاء الاصطناعي، نجحت الشركة في بيع عينة صوت مارستون، التي تعود إلى عقود مضت، إلى مواقع على الإنترنت لاستخدامها في بناء صوت اصطناعي قادر على قول أي شيء. واكتشف مارستون حديثاً صوته ينبعث من موقع إلكتروني يتبع «ويمبلدون» خلال بطولة للتنس.
من جهتها، قالت «آي بي إم» إنها مدركة لمخاوف مارستون، وتناقشه بخصوصها مباشرة.
وتسلط محنة مارستون الضوء على احتجاج كثير من المبدعين. نحن في وقت تتآكل فيه الثقة، مع إدراك الناس أن مساهماتهم في المجال العام قد يجري الاستيلاء عليها وتحويلها إلى أموال، وربما استخدامها للتنافس معهم أنفسهم. وعندما يكتمل هذا التآكل، أشعر بالقلق من أن تصبح مساحاتنا العامة الرقمية أكثر تلوثاً بمحتوى غير جدير بالثقة.
وعليه، شرع فنانون في حذف أعمالهم من على موقع «إكس»، المعروف سابقاً باسم «تويتر»، بعدما أعلنت الشركة المالكة للموقع عزمها استغلال بيانات متاحة عبر منصتها في تدريب الذكاء الاصطناعي. وخاض كتّاب وممثلو «هوليوود» إضراباً لأسباب، منها رغبتهم في ضمان عدم استغلال أعمالهم في تغذية أنظمة ذكاء اصطناعي تحاول شركات إحلالها محلهم.
كما حرصت مؤسسات إعلامية، منها «نيويورك تايمز» و«سي إن إن»، على إضافة ملفات إلى مواقعها للمعاونة في منع روبوتات الدردشة من الاستيلاء على محتواها.
بجانب ذلك، تقدم مؤلفون وكتاب بدعاوى قضائية ضد بيانات التدريب في عدد من المواقع. في المقابل، دفع موقع «أوبين إيه آي»، في دعوى، أن استغلال بيانات تخضع للملكية الفكرية في تدريب أنظمة الذكاء الاصطناعي أمر قانوني، تبعاً لبند «الاستخدام العادل» لقانون حقوق الطبع والنشر.
وفي الوقت الذي يعترض منشئو المحتوى عالي الجودة على أسلوب استغلال عملهم، يتدفق المحتوى المشكوك فيه في المجال العام. من جانبها، حددت مؤسسة «نيوزغارد» 475 موقعاً معنياً بالأخبار والمعلومات جرى إنشاؤها بواسطة الذكاء الاصطناعي بـ14 لغة.
علاوة على ذلك، تغمر الموسيقى المولدة بواسطة الذكاء الاصطناعي مواقع البث، وتجلب أرباحاً للمحتالين. كما تشيع الكتب التي جرى إنشاؤها بواسطة الذكاء الاصطناعي على نطاق واسع للغاية عبر موقع «أمازون». بما في ذلك دليل للبحث عن الفطر، يمكن أن يؤدي إلى الوقوع في أخطاء في التعرف على الفطريات شديدة السمية، لدرجة أن الشركة تطلب من المؤلفين الذين ينشرون بصورة ذاتية على منصة كيندل الخاصة بها، أن يعلنوا ما إذا كانوا يستخدمون الذكاء الاصطناعي.
وتعدّ هذه حالة كلاسيكية لمأساة، يتضرر فيها مورد مشترك، بسبب المصالح الربحية للأفراد. ويمكن تشبيه هذا الوضع بالحقل العام الذي يمكن أن ترعى فيه الماشية. ومن دون أي حدود، يكون لدى أصحاب الماشية الأفراد حافز للإفراط في الرعي على الأرض، ما يؤدي إلى تدميرها وحرمان الجميع من قيمتها.
لدينا مثل هذه الحقول المشاعة عبر الإنترنت أيضاً. ورغم كل عناصره السامة، فإنه ما زال مفعماً بالأجزاء النابضة بالحياة التي تخدم الصالح العام، مثل منتديات «ويكيبيديا» و«ريديت»، حيث غالباً ما يشارك المتطوعون بالمعرفة التي يملكونها بحسن نية، ويعملون بجد لإبقاء العناصر السيئة بعيداً. ومع ذلك، تتعرض هذه المساحات المشاعة للرعي الجائر من جانب شركات التكنولوجيا الجشعة التي تسعى إلى تغذية كل الحكمة البشرية والخبرة والفكاهة والحكايات والنصائح التي تجدها في هذه الأماكن داخل أنظمة الذكاء الاصطناعي الهادف للربح.
وعلينا أن نضع بعين الاعتبار، على سبيل المثال، أن المتطوعين الذين يتولون بناء موقع «ويكيبيديا» وصيانته يثقون بأن عملهم سيجري استخدامه، بما يتوافق مع شروط موقعهم. الأمر الذي يتطلب الإسناد. اليوم، يبدو أن بعض مستخدمي «ويكيبيديا» يناقشون ما إذا كان لديهم أي ملاذٍ قانوني ضد برامج الدردشة الآلية التي تستخدم محتواه دون ذكر المصدر.
من ناحيتها، تحاول الجهات التنظيمية سبر أغوار ذلك الأمر هي الأخرى. على سبيل المثال، يدرس الاتحاد الأوروبي فرض المجموعة الأولى من القيود العالمية على الذكاء الاصطناعي، التي تتطلب بعض الشفافية من جانب مؤسسات الذكاء الاصطناعي التوليدي.
بالتأكيد، ستكون هذه خطوة جيدة للأمام، خاصة أن كثيراً من أنظمة الذكاء الاصطناعي لا تكشف بشكل كامل عن البيانات التي يجري تدريبها عليها. وكان الصحافيون أصحاب السبق في التنقيب عن البيانات الغامضة الموجودة تحت السطح اللامع لروبوتات الدردشة. وكشف تحقيق حديث مفصل في «أتلانتيك» أن ما يزيد على 170 ألف كتاب تعرض للقرصنة داخل بيانات التدريب الخاصة بروبوتات الدردشة للذكاء الاصطناعي التابعة لـ«ميتافيرس».
ومع ذلك، فإن الشفافية وحدها لا تكفي لإعادة توازن القوة بين أولئك الذين يجري استغلال البيانات الخاصة بهم، والشركات التي تستعد للاستفادة من هذا الاستغلال.
من جهته، دعا تيم فريدلاندر، مؤسس ورئيس الرابطة الوطنية لممثلي الأداء الصوتي، مؤسسات الذكاء الاصطناعي لتبني مجموعة من المعايير الأخلاقية. وأشار إلى أنه يجب توفير 3 عناصر لممثلي الأداء الصوتي؛ الموافقة والسيطرة والمقابل المادي.
في الواقع، كل واحد منا يحتاج إلى العناصر الثلاثة، سواء أكنا ممثلين محترفين أم قمنا بنشر صور فقط عبر وسائل التواصل الاجتماعي.
ولا ينبغي أن يعني ذلك الاضطرار إلى البحث والوصول إلى مجموعة من أزرار إلغاء الاشتراك، التي يصعب العثور عليها، وهو ما تتجه بالفعل إليه الصناعة.
أما تحديد المقابل المادي، فينطوي على صعوبة، خاصة أن معظم روبوتات الذكاء الاصطناعي تقدم خدمات مجانية في المقام الأول في الوقت الحالي. ومع ذلك، يبقى من المؤكد أن صناعة الذكاء الاصطناعي تخطط مستقبلاً لجني الأموال من وراء هذه الأنظمة.
وفيما يخص أشخاصاً مثل مارستون، فإن مصدر رزقهم معرض للخطر. ويعتقد مارستون أن النسخة الإلكترونية المستنسخة من صوته أفقدته بالفعل وظائف، وستقوض أرباحه المستقبلية بشكل كبير. واليوم، يستعين بمحامٍ للحصول على تعويض.
* خدمة «نيويورك تايمز»