4 أهداف لـ«روّاد الذكاء الاصطناعي» لتطوير معايير السلامة

منذ 1 سنة 164

أطلقت الشركات الرائدة في مجال الذكاء الاصطناعي مجموعة جديدة لتحديد أفضل ممارسات السلامة وتعزيز استخدام التقنية في مواجهة التحديات المجتمعية الكبيرة، إذ تؤكد المجموعة ضرورة احتياج الصناعة إلى الاستمرار في مراقبة نفسها، وذلك إلى أن يتوصل صانعو السياسات إلى قواعد جديدة.

وأكدت قوقل، ومايكروسوفت، وأوبن أي آي، وأنثروبيك أن (منتدى نموذج الحدود) Frontier Model Forum الجديد يسعى لتحقيق أربعة أهداف رئيسية، حددتها قوقل في منشور على مدونتها.

إذ ينوي الهدف الأول النهوض بأبحاث السلامة الخاصة بالذكاء الاصطناعي لتعزيز التطوير المسؤول لنماذج الحدود، وتقليل المخاطر، وتمكين التقييمات المستقلة والموحدة للقدرات والسلامة.

فيما يسعى الهدف الثاني لتحديد أفضل الممارسات للتطوير المسؤول ونشر نماذج الحدود، ومساعدة الجمهور على فهم طبيعة التقنية وقدراتها وحدودها وتأثيرها.

ويعمل الهدف الثالث على التعاون مع صانعي السياسات والأكاديميين والمجتمع المدني والشركات للتبادل المعرفي بشأن مخاطر الثقة والسلامة.

بينما يتمثل الهدف الأخير في دعم الجهود المبذولة لتطوير التطبيقات التي يمكن أن تساعد في مواجهة أكبر تحديات المجتمع، مثل: التخفيف من تغير المناخ والتكيف معه، والكشف المبكر عن السرطان والوقاية منه، ومكافحة التهديدات السيبرانية.

وقالت الشركات التي أسست «منتدى نموذج الحدود» إنه يمكن للمنظمات التي تستوفي عدة معايير الانضمام إلى المجموعة.

وذكرت قوقل في منشورها أن ذلك يشمل تطوير نماذج حدود أو نشرها، أو «نماذج التعلم الآلي الواسعة النطاق التي تتجاوز القدرات الموجودة حاليًا في النماذج الحالية الأكثر تقدمًا، ويمكنها أداء مجموعة متنوعة من المهام». ويجب على الشركات أيضًا إظهار التزامها بالسلامة «من خلال الأساليب التقنية والمؤسسية».

وحسب مواقع تقنية أوضحت المجموعة أنها ستنشئ في الأشهر القادمة مجلسًا استشاريًا من خلفيات متنوعة لتوجيه أولوياتها. وسوف تتشاور الشركات المُؤسِّسة مع منظمات المجتمع المدني عندما تبتكر تصميم الحوكمة وتمويلها.

ويأتي هذا الجهد في الوقت الذي يعمل فيه صانعو السياسة على تحديد الشكل الذي يمكن أن تبدو عليه التقنية، وذلك دون إعاقة الابتكار والتنازل عن مكانة الحكومات في سباق الذكاء الاصطناعي.