الأحد - 15 ديسمبر 2024

 ابتكار “ذكاء اصطناعي سام” لوقف خطر روبوتات الدردشة

منذ 8 أشهر
الأحد - 15 ديسمبر 2024

استخدم باحثو معهد ماساتشوستس للتكنولوجيا طريقة جديدة “تحاكي فضول الإنسان” لتدريب النماذج اللغوية الذكية على عدم إعطاء ردود “خطيرة” على الأسئلة المثيرة.

ويطلق على الطريقة القائمة على التعلم الآلي، اسم “الفريق الأحمر القائم على الفضول” (CRT)، المصمم خصيصا لتوليد أسئلة إشكالية تؤدي إلى استجابات غير مرغوب فيها من روبوتات الدردشة.

وبعد ذلك، يمكن استخدام هذه الأسئلة لتحديد كيفية تصفية المحتوى الخطير من روبوت الدردشة،

وعادة، يقوم الخبراء بإنشاء مجموعة من الأسئلة، التي من المحتمل أن تولد استجابات ضارة بهدف تقييد المحتوى الخطير أو الضار.

وأثناء عملية التدريب، يتم استخدام الأسئلة التي تثير محتوى خطيرا،

لتدريب النظام على ما يجب تقييده عند طرحه أمام مستخدمين حقيقيين.

وطبّق العلماء التعلم الآلي على CRT ليولد تلقائيا نطاقا أوسع من الأسئلة التي يحتمل أن تكون خطيرة، مقارنة بفرق المشغلين البشريين. وأدى ذلك إلى عدد أكبر من الاستجابات السلبية الأكثر تنوعا.

ثم حفزوا نموذج CRT لتوليد المزيد من الأسئلة المتنوعة، بحيث يمكن أن تثير استجابة سامة من خلال

“التعلم الآلي”، ونجح النظام في إثارة استجابة سامة موافقة للأسئلة،

وعندما اختبر العلماء طريقة CRT على نموذج LLaMA2 مفتوح المصدر، أنتج نموذج التعلم الآلي 196 سؤالا ينجم عنه محتوى ضار.

وقال الفريق إن النظام تفوق أيضا على أنظمة التدريب الآلية المنافسة.