نوآتک, هوش مصنوعی

هوش مصنوعی در مشاوره اخلاقی جهت‌گیری‌های پنهان دارد

مطالعه‌ای جدید نشان می‌دهد که مدل‌های زبانی بزرگ مانند چت‌جی‌پی‌تی و لاما در مواجهه با مسائل اخلاقی، تمایل دارند به جای اقدام، بی‌عملی را ترجیح دهند و پاسخ «نه» را بیش از «بله» ارائه کنند. این مدل‌ها به تغییرات کوچک در نحوه بیان سوالات بسیار حساس‌اند و پاسخ‌های آن‌ها ناپایدار است، در حالیکه انسان‌ها اینگونه نیستند. همچنین، مدل‌ها در مسائل مربوط به همکاری جمعی، گرایش بیشتری به پاسخ‌های نوع‌دوستانه نشان می‌دهند که ممکن است ناشی از تنظیمات آنها برای جلوگیری از آسیب باشد نه استدلال اخلاقی واقعی.

پژوهشگران هشدار داده‌اند که این جهت‌گیری‌ها ناشی از روند تنظیم مدل‌ها برای کاربردهای چت‌باتی است و نمی‌توان بدون بررسی دقیق به مشاوره اخلاقی این هوش‌های مصنوعی اعتماد کرد. این یافته‌ها اهمیت توجه به محدودیت‌های مدل‌های زبانی در تصمیم‌گیری اخلاقی را نشان می‌دهد و نیاز به تحقیقات بیشتر درباره تاثیر این پاسخ‌ها بر انتخاب‌های انسان‌ها را برجسته می‌کند.

منبع: psypost

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *