مطالعهای جدید نشان میدهد که مدلهای زبانی بزرگ مانند چتجیپیتی و لاما در مواجهه با مسائل اخلاقی، تمایل دارند به جای اقدام، بیعملی را ترجیح دهند و پاسخ «نه» را بیش از «بله» ارائه کنند. این مدلها به تغییرات کوچک در نحوه بیان سوالات بسیار حساساند و پاسخهای آنها ناپایدار است، در حالیکه انسانها اینگونه نیستند. همچنین، مدلها در مسائل مربوط به همکاری جمعی، گرایش بیشتری به پاسخهای نوعدوستانه نشان میدهند که ممکن است ناشی از تنظیمات آنها برای جلوگیری از آسیب باشد نه استدلال اخلاقی واقعی.
پژوهشگران هشدار دادهاند که این جهتگیریها ناشی از روند تنظیم مدلها برای کاربردهای چتباتی است و نمیتوان بدون بررسی دقیق به مشاوره اخلاقی این هوشهای مصنوعی اعتماد کرد. این یافتهها اهمیت توجه به محدودیتهای مدلهای زبانی در تصمیمگیری اخلاقی را نشان میدهد و نیاز به تحقیقات بیشتر درباره تاثیر این پاسخها بر انتخابهای انسانها را برجسته میکند.
منبع: psypost