پژوهشگران: ChatGPT به محتوای خشن واکنش متفاوت نشان میدهد

نتایج یک پژوهش جدید نشان میدهد که مدل هوش مصنوعی ChatGPT هنگام پردازش محتوای خشن و آسیبزا، پاسخهایی متفاوت و گاه ناپایدار ارائه میدهد؛ موضوعی که میتواند پیامدهای مهمی برای استفاده گسترده از این ابزار در محیطهای آموزشی، رسانهای و درمانی داشته باشد.
به گزارش توسعه برند؛ به گزارش منابع علمی، گروهی از پژوهشگران حوزه هوش مصنوعی در بررسی تازهای به این نتیجه رسیدهاند که ChatGPT در برابر محتوای خشونتآمیز یا تروماتیک، دچار تغییر در الگوی پاسخدهی میشود. این تغییرات شامل افزایش احتیاط بیش از حد، پاسخهای نامنسجم یا پرهیز کامل از ارائه اطلاعات مشخص بوده است.
بر اساس این مطالعه، زمانی که ChatGPT با سناریوهای حاوی خشونت، آسیب روانی یا شرایط بحرانی مواجه میشود، سطح محافظهکاری الگوریتم افزایش یافته و همین مسئله میتواند بر دقت و یکنواختی پاسخها اثر بگذارد. پژوهشگران معتقدند این رفتار اگرچه با هدف کاهش آسیب طراحی شده، اما در برخی کاربردهای تخصصی میتواند چالشبرانگیز باشد.
«مدلهای زبانی مانند ChatGPT به گونهای آموزش دیدهاند که در مواجهه با محتوای حساس، واکنشهای محافظهکارانه نشان دهند، اما این رویکرد گاهی به ناپایداری پاسخها منجر میشود.»
در بخش دیگری از گزارش آمده است که استفاده از ChatGPT در حوزههایی مانند سلامت روان، روزنامهنگاری بحران و تحلیل محتوای اجتماعی، نیازمند تنظیمات دقیقتر و نظارت انسانی است تا از بروز برداشتهای نادرست یا پاسخهای ناقص جلوگیری شود.
“”توسعه برند را در اینستاگرام و تلگرام و لینکدین دنبال کنید””
«درک محدودیتهای رفتاری ChatGPT به اندازه شناخت توانمندیهای آن اهمیت دارد و میتواند به توسعه نسخههای ایمنتر و پایدارتر این فناوری کمک کند.»
پژوهشگران تأکید میکنند که ادامه بررسی واکنش ChatGPT به محتوای آسیبزا، نقش مهمی در بهبود سیاستهای ایمنی و ارتقای اعتماد عمومی به ابزارهای هوش مصنوعی ایفا خواهد کرد.
