گوناگون

پژوهشگران: ChatGPT به محتوای خشن واکنش متفاوت نشان می‌دهد

نتایج یک پژوهش جدید نشان می‌دهد که مدل هوش مصنوعی ChatGPT هنگام پردازش محتوای خشن و آسیب‌زا، پاسخ‌هایی متفاوت و گاه ناپایدار ارائه می‌دهد؛ موضوعی که می‌تواند پیامدهای مهمی برای استفاده گسترده از این ابزار در محیط‌های آموزشی، رسانه‌ای و درمانی داشته باشد.

به گزارش توسعه برند؛ به گزارش منابع علمی، گروهی از پژوهشگران حوزه هوش مصنوعی در بررسی تازه‌ای به این نتیجه رسیده‌اند که ChatGPT در برابر محتوای خشونت‌آمیز یا تروماتیک، دچار تغییر در الگوی پاسخ‌دهی می‌شود. این تغییرات شامل افزایش احتیاط بیش از حد، پاسخ‌های نامنسجم یا پرهیز کامل از ارائه اطلاعات مشخص بوده است.
ChatGPT

بر اساس این مطالعه، زمانی که ChatGPT با سناریوهای حاوی خشونت، آسیب روانی یا شرایط بحرانی مواجه می‌شود، سطح محافظه‌کاری الگوریتم افزایش یافته و همین مسئله می‌تواند بر دقت و یکنواختی پاسخ‌ها اثر بگذارد. پژوهشگران معتقدند این رفتار اگرچه با هدف کاهش آسیب طراحی شده، اما در برخی کاربردهای تخصصی می‌تواند چالش‌برانگیز باشد.

«مدل‌های زبانی مانند ChatGPT به گونه‌ای آموزش دیده‌اند که در مواجهه با محتوای حساس، واکنش‌های محافظه‌کارانه نشان دهند، اما این رویکرد گاهی به ناپایداری پاسخ‌ها منجر می‌شود.»

در بخش دیگری از گزارش آمده است که استفاده از ChatGPT در حوزه‌هایی مانند سلامت روان، روزنامه‌نگاری بحران و تحلیل محتوای اجتماعی، نیازمند تنظیمات دقیق‌تر و نظارت انسانی است تا از بروز برداشت‌های نادرست یا پاسخ‌های ناقص جلوگیری شود.

“”توسعه برند را در اینستاگرام و تلگرام و لینکدین دنبال کنید””

«درک محدودیت‌های رفتاری ChatGPT به اندازه شناخت توانمندی‌های آن اهمیت دارد و می‌تواند به توسعه نسخه‌های ایمن‌تر و پایدارتر این فناوری کمک کند.»

پژوهشگران تأکید می‌کنند که ادامه بررسی واکنش ChatGPT به محتوای آسیب‌زا، نقش مهمی در بهبود سیاست‌های ایمنی و ارتقای اعتماد عمومی به ابزارهای هوش مصنوعی ایفا خواهد کرد.



توسعه برند

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا