مدلهای هوش مصنوعی مانند ChatGPT و Claude، هوش انسانها را بیش از حد برآورد میکنند

تحقیقات جدید نشان میدهد مدلهای هوش مصنوعی محبوب مانند ChatGPT و Claude تمایل دارند انسانها را عقلانیتر و منطقیتر از واقعیت تصور کنند، به ویژه در موقعیتهای نیازمند تفکر استراتژیک. این اختلاف میتواند در پیشبینی تصمیمات انسانی در اقتصاد و حوزههای پیچیده اثرگذار باشد.
به گزارش توسعه برند؛ تحقیقات اخیر نشان میدهد که مدلهای هوش مصنوعی مانند ChatGPT-4o و Claude-Sonnet-4 اغلب سطح بالاتری از منطق و عقلانیت انسانی را فرض میکنند. در این مطالعه، محققان مدلها را در یک چارچوب کلاسیک نظریه بازیها به نام مسابقه زیبایی کینزی آزمایش کردند.
«در این بازی، بازیکنان باید پیشبینی کنند دیگران چه انتخابی خواهند کرد تا برنده شوند، نه اینکه صرفاً به خواسته شخصی خود عمل کنند.» این نوع بازی نیازمند تفکر استراتژیک چندلایه است که انسانها در عمل اغلب از آن ناتوان هستند.
در نسخهای از بازی به نام «حدس عدد»، هر بازیکن عددی بین صفر تا صد انتخاب میکند و برنده کسی است که عددش به نصف میانگین انتخابهای همه نزدیکتر باشد. مدلها توانستند اعداد خود را با توجه به ویژگیهای حریفان انسانی تنظیم کنند، اما «همیشه فرض میکردند انسانها منطقی عمل میکنند و در نتیجه نتایج واقعی را اغلب اشتباه پیشبینی کردند».
“”توسعه برند را در اینستاگرام و تلگرام و لینکدین دنبال کنید””
با وجود اینکه مدلها توانایی تطبیق با ویژگیهایی مانند سن یا تجربه را دارند، هنوز در شناسایی استراتژیهای غالب در بازیهای دو نفره دچار مشکل هستند. محققان میگویند: «برای استفاده مؤثر از هوش مصنوعی در اقتصاد و سایر حوزههای پیچیده، باید فاصله میان فرضیات مدل و رفتار واقعی انسانها را درک کرد».
این یافتهها همچنین نشان میدهد که حتی بهترین سیستمهای هوش مصنوعی تنها حدود ۶۹٪ دقت دارند و قابلیت تقلید شخصیت انسانی آنها میتواند نگرانیهایی درباره دستکاری و پیشبینی رفتار انسانها ایجاد کند.
