گوناگون

مدل‌های هوش مصنوعی مانند ChatGPT و Claude، هوش انسان‌ها را بیش از حد برآورد می‌کنند

تحقیقات جدید نشان می‌دهد مدل‌های هوش مصنوعی محبوب مانند ChatGPT و Claude تمایل دارند انسان‌ها را عقلانی‌تر و منطقی‌تر از واقعیت تصور کنند، به ویژه در موقعیت‌های نیازمند تفکر استراتژیک. این اختلاف می‌تواند در پیش‌بینی تصمیمات انسانی در اقتصاد و حوزه‌های پیچیده اثرگذار باشد.

به گزارش توسعه برند؛ تحقیقات اخیر نشان می‌دهد که مدل‌های هوش مصنوعی مانند ChatGPT-4o و Claude-Sonnet-4 اغلب سطح بالاتری از منطق و عقلانیت انسانی را فرض می‌کنند. در این مطالعه، محققان مدل‌ها را در یک چارچوب کلاسیک نظریه بازی‌ها به نام مسابقه زیبایی کینزی آزمایش کردند.

«در این بازی، بازیکنان باید پیش‌بینی کنند دیگران چه انتخابی خواهند کرد تا برنده شوند، نه اینکه صرفاً به خواسته شخصی خود عمل کنند.» این نوع بازی نیازمند تفکر استراتژیک چندلایه است که انسان‌ها در عمل اغلب از آن ناتوان هستند.

در نسخه‌ای از بازی به نام «حدس عدد»، هر بازیکن عددی بین صفر تا صد انتخاب می‌کند و برنده کسی است که عددش به نصف میانگین انتخاب‌های همه نزدیک‌تر باشد. مدل‌ها توانستند اعداد خود را با توجه به ویژگی‌های حریفان انسانی تنظیم کنند، اما «همیشه فرض می‌کردند انسان‌ها منطقی عمل می‌کنند و در نتیجه نتایج واقعی را اغلب اشتباه پیش‌بینی کردند».

“”توسعه برند را در اینستاگرام و تلگرام و لینکدین دنبال کنید””

با وجود اینکه مدل‌ها توانایی تطبیق با ویژگی‌هایی مانند سن یا تجربه را دارند، هنوز در شناسایی استراتژی‌های غالب در بازی‌های دو نفره دچار مشکل هستند. محققان می‌گویند: «برای استفاده مؤثر از هوش مصنوعی در اقتصاد و سایر حوزه‌های پیچیده، باید فاصله میان فرضیات مدل و رفتار واقعی انسان‌ها را درک کرد».

این یافته‌ها همچنین نشان می‌دهد که حتی بهترین سیستم‌های هوش مصنوعی تنها حدود ۶۹٪ دقت دارند و قابلیت تقلید شخصیت انسانی آن‌ها می‌تواند نگرانی‌هایی درباره دستکاری و پیش‌بینی رفتار انسان‌ها ایجاد کند.



منبع

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا