وب گردی

چرا دانشمندان بیش از حد به هوش مصنوعی اعتماد دارند؟

دانشمندان به طور فزاینده‌ای از فناوری هوش مصنوعی در زمینه‌های مختلف استفاده می‌کنند. بهره‌گیری از هوش مصنوعی از ایجاد آزمایشگاه‌های «خودگردان» که در آن ربات‌ها و الگوریتم‌ها برای طراحی و اجرای آزمایش‌ها با یکدیگر همکاری می‌کنند تا جایگزین کردن شرکت‌کنندگان انسانی در مطالعات علوم اجتماعی با ربات‌ها پیش رفته است.

با این همه، اشکالات متعددی در مورد سیستم‌های هوش مصنوعی مطرح شده است. به عنوان مثال، هوش مصنوعی مولد مانند چت‌جی‌پی‌تی (ChatGPT) تمایل دارند اطلاعات ساختگی یا اصطلاحاً «توهم» فراهم کنند. این در حالی است که عملکرد درونی سیستم‌های یادگیری ماشینی مبهم و ناشناخته مانده است.

به تازگی مقاله‌ای با عنوان «هوش مصنوعی و توهم ادراک در پژوهش علمی» در مجلۀ نیچر منتشر شده است که همین نگرانی‌ها را برجسته می‌کند. به گفتۀ نویسندگان این مقاله، محققان ممکن است سیستم‌های هوش مصنوعی را از نظر عینیت، بهره‌وری و درک مفاهیم پیچیده، دارای قابلیت‌های مافوق بشری بدانند. این تصور می‌تواند محققان را به نادیده گرفتن محدودیت‌های این ابزار‌ها سوق دهد، که به طور بالقوه دامنۀ تحقیقات علمی را محدود می‌کند یا به اشتباه توصهم ادراک را در کاربر ایجاد می‌کند.

نویسندگان بر اهمیت ارزیابی این خطرات تأکید می‌کنند، به‌ویژه در زمانۀ کنونی که برنامه‌های کاربردی هوش مصنوعی هنوز در مراحل اولیه خود هستند. آنها هشدار می‌دهند که اگر ابزار‌های هوش مصنوعی در فرآیند تحقیق جایگاه ثابتی پیدا کنند، پرداختن به این مسائل بسیار چالش‌برانگیزتر نیز می‌شود. هدف از این مقاله آن است که از هم اکنون به دانشمندان هشدار دهد تا خطرات مربوط به استفاده از سیستم‌های هوش مصنوعی را در نظر بگیرند.

نویسندگان برای این استدلال‌های خود بر حدود ۱۰۰ مقاله (شامل مقاله‌های علمی منتشر شده، مقالات در انتظار انتشار، مجموعه مقالات کنفرانس‌ها و کتاب‌هایی که عمدتاً در پنج سال گذشته منتشر شده‌اند) بررسی‌های جامعی انجام دادند. آنها از دل مقاله‌های علمی بررسی شده رویکرد‌های مختلفی به توانایی‌های هوش مصنوعی یافته‌اند.

بعضی هوش مصنوعی را شبیه به نوعی اوراکل یا پیشگو می‌بینند: محققان می‌بینند که ابزار‌های هوش مصنوعی می‌توانند به گونه‌ای خستگی‌ناپذیر مقالات علمی را بخوانند و هضم کنند و بنابراین ادبیات علمی را جامع‌تر از انسان می‌فهمند. در دیدگاه دیگر، هوش مصنوعی همچون داور نگریسته می‌شود. هم در اوراکل و هم در دیدگاه داور، تصور می‌شود که هوش مصنوعی به شیوه‌ای عینی‌تر از انسان‌ها می‌تواند یافته‌های علمی را ارزیابی کند، زیرا احتمال کمی دارد که از ادبیات علمی برای حمایت از یک فرضیه مرجح یا طرفداری از گروه‌های خاص استفاده کند. در دیدگاه سوم، هوش مصنوعی نوعی ریاضیدان محسوب می‌شود. به نظر می‌رسد ابزار‌های هوش مصنوعی در تجزیه و تحلیل مجموعه داده‌های گسترده و پیچیده از محدودیت‌های ذهن انسان رنج نمی‌برند و توان تحلیل ریاضیاتی دقیقی دارند. در مورد چهارم، هوش مصنوعی به عنوان نوعی جانشین مطرح می‌شود. ابزار‌های هوش مصنوعی داده‌هایی را شبیه‌سازی می‌کنند که به دست آوردن آنها بسیار دشوار یا پیچیده است.

با این حال، نویسندگان این مقاله خطرات بالقوه ناشی از این دیدگاه‌ها را برجسته می‌کنند و مثلاً هشدار می‌دهند که دانشمندان نباید دچار توهم عمق تبیینی یا توهم وسعت اکتشافی شوند. آنها نسبت به اتکای بیش از حد به ابزار‌های هوش مصنوعی برای تولید دانش و انجام آزمایش هشدار می‌دهند و بر اهمیت حفظ یک رویکرد متعادل در تحقیق تأکید می‌کنند.

در پایان، به دانشمندانی که قصد استفاده از فناوری هوش مصنوعی را دارند، توصیه می‌شود که این خطرات را به دقت در نظر بگیرند و استراتژی‌هایی برای کاهش آنها اتخاذ کنند. برای جامعه علمی، از جمله محققان، سرمایه‌گذاران، و ویراستاران مجلات، بسیار مهم است که با نگاهی انتقادی به استفاده از هوش مصنوعی بپردازند و اطمینان حاصل کنند که طیف متنوعی از دیدگاه‌ها و روش‌ها در تلاش‌های تحقیقاتی حفظ می‌شوند. با اذعان به خطرات و مزایای مرتبط با استفاده از هوش مصنوعی، محققان می‌توانند تصمیمات آگاهانه بگیرند و از دام‌های احتمالی در فعالیت‌های علمی خود جلوگیری کنند.

منبع: آنا

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا