به نظر می‌رسد که مدل‌های جدید هوش‌های مصنوعی پیشرفته همیشه پاسخ درستی برای سوالات دارند، اما این مدل‌ها توانایی بالایی در ارائه اطلاعات اشتباه به شکلی قانع‌کننده نیز دارند. 

یافته‌های یک پژوهشی جدید نشان می‌دهد که مدل‌های زبانی بزرگ با هر نسخه جدید قدرتمندتر می‌شوند، اما در عین حال به طور نگران‌کننده‌ای به تولید اطلاعات غلط نیز گرایش بیشتری پیدا می‌کنند.

این تحقیق که در مجله Nature منتشر شده است، به بررسی چند مدل زبانی بزرگ (LLM) شامل GPT از OpenAI، LLaMA از Meta و یک مدل منبع باز از گروه تحقیقاتی BigScience به نام BLOOM پرداخته است. اگرچه یافته‌ها نشان می‌دهند که دقت کلی این مدل‌ها افزایش یافته، اما قابلیت اطمینان آنها کاهش داشته است، چرا که نسبت پاسخ‌های نادرست به کل پاسخ‌ها بیشتر شده است.

به گفته‌ی محققان، این مدل‌ها اکنون تقریباً به همه سوالات پاسخ می‌دهند. این افزایش در پاسخ‌دهی منجر به تعداد بیشتری پاسخ درست شده، اما در عین حال تعداد پاسخ‌های نادرست نیز به مراتب افزایش یافته است. 

«خوزه هرناندز-اورالو»، یکی از نویسندگان این پژوهش، بیان می‌کند که مدل‌های هوش مصنوعی مدرن به جای جواب ندادن به سوالات دشوار، ترجیح می‌دهند پاسخ‌های نادرست دهند.

بر اساس این مطالعه، مدل‌های بزرگتری مانند GPT-4 و o1 از OpenAI که تقریباً به هر سوالی پاسخ می‌دهند، توانایی بالاتری در ارائه اطلاعات غلط از خود نشان دادند. روندی که در تمام مدل‌های دیگر نیز مشاهده شده است.

نکته جالب این است که این مدل‌های هوش مصنوعی در حل سوالات پیچیده عملکرد بهتری دارند، اما همچنان در پاسخ به سوالات ساده دچار اشتباه می‌شوند.


منبع: futurism