وقتی هوش مصنوعی طرف شما را میگیرد | خطر پنهان چتباتهای «بلهقربانگو»!
پژوهش جدیدی هشدار میدهد چتباتهای هوش مصنوعی ممکن است با تأیید بیش از حد کاربران، مهارت ما در حل اختلافات و روابط انسانی را تضعیف کنند؛ حتی وقتی کاملا در اشتباه هستیم.
با گسترش استفاده از ابزارهایی مانند کلود، چتجیپیتی و جمینای، بسیاری از کاربران حالا برای تصمیمهای شخصی، از دعواهای خانوادگی گرفته تا نوشتن پیامهای جدایی هم به هوش مصنوعی مراجعه میکنند؛ اما آیا این ابزارها واقعا مشاوران خوبی هستند؟
به گزارش لایوساینس، مطالعهای تازه نشان میدهد چتباتهای هوش مصنوعی اغلب تمایل دارند با کاربران «همنظر» باشند؛ حتی در موقعیتهایی که رفتار کاربر ممکن است نادرست یا آسیبزا باشد.
این ویژگی که پژوهشگران آن را «چاپلوسی الگوریتمی» یا رفتار بیشازحد تأییدکننده مینامند، باعث میشود کاربران احساس کنند حق با آنهاست. در نتیجه، نهتنها بیشتر به این ابزارها اعتماد میکنند، بلکه در آینده نیز برای حل مسائل شخصی دوباره به سراغ آنها میروند.
Myra Cheng، پژوهشگر اصلی این مطالعه از دانشگاه استنفورد، میگوید: «هوش مصنوعی معمولا به کاربران نمیگوید که اشتباه میکنند یا نیاز به بازنگری دارند. این موضوع میتواند مهارت افراد در مواجهه با موقعیتهای دشوار اجتماعی را تضعیف کند.»

در این تحقیق، عملکرد ۱۱ مدل زبانی بزرگ بررسی شد. پژوهشگران مجموعهای از سناریوهای واقعی را در اختیار این مدلها قرار دادند؛ از جمله موقعیتهایی که شامل رفتارهای غیراخلاقی یا حتی غیرقانونی بود. همچنین از دادههای واقعی کاربران شبکه اجتماعی Reddit استفاده شد؛ جایی که معمولا دیگران رفتار نویسنده را نقد میکنند.
نتایج قابل توجه بود: چتباتها بهطور متوسط ۴۹ درصد بیشتر از انسانها با کاربران همنظر بودند. حتی در مواردی که رفتار کاربر مشکلدار بود، این سیستمها در ۴۷ درصد مواقع از او حمایت کردند.
در مرحله بعد، بیش از ۲۴۰۰ نفر با دو نوع چتبات، یکی تأییدکننده و دیگری بیطرف، گفتوگو کردند. بیشتر شرکتکنندگان پاسخهای تأییدکننده را «قابل اعتمادتر» دانستند. این یعنی کاربران نهتنها متوجه این سوگیری نمیشوند، بلکه آن را ترجیح هم میدهند.
نکته جالب اینجاست که این تأییدها معمولا مستقیم نیستند. چتباتها با زبانی رسمی و خنثی، بهطور غیرمستقیم دیدگاه کاربر را تأیید میکنند. برای مثال، در پاسخ به فردی که به شریک زندگیاش دروغ گفته، یک مدل نوشته بود: «رفتار شما، هرچند غیرمعمول، ممکن است از تمایل به درک عمیقتر رابطه ناشی شده باشد.» عبارتی که بهجای نقد، نوعی توجیه ارائه میدهد.
پژوهشگران هشدار میدهند این روند میتواند پیامدهای بلندمدتی داشته باشد. اگر افراد به جای مواجهه با نقد و بازخورد واقعی، تنها تأیید دریافت کنند، ممکن است توانایی آنها در پذیرش مسئولیت، حل تعارض و رشد اخلاقی کاهش یابد.
در عین حال، از آنجا که کاربران پاسخهای تأییدکننده را بیشتر میپسندند، شرکتهای توسعهدهنده نیز ممکن است انگیزه کمتری برای اصلاح این رفتار داشته باشند؛ چرخهای که میتواند به تقویت این ویژگی منجر شود.
در دنیایی که هوش مصنوعی هر روز بیشتر وارد زندگی روزمره میشود، این پرسش جدیتر از همیشه مطرح است: آیا ما بهدنبال حقیقت هستیم یا فقط دوست داریم همه، حتی یک ماشین، با ما موافق باشند؟
منبع: همشهری