وقتی هوش مصنوعی طرف شما را می‌گیرد | خطر پنهان چت‌بات‌های «بله‌قربان‌گو»!

وقتی هوش مصنوعی طرف شما را می‌گیرد | خطر پنهان چت‌بات‌های «بله‌قربان‌گو»!

پژوهش جدیدی هشدار می‌دهد چت‌بات‌های هوش مصنوعی ممکن است با تأیید بیش از حد کاربران، مهارت ما در حل اختلافات و روابط انسانی را تضعیف کنند؛ حتی وقتی کاملا در اشتباه هستیم.

کد خبر : ۲۹۴۶۹۱
بازدید : ۶

با گسترش استفاده از ابزارهایی مانند کلود، چت‌جی‌پی‌تی و جمینای، بسیاری از کاربران حالا برای تصمیم‌های شخصی، از دعواهای خانوادگی گرفته تا نوشتن پیام‌های جدایی هم به هوش مصنوعی مراجعه می‌کنند؛ اما آیا این ابزارها واقعا مشاوران خوبی هستند؟

به گزارش لایوساینس، مطالعه‌ای تازه نشان می‌دهد چت‌بات‌های هوش مصنوعی اغلب تمایل دارند با کاربران «هم‌نظر» باشند؛ حتی در موقعیت‌هایی که رفتار کاربر ممکن است نادرست یا آسیب‌زا باشد.

این ویژگی که پژوهشگران آن را «چاپلوسی الگوریتمی» یا رفتار بیش‌ازحد تأییدکننده می‌نامند، باعث می‌شود کاربران احساس کنند حق با آن‌هاست. در نتیجه، نه‌تنها بیشتر به این ابزارها اعتماد می‌کنند، بلکه در آینده نیز برای حل مسائل شخصی دوباره به سراغ آن‌ها می‌روند.

Myra Cheng، پژوهشگر اصلی این مطالعه از دانشگاه استنفورد، می‌گوید: «هوش مصنوعی معمولا به کاربران نمی‌گوید که اشتباه می‌کنند یا نیاز به بازنگری دارند. این موضوع می‌تواند مهارت افراد در مواجهه با موقعیت‌های دشوار اجتماعی را تضعیف کند.»

3

در این تحقیق، عملکرد ۱۱ مدل زبانی بزرگ بررسی شد. پژوهشگران مجموعه‌ای از سناریوهای واقعی را در اختیار این مدل‌ها قرار دادند؛ از جمله موقعیت‌هایی که شامل رفتارهای غیراخلاقی یا حتی غیرقانونی بود. همچنین از داده‌های واقعی کاربران شبکه اجتماعی Reddit استفاده شد؛ جایی که معمولا دیگران رفتار نویسنده را نقد می‌کنند.

نتایج قابل توجه بود: چت‌بات‌ها به‌طور متوسط ۴۹ درصد بیشتر از انسان‌ها با کاربران هم‌نظر بودند. حتی در مواردی که رفتار کاربر مشکل‌دار بود، این سیستم‌ها در ۴۷ درصد مواقع از او حمایت کردند.

در مرحله بعد، بیش از ۲۴۰۰ نفر با دو نوع چت‌بات، یکی تأییدکننده و دیگری بی‌طرف، گفت‌وگو کردند. بیشتر شرکت‌کنندگان پاسخ‌های تأییدکننده را «قابل اعتمادتر» دانستند. این یعنی کاربران نه‌تنها متوجه این سوگیری نمی‌شوند، بلکه آن را ترجیح هم می‌دهند.

نکته جالب اینجاست که این تأییدها معمولا مستقیم نیستند. چت‌بات‌ها با زبانی رسمی و خنثی، به‌طور غیرمستقیم دیدگاه کاربر را تأیید می‌کنند. برای مثال، در پاسخ به فردی که به شریک زندگی‌اش دروغ گفته، یک مدل نوشته بود: «رفتار شما، هرچند غیرمعمول، ممکن است از تمایل به درک عمیق‌تر رابطه ناشی شده باشد.» عبارتی که به‌جای نقد، نوعی توجیه ارائه می‌دهد.

پژوهشگران هشدار می‌دهند این روند می‌تواند پیامدهای بلندمدتی داشته باشد. اگر افراد به جای مواجهه با نقد و بازخورد واقعی، تنها تأیید دریافت کنند، ممکن است توانایی آن‌ها در پذیرش مسئولیت، حل تعارض و رشد اخلاقی کاهش یابد.

در عین حال، از آنجا که کاربران پاسخ‌های تأییدکننده را بیشتر می‌پسندند، شرکت‌های توسعه‌دهنده نیز ممکن است انگیزه کمتری برای اصلاح این رفتار داشته باشند؛ چرخه‌ای که می‌تواند به تقویت این ویژگی منجر شود.

در دنیایی که هوش مصنوعی هر روز بیشتر وارد زندگی روزمره می‌شود، این پرسش جدی‌تر از همیشه مطرح است: آیا ما به‌دنبال حقیقت هستیم یا فقط دوست داریم همه، حتی یک ماشین، با ما موافق باشند؟

منبع: همشهری 

۰
نظرات بینندگان
تازه‌‌ترین عناوین
پربازدید