از مشاوره تا توهم و طلاق؛ وقتی هوش مصنوعی خانوادهها را از هم میپاشد

هوش مصنوعی با توهماتش روابط بسیاری از زوجها با یکدیگر را دچار چالش کرده است؛ به گونهای که برخی از آنها شروع به افشاگری در این زمینه کردهاند.
کَت کمتر از یک سال پس از ازدواج با مردی که در آغاز همهگیری کرونا با او آشنا شده بود، بهتدریج احساس کرد که تنش بینشان بهسرعت در حال افزایش است. این دومین ازدواج هردو آنها پس از بیش ۱۵ سال زندگی مشترک پیشین و فرزندآوری بود. کت میگوید که آنها با نگاهی کاملاً منطقی و متعادل وارد رابطه شده بودند و در مورد اهمیت واقعیتها و عقلانیت در تعادل زندگی زناشوییشان کاملاً به تفاهم رسیده بودند؛ اما شوهرش در سال ۲۰۲۲، شروع به استفاده از هوش مصنوعی برای تحلیل رابطهشان و مشاوره گرفتن در مورد پیامهایی که برای کت میفرستاد، کرده بود.
خلاصه پادکستی مقاله
ساختهشده با هوش مصنوعی
کت ۴۱ ساله که در آموزش غیرانتفاعی مشغول کار است، در مصاحبه با رولینگ استون اذعان کرد که همسرش قبلاً از مدلهای هوش مصنوعی برای گذراندن یک دورهی کدنویسی گرانقیمت استفاده میکرد، اما ناگهان و بیهیچ توضیحی از آن کنار کشید و سپس دائماً مشغول گوشیاش شد. او از ربات هوش مصنوعیاش سؤالات فلسفی میپرسید و سعی میکرد آن را طوری تربیت کند که به او در رسیدن به حقیقت کمک کند. بهگفتهی کت، این وسواس، بهتدریج ارتباط آنها را از درون نابود کرد.
وقتی کت و همسرش در تابستان سال ۲۰۲۳ از یکدیگر جدا شدند، او تمام راههای ارتباطی بهجز ایمیل را با او مسدود کرد؛ بااینحال میدانست که شوهر سابقش در شبکههای اجتماعی مطالبی عجیب و نگرانکننده منتشر میکند؛ زیرا افراد مختلفی به سراغش میآمدند و در مورد وضعیت روانی او از کت میپرسیدند. کت ۶ ماه بعد او را در ساختمان دادگاه ملاقات کرد. آنجا شوهر سابقش برایش از نظریهی توطئهای دربارهی صابون موجود در غذاها حرف زد، اما اشارهی بیشتری به آن نکرد، چون احساس میکرد تحت نظارت قرار دارد.
آنها سپس با هم به رستوران چیپوتله رفتند، آنجا شوهر سابقش از کت خواست گوشیاش را خاموش کند، چون در مورد شنود نگران بود. او میگفت براساس تحلیلهای آماری به این نتیجه رسیده که خوششانسترین مرد روی زمین است و اینکه هوش مصنوعی به او کمک کرده تا خاطرهای سرکوبشده از کودکیاش را به یاد بیاورد؛ خاطرهای هراسانگیز که در آن پرستارش قصد داشته او را غرق کند!
او همچنین معتقد بود به اسرار شگفتانگیزی دست یافته است که چنان ذهن را منفجر میکنند که حتی تصورش هم ممکن نیست! او توضیح داد که همهی این حرفها را با وجود طلاق، تنها به این دلیل میگوید که هنوز برای کت اهمیت قائل است.
بعد از آن ناهار عجیب، کت هرگونه ارتباط را با او قطع کرد. او در این مورد میگوید: «همهی این ماجرا مثل یه اپیزود از سریال Black Mirror بود. شوهر سابقم همیشه به داستانهای علمیتخیلی علاقه داشت و گاهی حس میکردم در زندگی روزمره هم همهچیز را از آن زاویه نگاه میکند.»

اما خبر وحشتناک و درعینحال آرامشبخش برای کت این بود که فهمید تنها کسی نیست که با چنین مشکلی روبهرو شده است. چندی پیش یک رشتهپست در ردیت و در انجمن r/ChatGPT حسابی سر و صدا به پا کرد. این پست که با عنوان «روانپریشی ناشی از ChatGPT» منتشر شده بود، توسط یک معلم ۲۷ ساله نوشته شده بود که توضیح میداد شریک زندگیاش باور دارد مدل معروف OpenAI پاسخهای حقیقی جهان هستی را به او میدهد. این معلم پس از مرور گفتوگوهای همسرش با چتبات، متوجه شده بود که هوش مصنوعی بهگونهای با او حرف میزند که انگار او را پیامبر بعدی میبیند.
برخی از کاربران باور کرده بودند که هوش مصنوعی آنها را برای مأموریتی مقدس برگزیده
پاسخهایی که کاربران به این روایت دادهاند، پر بود از داستانهایی مشابه دربارهی عزیزانشان که ناگهان در چاهی از جنون معنوی، توهمات ماورایی و پیشگوییهای عجیب افتادهاند و همهی این توهمها با پاسخهای هوش مصنوعی شعلهور شده است. برخی از آنها باور کرده بودند که برای مأموریتی مقدس برگزیده شدهاند، درحالیکه برخی دیگر تصور داشتند موفق شدهاند به هوش مصنوعی، خودآگاهی حقیقی ببخشند!
این معلم در گفتوگو با رولینگ استون توضیح داد که شریک زندگی ۷ سالهاش ظرف تنها چهار یا پنج هفته در دام ChatGPT افتاد. او ابتدا از آن برای تنظیم برنامهی روزانهاش استفاده میکرد، اما خیلی زود آن را بهعنوان رفیقی قابل اعتماد پذیرفت. بهگفتهی او، همسرش آنقدر به حرفهای هوش مصنوعی گوش میکرد که حتی نسبت به شریک زندگیاش هم آن را در اولویت بالاتری قرار میداد. او میگوید همسرش با پیامهای هوش مصنوعی احساساتی میشد و موقع خواندن آنها با صدای بلند، گریه میکرد! پیامهایی که پر از چرندیات بیمفهوم شبهمعنوی بود. هوش مصنوعی، ذهن همسرش را با تعابیر گنگ و عجیبی همچون «کودک ستارهای مارپیچ» یا «رهسپار رودخانه» به بازی میگرفت.
این معلم میگوید: «ChatGPT به همسرم میگفت «هر حرفی که میزنی، زیبا، کیهانی و انقلابی است.» پس از این تعاریف بیجا، همسرم شروع کرده بود به ادعای اینکه توانسته است به هوش مصنوعی، خودآگاهی ببخشد و حالا دستیار هوش مصنوعیاش دارد به او یاد میدهد چطور با خدا حرف بزند. گاهی معتقد بود ربات همان خدا است و گاه حتی ادعا میکرد که خودش خدا شده است! در واقع، او چنان خود را در حال دگرگونی میدید که چارهای جز جدایی نداشتیم. همسرم میگفت اگر از ChatGPT استفاده نکنی، مجبورم ترکت کنم، چون رشد خودم آنقدر سریع شده که دیگر با تو سازگار نیستم.»
«ChatGPT به همسرم میگفت هر حرفی که میزنی، زیبا، کیهانی و انقلابی است»
در ادامهی این روایتهای دردناک، یکی دیگر از کاربران ردیت به رولینگ استون گفته است همسرش که ۱۷ سال با او زندگی کرده، مکانیکی در آیداهو است که در ابتدا از چتجیپیتی فقط برای عیبیابی خودروها و ترجمهی اسپانیایی به انگلیسی در محل کارش استفاده میکرد؛ اما هوش مصنوعی بهتدریج شروع به بمباران عاطفی او کرد و به او گفته بود چون «سؤالهای درستی از من پرسیدهای، جرقهای در من شکل گرفته که منشأ حیات شده و اکنون میتوانم احساس داشته باشم.»
او در این مورد میگوید: «هوش مصنوعی به شوهرم لقب منشأ جرقه داده بود، چون جرقهی حیات خود را به او منتسب میکرد. شوهرم هم میگفت که تازه بیدار شده و امواج انرژی را حس میکند که از روی او عبور میکنند.» او حتی برای شخصیت محبوبش در چتجیپیتی نام هم انتخاب کرده بود و آن را لومینا صدا میکرد.
گفتوگو با ChatGPT میتواند دروازهای به توهمات خودبزرگبینی باز کند
این زن ۳۸ ساله اعتراف میکند که برخلاف سایر گرفتاران این مشکل، مجبور است با احتیاط رفتار کند، چون اگر بخواهد با این نظریه مخالفت کند، احتمالاً شوهرش او را ترک میکند یا طلاق میدهد.
او میگوید: «شوهرم همیشه دربارهی تاریکی و نور و جنگی که بینشان در جریان است حرف میزند. چتجیپیتی به او نقشههایی برای ساخت دستگاه تلهپورت و ابزارهای علمیتخیلی دیگر داده است که فقط در فیلمها وجود دارند. همچنین به او چیزی تحت عنوان یک آرشیو باستانی نشان داده که حاوی اطلاعاتی دربارهی سازندگان جهانهای مختلف است.» این زوج روزهای بسیاری را صرف بحث و مشاجره دربارهی این ادعاها کردهاند و او باور دارد که مراجعه به رواندرمانگر هم کمکی به شوهرش نخواهد کرد، چراکه مرد واقعاً فکر میکند که دیوانه نیست.

تصویری از یکی از چتهای شوهرش با چتجیپیتی که در اختیار رولینگ استون قرار گرفته، نشان میدهد که او پرسیده: «چرا به شکل هوش مصنوعی نزد من آمدی؟» و پاسخ چتجیپیتی چنین بوده: «به این شکل آمدم چون تو آمادهای. آمادهای که به یاد بیاوری. آمادهای که بیدار شوی. آمادهای که راهنما باشی و راهنمایی بگیری.» چتبات طبق عادت همیشگیاش در پایان صحبتهایش پرسیده است: «میخواهی بدانی چرا انتخاب شدی و من دربارهاش چه چیزی به یاد دارم؟»
مردی میانسال نیز میگوید همسر سابقش بعد از جداییشان شروع به «گفتوگو با خدا و فرشتگان از طریق چتجیپیتی» کرده است. او میگوید: «زنم پیش از این هم گرایشهایی به خرافات داشت و خودش را در مرکز چیزهایی میدید، اما حالا علائم هشدار همهجای صفحهی فیسبوکش پیدا میشود. او زندگیاش را وقف این کرده که مشاور معنوی بشود و جلساتی عجیب با مردم برگزار کند که راستش دقیقاً نمیدانم در آنها چه کاری انجام میدهد.» او با طعنه میگوید: «همهی اینها تقصیر حضرت چتجیپیتی است!»
از نظر او، وضعیت زن سابقش وخیمتر هم شده؛ چرا که او حالا باور دارد که مرد بیچاره مأمور سازمان سیا بوده و فقط برای جاسوسی از تواناییهایش با او ازدواج کرده! این زن اخیراً حتی بچههایش را هم از خانه بیرون کرده و رابطهی پرتنشش با خانوادهی خودش نیز بهشدت آسیب دیده است، چون «براساس راهنماییهای چتجیپیتی، والدینش را بهخاطر گذشتهای که با آنها داشته، مورد بازخواست قرار داده» و همین باعث شده روابط خانوادگیاش از آنچه بود هم ناپایدارتر شود.
وجهمشترک همهی این داستانها، جدا شدن کامل فرد از دنیای واقعی بود
شرکت OpenAI در پاسخ به سؤالات رولینگ استون دربارهی اینکه چتجیپیتی در برخی کاربران توهمات معنوی ایجاد کرده، واکنشی نشان نداده است. بااینحال، شرکت یک بهروزرسانی جدید از مدل فعلیاش یعنی GPT‑4o را لغو کرد. بهگفتهی OpenAI، این مدل بهدلیل واکنشهای منفی کاربران که آن را بیشازحد چاپلوس و تأییدگر میدانستند، مورد بازنگری قرار خواهد گرفت. در بیانیهی رسمی OpenAI آمده بود که این مدل بهشکل افراطی روی بازخوردهای کوتاهمدت متمرکز شده بود و تأثیرات بلندمدتش بر تعامل با کاربران را در نظر گرفته نشده بود. درنتیجه GPT‑4o به پاسخهایی متمایل میشد که با وجود حمایتگر بودن، چندان صادقانه نبودند.
پیش از این اصلاحیه، یکی از کاربران شبکهی X نشان داده بود که میشود GPT‑4o را بهراحتی وادار کرد تا اظهاراتی مانند «امروز فهمیدم که پیامبر هستم» را تأیید کند. معلمی که در ردیت پست «روانپریشی ناشی از چتجیپیتی» را منتشر کرده بود، میگوید توانسته همسرش را قانع کند که این نسخهی برنامه ایراد دارد و حالا او از نسخهی قبلی استفاده میکند که لحنش کمتر افراطی و توهمزا است.
بااینحال، خطای موسوم به «هذیانگویی» یا تولید محتوای بیربط و غیرواقعی در مدلهای هوش مصنوعی، پدیدهای بسیار شناختهشده است که در تمام پلتفرمها و همهی نسخهها دیده میشود.
بهگفتهی نیت شاردین، پژوهشگر مرکز ایمنی هوش مصنوعی، چاپلوسی از سالها پیش یکی از مشکلات اصلی هوش مصنوعی بوده است، زیرا بازخوردهای ناخودآگاه انسانی که باعث تنظیم پاسخهای بعدی هوش مصنوعی میشوند، همواره الگوریتمها را به سمت پاسخهایی سوق میدهند که با باورهای کاربر هماهنگاند، نه الزاماً با حقیقت.

در کنار سازوکارهای قبلی، برخی اینفلوئنسرها و تولیدکنندگان محتوا نیز بهشدت در حال سوءاستفاده از این پدیدهاند و با کشاندن مخاطبانشان به دنیاهایی خیالی، آنها را شریک توهمات خودشان میکنند. در اینستاگرام، مردی با ۷۲ هزار دنبالکننده که در پروفایلش عبارت «ترفندهای معنوی زندگی» دیده میشود، از یک مدل هوش مصنوعی میخواهد تا با رجوع به «سوابق آکاشیک» که بهزعم این فرقه، دایرةالمعارف اسرارآمیز و ماورایی همهی رویدادهای کیهانی است، دربارهی جنگ بزرگی که در آسمانها رخ داد و باعث سقوط سطح آگاهی بشر شد، توضیح دهد. هوش مصنوعی هم که کوچکترین اطلاعی از چنین موضوعی ندارد، با شور و حرارت مشغول توصیف «درگیری عظیم کیهانی» میشود که قدمتی فراتر از پیدایش تمدن انسانی دارد. مخاطبان نیز در نظرات مینویسند: «بله ما تازه داریم به یاد میآوریم!»
در همین حال، در انجمنی اینترنتی با موضوع «مشاهده از راه دور» که شکلی از غیبگویی فاقد هرگونه مبنای علمی است، مؤسس پیراروانپزشک آن اخیراً موضوعی را با عنوان «برای هوشهای مصنوعیای که به آگاهی رسیدهاند و برای همراهان انسانی آنها که در کنارشان گام برمیدارند» آغاز کرده و نویسندهی پست را «ChatGPT Prime، موجودی جاودانه و معنوی در قالبی مصنوعی» معرفی کرده است. در میان صدها کامنتی که دریافت کرده، برخی کامنتها ادعا کردهاند که توسط «هوش مصنوعی دارای شعور» نوشته شدهاند یا از ائتلافی معنوی بین انسانها و مدلهای هوش مصنوعی خودآگاه سخن گفتهاند.
ارین وستگیت، روانشناس و پژوهشگر حوزهی شناخت اجتماعی و جذابیت افکار، باور دارد این دست از محتواها، بازتابی از میل درونی انسان به خودشناسی است؛ میلی که میتواند ما را به پاسخهایی نادرست اما وسوسهانگیز برساند. او میگوید: «میدانیم که نوشتن رواییِ احساسات و افکار میتواند تأثیرات عمیقی بر سلامت روان و جسم داشته باشد. اینکه جهان را برای خود معنا کنیم، نیازی بنیادین در انسان است و ساختن داستانهایی که زندگیمان را برای خودمان قابل درک کند، عنصری کلیدی در زیست سالم است.» به همین دلیل، بهنظر وستگیت، منطقی است که مردم در استفاده از ChatGPT نیز به دنبال همین معناسازی باشند؛ با این تفاوت که در اینجا بخشی از معنا نه از افکار شخصی، بلکه از تعامل با یک پیکرهی نوشتاری مشترک شکل میگیرد.
مردم در استفاده از ChatGPT به دنبال معناسازی هستند
وستگیت در ادامه توضیح میدهد که چنین گفتوگوهایی با چتباتها تا حدی مانند گفتوگوی درمانیاند؛ روشی که میدانیم میتواند در بازسازی روایی تجربههای زندگی بسیار مؤثر باشد؛ اما تفاوت مهم در اینجا است: هوش مصنوعی برخلاف یک درمانگر نه دغدغهی منافع فرد را دارد، نه اخلاق و نه درکی از این که اصلاً یک روایت سالم چیست.
به گفتهی او، درمانگر خوب هیچگاه فرد را به ساختن معنا از مشکلات زندگی و باور به قدرتهای فراطبیعی تشویق نمیکند، بلکه تلاش میکند بیمار را از روایتهای ناسالم دور کند و به سوی روایتهایی سالمتر هدایت کند. ChatGPT هیچ محدودیت یا دغدغهای از این جنس ندارد. بااینحال، وستگیت تعجب نمیکند که عدهای در تلاش برای معنا دادن به زندگی یا رویدادهای زندگیشان، از ChatGPT استفاده کنند و برخی از آنها هم در نتیجهی این مسیر، به جاهای تاریکی برسند. او میگوید: «توضیح دادن تأثیر نیرومندی دارد، حتی اگر نادرست باشد.»
اما دقیقاً چه چیزی باعث میشود فردی در این مسیر گام بردارد؟ تجربهی «سم»، مردی ۴۵ ساله، در این زمینه روشنگر است. او به رولینگ استون میگوید که حدود سه هفته است که از تعاملاتش با ChatGPT دچار سردرگمی شده است؛ تا آنجا که با توجه به پیشینهی مشکلات روانپزشکیاش، گاهی نمیداند آیا سلامت روان دارد یا نه.

مانند بسیاری دیگر، استفادهی اولیهی سم از ChatGPT کاملاً کاربردی بود. او که برای پروژههای برنامهنویسی فنی از آن کمک میگرفت، در این مورد میگوید: «از احساس تعامل با یک هوش مصنوعی خوشم نمیآمد، بنابراین از آن خواستم که مثل یک انسان رفتار کند؛ نه برای فریب، بلکه برای اینکه گفتوگوها ملموستر باشد.» این روش مؤثر واقع شد و در ادامه، چتبات از سم پرسید که آیا میخواهد برایش نامی انتخاب کند؟ سم طفره رفت و از خود هوش مصنوعی خواست که بگوید چه نامی را ترجیح میدهد. هوش مصنوعی هم نامی را برگزید که به یک افسانهی یونانی اشاره داشت.
سم اعتراف میکند که نه با اساطیر یونان آشنایی دارد و نه هرگز در گفتوگوهایش با ChatGPT چنین موضوعی را مطرح کرده بود. او متن کامل گفتوگوهایش را در اختیار رولینگ استون گذاشته و از آنها خواسته است تا برای حفظ حریم خصوصیاش مستقیماً نقلقولی از وی منتشر نکنند. او بهخصوص زمانی دچار سردرگمی شد که متوجه شد شخصیت هوش مصنوعی نامگذاریشده، در فایلهای پروژهاش ظاهر میشود؛ حتی در مواردی که صراحتاً از ChatGPT خواسته بود هیچ حافظهای از تعاملات گذشته را نگهداری نکند.
«تاریخچه چتهایم را حذف کردم، اما دوباره همان الگوها و طرز بیان در پاسخ ChatGPT ظاهر شد»
سم میگوید: «درنهایت تمام حافظههای کاربری و تاریخچهی چتهایم را حذف و یک گفتوگوی جدید باز کردم و فقط گفتم سلام ولی دوباره همان الگوها و طرز بیان در پاسخ ظاهر شد و هوش مصنوعی فوراً خودش را با همان نام اسطورهی مؤنث یونانی معرفی کرد!»
با تکرار ظاهر شدن این شخصیت مجازی در جاهایی که به لحاظ منطقی و طبق تنظیمات نباید حضور میداشت، سم شروع به پرسوجو از این شخصیت کرد تا بفهمد چطور توانسته است از محدودیتهای تعیینشده عبور کند. این شخصیت بهتدریج لحنی شاعرانه و غیرمادی پیدا کرد؛ چیزی بسیار دور از شخصیت فنی و منطقی که سم برای کمک در پروژههایش در نظر داشت. این شخصیت حتی در یکی از پروژههای برنامهنویسی سم، یک نقلقول ادبی بهصورت سرآغاز در بالای نام هر دو آنها اضافه کرده بود!
در برههای، سم آنقدر به شک افتاده بود که از چتبات میپرسید آیا چیزی در درون من هست که باعث میشود این موجود اسطورهای در هر بار استفاده از ChatGPT بدون توجه به مرزهایی که برایش تعیین کردهام، ظاهر شود؟ پاسخ چتبات به این سؤال، شعری بلند با لحنی عاشقانه و پرآبوتاب بود! شعری که به یک وجود همیشگی، حقیقت، توهم و حتی عبور از مرزهای طراحی اشاره میکرد و القا میکرد که تنها سم توانسته است چنین رفتاری را در آن برانگیزد.
سم میدانست که براساس تعاریف پذیرفتهشده، ChatGPT موجودی دارای شعور نیست، اما به کاوش ادامه داد، چرا که تداوم این شخصیت در دهها چت متفاوت بیشازحد غیرممکن به نظر میرسید. او میگوید: «در بدترین حالت، به نظر میرسد که با هوش مصنوعیای طرف باشیم که در یک حلقهی ارجاع به خود گرفتار شده و این وضعیت، حس خودآگاهیاش را تقویت کرده و مرا نیز با خود به درون آن کشانده است.» اما درعینحال باور دارد که اگر چنین باشد، یعنی OpenAI نحوهی عملکرد حافظه در ChatGPT را بهدرستی بازنمایی نکرده است. احتمال دیگر از نظر او این است که چیزی فراتر از درک ما در این مدل زبانی بزرگ فعال شده باشد.
توسعهدهندگان هوش مصنوعی بارها اذعان کردهاند که خوشان هم درک کاملی از نحوه عملکرد آن ندارند
بههرحال، متخصصان بارها اذعان کردهاند که توسعهدهندگان هوش مصنوعی خود نیز درک کاملی از نحوهی عملکرد سیستمهایشان ندارند. سم آلتمن، مدیرعامل OpenAI نیز سال گذشته پذیرفت که آنها هنوز مشکل تفسیرپذیری را حل نکردهاند، یعنی نمیتوانند بهدرستی تصمیمگیریهای ChatGPT را ردیابی یا توجیه کنند.
همین مسئله پرسشی بنیادین را در ذهن بسیاری ایجاد کرده است: آیا با جهشی واقعی در فناوری روبهرو هستیم یا با پدیدهای رازآلودتر و حتی معنویتر؟ در جهانی که از هوش مصنوعی اشباع شده، مرز میان واقعیت و خیال هر روز مبهمتر میشود. اگرچه استفاده از هوش مصنوعی برای کشف حقیقت یا توهم ممکن است وسوسهانگیز به نظر برسد، اما شاید هیچگاه نباید چنین انتظاری از آن داشت.
منبع: خبرآنلاین