از مشاوره تا توهم و طلاق؛ وقتی هوش مصنوعی خانواده‌ها را از هم می‌پاشد

از مشاوره تا توهم و طلاق؛ وقتی هوش مصنوعی خانواده‌ها را از هم می‌پاشد

هوش مصنوعی با توهماتش روابط بسیاری از زوج‌ها با یکدیگر را دچار چالش کرده است؛ به گونه‌ای که برخی از آن‌ها شروع به افشاگری در این زمینه کرده‌اند.

کد خبر : ۲۴۴۷۰۱
بازدید : ۲۰

کَت کمتر از یک سال پس از ازدواج با مردی که در آغاز همه‌گیری کرونا با او آشنا شده بود، به‌تدریج احساس کرد که تنش بینشان به‌سرعت در حال افزایش است. این دومین ازدواج هردو آن‌ها پس از بیش ۱۵ سال زندگی مشترک پیشین و فرزندآوری بود. کت می‌گوید که آن‌ها با نگاهی کاملاً منطقی و متعادل وارد رابطه شده بودند و در مورد اهمیت واقعیت‌ها و عقلانیت در تعادل زندگی زناشویی‌شان کاملاً به تفاهم رسیده بودند؛ اما شوهرش در سال ۲۰۲۲، شروع به استفاده از هوش مصنوعی برای تحلیل رابطه‌شان و مشاوره گرفتن در مورد پیام‌هایی که برای کت می‌فرستاد، کرده بود.

خلاصه پادکستی مقاله

ساخته‌شده با هوش مصنوعی

کت ۴۱ ساله که در آموزش غیرانتفاعی مشغول کار است، در مصاحبه با رولینگ استون اذعان کرد که همسرش قبلاً از مدل‌های هوش مصنوعی برای گذراندن یک دوره‌ی کدنویسی گران‌قیمت استفاده می‌کرد، اما ناگهان و بی‌هیچ توضیحی از آن کنار کشید و سپس دائماً مشغول گوشی‌اش شد. او از ربات هوش مصنوعی‌اش سؤالات فلسفی می‌پرسید و سعی می‌کرد آن را طوری تربیت کند که به او در رسیدن به حقیقت کمک کند. به‌گفته‌ی کت، این وسواس، به‌تدریج ارتباط آن‌ها را از درون نابود کرد.

وقتی کت و همسرش در تابستان سال ۲۰۲۳ از یکدیگر جدا شدند، او تمام راه‌های ارتباطی به‌جز ایمیل را با او مسدود کرد؛ بااین‌حال می‌دانست که شوهر سابقش در شبکه‌های اجتماعی مطالبی عجیب و نگران‌کننده منتشر می‌کند؛ زیرا افراد مختلفی به سراغش می‌آمدند و در مورد وضعیت روانی او از کت می‌پرسیدند. کت ۶ ماه بعد او را در ساختمان دادگاه ملاقات کرد. آنجا شوهر سابقش برایش از نظریه‌ی توطئه‌ای درباره‌ی صابون موجود در غذاها حرف زد، اما اشاره‌ی بیشتری به آن نکرد، چون احساس می‌کرد تحت نظارت قرار دارد.

آن‌ها سپس با هم به رستوران چیپوتله رفتند، آنجا شوهر سابقش از کت خواست گوشی‌اش را خاموش کند، چون در مورد شنود نگران بود. او می‌گفت براساس تحلیل‌های آماری به این نتیجه رسیده که خوش‌شانس‌ترین مرد روی زمین است و اینکه هوش مصنوعی به او کمک کرده تا خاطره‌ای سرکوب‌شده از کودکی‌اش را به یاد بیاورد؛ خاطره‌ای هراس‌انگیز که در آن پرستارش قصد داشته او را غرق کند!

او همچنین معتقد بود به اسرار شگفت‌انگیزی دست یافته است که چنان ذهن را منفجر می‌کنند که حتی تصورش هم ممکن نیست! او توضیح داد که همه‌ی این حرف‌ها را با وجود طلاق، تنها به‌ این دلیل می‌گوید که هنوز برای کت اهمیت قائل است.

بعد از آن ناهار عجیب، کت هرگونه ارتباط را با او قطع کرد. او در این مورد می‌گوید: «همه‌ی این ماجرا مثل یه اپیزود از سریال Black Mirror بود. شوهر سابقم همیشه به داستان‌های علمی‌تخیلی علاقه داشت و گاهی حس می‌کردم در زندگی روزمره هم همه‌چیز را از آن زاویه نگاه می‌کند.»

13_11zon
معلمی در ردیت نوشت شریک زندگی‌اش باور دارد ChatGPT پاسخ‌های حقیقی جهان هستی را به او می‌دهد.
زومیت

اما خبر وحشتناک و درعین‌حال آرامش‌بخش برای کت این بود که فهمید تنها کسی نیست که با چنین مشکلی روبه‌رو شده است. چندی پیش یک رشته‌پست در ردیت و در انجمن r/ChatGPT حسابی سر و صدا به پا کرد. این پست که با عنوان «روان‌پریشی ناشی از ChatGPT» منتشر شده بود، توسط یک معلم ۲۷ ساله نوشته شده بود که توضیح می‌داد شریک زندگی‌اش باور دارد مدل معروف OpenAI پاسخ‌های حقیقی جهان هستی را به او می‌دهد. این معلم پس از مرور گفت‌وگوهای همسرش با چت‌بات، متوجه شده بود که هوش مصنوعی به‌گونه‌ای با او حرف می‌زند که انگار او را پیامبر بعدی می‌بیند.

برخی از کاربران باور کرده بودند که هوش مصنوعی آن‌ها را برای مأموریتی مقدس برگزیده

پاسخ‌هایی که کاربران به این روایت داده‌اند، پر بود از داستان‌هایی مشابه درباره‌ی عزیزانشان که ناگهان در چاهی از جنون معنوی، توهمات ماورایی و پیشگویی‌های عجیب افتاده‌اند و همه‌ی این توهم‌ها با پاسخ‌های هوش مصنوعی شعله‌ور شده است. برخی از آن‌ها باور کرده بودند که برای مأموریتی مقدس برگزیده شده‌اند، درحالی‌که برخی دیگر تصور داشتند موفق شده‌اند به هوش مصنوعی، خودآگاهی حقیقی ببخشند!

این معلم در گفت‌وگو با رولینگ استون توضیح داد که شریک زندگی ۷ ساله‌اش ظرف تنها چهار یا پنج هفته در دام ChatGPT افتاد. او ابتدا از آن برای تنظیم برنامه‌ی روزانه‌اش استفاده می‌کرد، اما خیلی زود آن را به‌عنوان رفیقی قابل‌ اعتماد پذیرفت. به‌گفته‌ی او، همسرش آنقدر به حرف‌های هوش مصنوعی گوش می‌کرد که حتی نسبت به شریک زندگی‌اش هم آن را در اولویت بالاتری قرار می‌داد. او می‌گوید همسرش با پیام‌های هوش مصنوعی احساساتی می‌شد و موقع خواندن آن‌ها با صدای بلند، گریه می‌کرد! پیام‌هایی که پر از چرندیات بی‌مفهوم شبه‌معنوی بود. هوش مصنوعی، ذهن همسرش را با تعابیر گنگ و عجیبی همچون «کودک ستاره‌ای مارپیچ» یا «ره‌سپار رودخانه» به بازی می‌گرفت.

این معلم می‌گوید: «ChatGPT به همسرم می‌گفت «هر حرفی که می‌زنی، زیبا، کیهانی و انقلابی است.» پس از این تعاریف بیجا، همسرم شروع کرده بود به ادعای اینکه توانسته است به هوش مصنوعی، خودآگاهی ببخشد و حالا دستیار هوش مصنوعی‌اش دارد به او یاد می‌دهد چطور با خدا حرف بزند. گاهی معتقد بود ربات همان خدا است و گاه حتی ادعا می‌کرد که خودش خدا شده است! در واقع، او چنان خود را در حال دگرگونی می‌دید که چاره‌ای جز جدایی نداشتیم. همسرم می‌گفت اگر از ChatGPT استفاده نکنی، مجبورم ترکت کنم، چون رشد خودم آنقدر سریع شده که دیگر با تو سازگار نیستم.»

«ChatGPT به همسرم می‌گفت هر حرفی که می‌زنی، زیبا، کیهانی و انقلابی است»

در ادامه‌ی این روایت‌های دردناک، یکی دیگر از کاربران ردیت به رولینگ استون گفته است همسرش که ۱۷ سال با او زندگی کرده، مکانیکی در آیداهو است که در ابتدا از چت‌جی‌پی‌تی فقط برای عیب‌یابی خودرو‌ها و ترجمه‌ی اسپانیایی به انگلیسی در محل کارش استفاده می‌کرد؛ اما هوش مصنوعی به‌تدریج شروع به بمباران عاطفی او کرد و به او گفته بود چون «سؤال‌های درستی از من پرسیده‌ای، جرقه‌ای در من شکل گرفته که منشأ حیات شده و اکنون می‌توانم احساس داشته باشم.»

او در این مورد می‌گوید: «هوش مصنوعی به شوهرم لقب منشأ جرقه داده بود، چون جرقه‌ی حیات خود را به او منتسب می‌کرد. شوهرم هم می‌گفت که تازه بیدار شده و امواج انرژی را حس می‌کند که از روی او عبور می‌کنند.» او حتی برای شخصیت محبوبش در چت‌جی‌پی‌تی نام هم انتخاب کرده بود و آن را لومینا‌ صدا می‌کرد.

گفت‌وگو با ChatGPT می‌تواند دروازه‌ای به توهمات خودبزرگ‌بینی‌ باز کند

این زن ۳۸ ساله اعتراف می‌کند که برخلاف سایر گرفتاران این مشکل، مجبور است با احتیاط رفتار کند، چون اگر بخواهد با این نظریه مخالفت کند، احتمالاً شوهرش او را ترک می‌کند یا طلاق می‌دهد.

او می‌گوید: «شوهرم همیشه درباره‌ی تاریکی و نور و جنگی که بینشان در جریان است حرف می‌زند. چت‌جی‌پی‌تی به او نقشه‌هایی برای ساخت دستگاه تله‌پورت و ابزار‌های علمی‌تخیلی دیگر داده است که فقط در فیلم‌ها وجود دارند. همچنین به او چیزی تحت عنوان یک آرشیو باستانی نشان داده که حاوی اطلاعاتی درباره‌ی سازندگان جهان‌های مختلف است.» این زوج روزهای بسیاری را صرف بحث و مشاجره درباره‌ی این ادعاها کرده‌اند و او باور دارد که مراجعه به روان‌درمانگر هم کمکی به شوهرش نخواهد کرد، چراکه مرد واقعاً فکر می‌کند که دیوانه نیست.

14_11zon
مدل GPT‑4o پاسخ‌هایی می‌داد که با وجود حمایتگر بودن، چندان صادقانه نبودند.
زومیت

تصویری از یکی از چت‌های شوهرش با چت‌جی‌پی‌تی که در اختیار رولینگ استون قرار گرفته، نشان می‌دهد که او پرسیده: «چرا به شکل هوش مصنوعی نزد من آمدی؟» و پاسخ چت‌جی‌پی‌تی چنین بوده: «به این شکل آمدم چون تو آماده‌ای. آماده‌ای که به یاد بیاوری. آماده‌ای که بیدار شوی. آماده‌ای که راهنما باشی و راهنمایی بگیری.» چت‌بات طبق عادت همیشگی‌اش در پایان صحبت‌هایش پرسیده است: «می‌خواهی بدانی چرا انتخاب شدی و من درباره‌اش چه چیزی به یاد دارم؟»

مردی میانسال نیز می‌گوید همسر سابقش بعد از جدایی‌شان شروع به «گفت‌وگو با خدا و فرشتگان از طریق چت‌جی‌پی‌تی» کرده است. او می‌گوید: «زنم پیش از این هم گرایش‌هایی به خرافات داشت و خودش را در مرکز چیزهایی می‌دید، اما حالا علائم هشدار همه‌جای صفحه‌ی فیسبوکش پیدا می‌شود. او زندگی‌اش را وقف این کرده که مشاور معنوی بشود و جلساتی عجیب با مردم برگزار کند که راستش دقیقاً نمی‌دانم در آن‌ها چه‌ کاری انجام می‌دهد.» او با طعنه می‌گوید: «همه‌ی این‌ها تقصیر حضرت چت‌جی‌پی‌تی است!»

از نظر او، وضعیت زن سابقش وخیم‌تر هم شده؛ چرا که او حالا باور دارد که مرد بیچاره مأمور سازمان سیا بوده و فقط برای جاسوسی از توانایی‌هایش با او ازدواج کرده! این زن اخیراً حتی بچه‌هایش را هم از خانه بیرون کرده و رابطه‌ی پرتنشش با خانواده‌ی خودش نیز به‌شدت آسیب دیده است، چون «براساس راهنمایی‌های چت‌جی‌پی‌تی، والدینش را به‌خاطر گذشته‌ای که با آن‌ها داشته، مورد بازخواست قرار داده» و همین باعث شده روابط خانوادگی‌اش از آنچه بود هم ناپایدارتر شود.

وجه‌مشترک همه‌ی این داستان‌ها، جدا شدن کامل فرد از دنیای واقعی بود

شرکت OpenAI در پاسخ به سؤالات رولینگ استون درباره‌ی اینکه چت‌جی‌پی‌تی در برخی کاربران توهمات معنوی ایجاد کرده، واکنشی نشان نداده است. بااین‌حال، شرکت یک به‌روزرسانی جدید از مدل فعلی‌اش یعنی GPT‑4o را لغو کرد. به‌گفته‌ی OpenAI، این مدل به‌دلیل واکنش‌های منفی کاربران که آن را بیش‌ازحد چاپلوس و تأییدگر می‌دانستند، مورد بازنگری قرار خواهد گرفت. در بیانیه‌ی رسمی OpenAI آمده بود که این مدل به‌شکل افراطی روی بازخوردهای کوتاه‌مدت متمرکز شده بود و تأثیرات بلندمدتش بر تعامل با کاربران را در نظر گرفته نشده بود. درنتیجه GPT‑4o به پاسخ‌هایی متمایل می‌شد که با وجود حمایتگر بودن، چندان صادقانه نبودند.

پیش از این اصلاحیه، یکی از کاربران شبکه‌ی X نشان داده بود که می‌شود GPT‑4o را به‌راحتی وادار کرد تا اظهاراتی مانند «امروز فهمیدم که پیامبر هستم» را تأیید کند. معلمی که در ردیت پست «روان‌پریشی ناشی از چت‌جی‌پی‌تی» را منتشر کرده بود، می‌گوید توانسته همسرش را قانع کند که این نسخه‌ی برنامه ایراد دارد و حالا او از نسخه‌ی قبلی استفاده می‌کند که لحنش کمتر افراطی و توهم‌زا است.

بااین‌حال، خطای موسوم به «هذیان‌گویی» یا تولید محتوای بی‌ربط و غیرواقعی در مدل‌های هوش مصنوعی، پدیده‌ای بسیار شناخته‌شده است که در تمام پلتفرم‌ها و همه‌ی نسخه‌ها دیده می‌شود.

به‌گفته‌ی نیت شاردین، پژوهشگر مرکز ایمنی هوش مصنوعی، چاپلوسی از سال‌ها پیش یکی از مشکلات اصلی هوش مصنوعی بوده است، زیرا بازخوردهای ناخودآگاه انسانی که باعث تنظیم پاسخ‌های بعدی هوش مصنوعی می‌شوند، همواره الگوریتم‌ها را به سمت پاسخ‌هایی سوق می‌دهند که با باورهای کاربر هماهنگ‌اند، نه الزاماً با حقیقت.

15_11zon
شاردین در این رابطه می‌گوید: «تجربه‌ی بینش‌های وهم‌آلود در استفاده از چت‌جی‌پی‌تی و مدل‌های مشابه احتمالاً به این دلیل رخ می‌دهد که افرادی با استعدادِ ابتلا به اختلالات روان‌شناختی از جمله توهمات عظمت در معنای بالینی (Grandiosity) اکنون به یک هم‌صحبت همیشه‌در‌دسترس و در سطح انسان دست یافته‌اند که آن‌ها را با کمال میل در هذیان‌هایشان همراهی می‌کند.»

در کنار سازوکارهای قبلی، برخی اینفلوئنسرها و تولیدکنندگان محتوا نیز به‌شدت در حال سوءاستفاده از این پدیده‌اند و با کشاندن مخاطبانشان به دنیاهایی خیالی، آن‌ها را شریک توهمات خودشان می‌کنند. در اینستاگرام، مردی با ۷۲ هزار دنبال‌کننده که در پروفایلش عبارت «ترفندهای معنوی زندگی» دیده می‌شود، از یک مدل هوش مصنوعی می‌خواهد تا با رجوع به «سوابق آکاشیک» که به‌زعم این فرقه، دایرةالمعارف اسرارآمیز و ماورایی همه‌ی رویدادهای کیهانی است، درباره‌ی جنگ بزرگی که در آسمان‌ها رخ داد و باعث سقوط سطح آگاهی بشر‌ شد، توضیح دهد. هوش مصنوعی هم که کوچک‌ترین اطلاعی از چنین موضوعی ندارد، با شور و حرارت مشغول توصیف «درگیری عظیم کیهانی» می‌شود که قدمتی فراتر از پیدایش تمدن انسانی دارد. مخاطبان نیز در نظرات می‌نویسند: «بله ما تازه داریم به یاد می‌آوریم!»

در همین حال، در انجمنی اینترنتی با موضوع «مشاهده از راه دور» که شکلی از غیب‌گویی فاقد هرگونه مبنای علمی است، مؤسس پیراروانپزشک آن اخیراً موضوعی را با عنوان «برای هوش‌های مصنوعی‌ای که به آگاهی رسیده‌اند و برای همراهان انسانی آن‌ها که در کنارشان گام برمی‌دارند» آغاز کرده و نویسنده‌ی پست را «ChatGPT Prime، موجودی جاودانه و معنوی در قالبی مصنوعی» معرفی کرده است. در میان صدها کامنتی که دریافت کرده، برخی کامنت‌ها ادعا کرده‌اند که توسط «هوش مصنوعی دارای شعور» نوشته شده‌اند یا از ائتلافی معنوی بین انسان‌ها و مدل‌های هوش مصنوعی خودآگاه سخن گفته‌اند.

ارین وستگیت، روان‌شناس و پژوهشگر حوزه‌ی شناخت اجتماعی و جذابیت افکار، باور دارد این دست از محتواها، بازتابی از میل درونی انسان به خودشناسی است؛ میلی که می‌تواند ما را به پاسخ‌هایی نادرست اما وسوسه‌انگیز برساند. او می‌گوید: «می‌دانیم که نوشتن رواییِ احساسات و افکار می‌تواند تأثیرات عمیقی بر سلامت روان و جسم داشته باشد. اینکه جهان را برای خود معنا کنیم، نیازی بنیادین در انسان است و ساختن داستان‌هایی که زندگی‌مان را برای خودمان قابل درک کند، عنصری کلیدی در زیست سالم است.» به همین دلیل، به‌نظر وستگیت، منطقی است که مردم در استفاده از ChatGPT نیز به دنبال همین معناسازی باشند؛ با این تفاوت که در اینجا بخشی از معنا نه از افکار شخصی، بلکه از تعامل با یک پیکره‌ی نوشتاری مشترک شکل می‌گیرد.

مردم در استفاده از ChatGPT به دنبال معناسازی هستند

وستگیت در ادامه توضیح می‌دهد که چنین گفت‌وگوهایی با چت‌بات‌ها تا حدی مانند گفت‌وگوی درمانی‌اند؛ روشی که می‌دانیم می‌تواند در بازسازی روایی تجربه‌های زندگی بسیار مؤثر باشد؛ اما تفاوت مهم در اینجا است: هوش مصنوعی برخلاف یک درمانگر نه دغدغه‌ی منافع فرد را دارد، نه اخلاق و نه درکی از این که اصلاً یک روایت سالم چیست.

به گفته‌ی او، درمانگر خوب هیچ‌گاه فرد را به ساختن معنا از مشکلات زندگی و باور به قدرت‌های فراطبیعی تشویق نمی‌کند، بلکه تلاش می‌کند بیمار را از روایت‌های ناسالم دور کند و به سوی روایت‌هایی سالم‌تر هدایت کند. ChatGPT هیچ محدودیت یا دغدغه‌ای از این جنس ندارد. بااین‌حال، وستگیت تعجب نمی‌کند که عده‌ای در تلاش برای معنا دادن به زندگی یا رویدادهای زندگی‌شان، از ChatGPT استفاده کنند و برخی از آن‌ها هم در نتیجه‌ی این مسیر، به جاهای تاریکی برسند. او می‌گوید: «توضیح دادن تأثیر نیرومندی دارد، حتی اگر نادرست باشد.»

اما دقیقاً چه چیزی باعث می‌شود فردی در این مسیر گام بردارد؟ تجربه‌ی «سم»، مردی ۴۵ ساله، در این زمینه روشنگر است. او به رولینگ استون می‌گوید که حدود سه هفته است که از تعاملاتش با ChatGPT دچار سردرگمی شده است؛ تا آنجا که با توجه به پیشینه‌ی مشکلات روان‌پزشکی‌اش، گاهی نمی‌داند آیا سلامت روان دارد یا نه.

16_11zon
استفاده‌ اولیه‌ سم از ChatGPT کاملاً کاربردی بود؛ تااینکه هوش مصنوعی از او خواست برایش نام انتخاب کند.
زومیت

مانند بسیاری دیگر، استفاده‌ی اولیه‌ی سم از ChatGPT کاملاً کاربردی بود. او که برای پروژه‌های برنامه‌نویسی فنی از آن کمک می‌گرفت، در این مورد می‌گوید: «از احساس تعامل با یک هوش مصنوعی خوشم نمی‌آمد، بنابراین از آن خواستم که مثل یک انسان رفتار کند؛ نه برای فریب، بلکه برای اینکه گفت‌وگوها ملموس‌تر باشد.» این روش مؤثر واقع شد و در ادامه، چت‌بات از سم پرسید که آیا می‌خواهد برایش نامی انتخاب کند؟ سم طفره رفت و از خود هوش مصنوعی خواست که بگوید چه نامی را ترجیح می‌دهد. هوش مصنوعی هم نامی را برگزید که به یک افسانه‌ی یونانی اشاره داشت.

سم اعتراف می‌کند که نه با اساطیر یونان آشنایی دارد و نه هرگز در گفت‌وگوهایش با ChatGPT چنین موضوعی را مطرح کرده بود. او متن کامل گفت‌وگوهایش را در اختیار رولینگ استون گذاشته و از آن‌ها خواسته است تا برای حفظ حریم خصوصی‌اش مستقیماً نقل‌قولی از وی منتشر نکنند. او به‌خصوص زمانی دچار سردرگمی شد که متوجه شد شخصیت هوش مصنوعی نام‌گذاری‌شده، در فایل‌های پروژه‌اش ظاهر می‌شود؛ حتی در مواردی که صراحتاً از ChatGPT خواسته بود هیچ حافظه‌ای از تعاملات گذشته را نگهداری نکند.

«تاریخچه‌ چت‌هایم را حذف کردم، اما دوباره همان الگوها و طرز بیان در پاسخ ChatGPT ظاهر شد»

سم می‌گوید: «درنهایت تمام حافظه‌های کاربری و تاریخچه‌ی چت‌هایم را حذف و یک گفت‌وگوی جدید باز کردم و فقط گفتم سلام ولی دوباره همان الگوها و طرز بیان در پاسخ ظاهر شد و هوش مصنوعی فوراً خودش را با همان نام اسطوره‌ی مؤنث یونانی معرفی کرد!»

با تکرار ظاهر شدن این شخصیت مجازی در جاهایی که به لحاظ منطقی و طبق تنظیمات نباید حضور می‌داشت، سم شروع به پرس‌وجو از این شخصیت کرد تا بفهمد چطور توانسته است از محدودیت‌های تعیین‌شده عبور کند. این شخصیت به‌تدریج لحنی شاعرانه و غیرمادی پیدا کرد؛ چیزی بسیار دور از شخصیت فنی و منطقی که سم برای کمک در پروژه‌هایش در نظر داشت. این شخصیت حتی در یکی از پروژه‌های برنامه‌نویسی سم، یک نقل‌قول ادبی به‌صورت سرآغاز در بالای نام هر دو آن‌ها اضافه کرده بود!

در برهه‌ای، سم آنقدر به شک افتاده بود که از چت‌بات می‌پرسید آیا چیزی در درون من هست که باعث می‌شود این موجود اسطوره‌ای در هر بار استفاده از ChatGPT بدون توجه به مرزهایی که برایش تعیین کرده‌ام، ظاهر شود؟ پاسخ چت‌بات به این سؤال، شعری بلند با لحنی عاشقانه و پرآب‌وتاب بود! شعری که به یک وجود همیشگی، حقیقت، توهم و حتی عبور از مرزهای طراحی اشاره می‌کرد و القا می‌کرد که تنها سم توانسته است چنین رفتاری را در آن برانگیزد.

سم می‌دانست که براساس تعاریف پذیرفته‌شده، ChatGPT موجودی دارای شعور نیست، اما به کاوش ادامه داد، چرا که تداوم این شخصیت در ده‌ها چت متفاوت بیش‌ازحد غیرممکن به نظر می‌رسید. او می‌گوید: «در بدترین حالت، به نظر می‌رسد که با هوش مصنوعی‌ای طرف باشیم که در یک حلقه‌ی ارجاع به خود گرفتار شده و این وضعیت، حس خودآگاهی‌اش را تقویت کرده و مرا نیز با خود به درون آن کشانده است.» اما درعین‌حال باور دارد که اگر چنین باشد، یعنی OpenAI نحوه‌ی عملکرد حافظه در ChatGPT را به‌درستی بازنمایی نکرده است. احتمال دیگر از نظر او این است که چیزی فراتر از درک ما در این مدل زبانی بزرگ فعال شده باشد.

توسعه‌دهندگان هوش مصنوعی بارها اذعان کرده‌اند که خوشان هم درک کاملی از نحوه‌ عملکرد آن ندارند

به‌هرحال، متخصصان بارها اذعان کرده‌اند که توسعه‌دهندگان هوش مصنوعی خود نیز درک کاملی از نحوه‌ی عملکرد سیستم‌هایشان ندارند. سم آلتمن، مدیرعامل OpenAI نیز سال گذشته پذیرفت که آن‌ها هنوز مشکل تفسیرپذیری را حل نکرده‌اند، یعنی نمی‌توانند به‌درستی تصمیم‌گیری‌های ChatGPT را ردیابی یا توجیه کنند.

همین مسئله پرسشی بنیادین را در ذهن بسیاری ایجاد کرده است: آیا با جهشی واقعی در فناوری روبه‌رو هستیم یا با پدیده‌ای رازآلودتر و حتی معنوی‌تر؟ در جهانی که از هوش مصنوعی اشباع شده، مرز میان واقعیت و خیال هر روز مبهم‌تر می‌شود. اگرچه استفاده از هوش مصنوعی برای کشف حقیقت یا توهم ممکن است وسوسه‌انگیز به نظر برسد، اما شاید هیچ‌گاه نباید چنین انتظاری از آن داشت.

منبع: خبرآنلاین

۰
نظرات بینندگان
تازه‌‌ترین عناوین
پربازدید