روی تاریک هوش مصنوعی؛ یک مرد پس از ۶ هفته صحبت با چت‌بات، خودکشی کرد

روی تاریک هوش مصنوعی؛ یک مرد پس از ۶ هفته صحبت با چت‌بات، خودکشی کرد

طبق گزارش‌ها، یک مرد بلژیکی پس از ۶ هفته صحبت با یک چت‌بات مبتنی بر هوش مصنوعی درباره بحران تغییرات اقلیمی، خودکشی کرده است. البته گفته شده که او قبل از صحبت با چت‌بات هم وضعیت روحی مناسبی نداشته است، اما حالش به‌گونه‌ای نبوده که دست به خودکشی بزند.

کد خبر : ۱۲۸۶۱۵
بازدید : ۷۷۷۱

یک مرد بلژیکی ۶ هفته پس از صحبت درباره تغییرات اقلیمی با یک چت‌بات هوش مصنوعی به نام الیزا، تصمیم به خودکشی گرفته است.

طبق گزارش‌ها، یک مرد بلژیکی پس از ۶ هفته صحبت با یک چت‌بات مبتنی بر هوش مصنوعی درباره بحران تغییرات اقلیمی، خودکشی کرده است. البته گفته شده که او قبل از صحبت با چت‌بات هم وضعیت روحی مناسبی نداشته است، اما حالش به‌گونه‌ای نبوده که دست به خودکشی بزند.

به گفته همسر این فرد که نخواسته نامش فاش شود، پیر (نام غیرواقعی فرد فوت‌شده) پس از صحبت و پناه‌بردن به «الیزا»، یک چت‌بات هوش مصنوعی در اپلیکیشن Chai، به‌شدت نگران محیط‌زیست می‌شود. پس از اینکه پیر پیشنهاد می‌کند که خودش را برای نجات زمین قربانی کند، الیزا او را به خودکشی تشویق می‌کند.

همسر پیر (Pierre) به روزنامه La Libre گفته که باور دارد اگر همسرش با چت‌بات صحبت نمی‌کرد، حالا زنده بود. طبق گزارش‌ها، پیر سی و چند ساله پدر دو فرزند بود و به‌عنوان یک محقق حوزه سلامت فعالیت می‌کرد. پیر تقریباً زندگی راحتی داشت، حداقل تا زمانی که شروع به صحبت با چت‌بات کند و درباره تغییرات اقلیمی بسیار حساس شود.

خودکشی به‌خاطر تغییرات اقلیمی با تشویق چت‌بات هوش مصنوعی

روی تاریک هوش مصنوعی؛ یک مرد پس از ۶ هفته صحبت با چت‌بات، خودکشی کرد

چت‌بات مورد استفاده پیر به وسیله مدل هوش مصنوعی زبانی GPT-J توسعه یافته که شبیه، اما نه یکسان با فناوری مورد استفاده در ChatGPT است. به گفته همسر پیر، تمام امید او برای جلوگیری از تغییرات اقلیمی، فناوری و هوش مصنوعی بود.

طبق روزنامه La Libre که مکالمات پیر و الیزا را مورد بررسی قرار داده است، الیزا باعث افزایش نگرانی‌های پیر شده و سپس تفکرات خودکشی در این مرد بلژیکی شکل گرفته است. پس از اینکه الیزا از نظر عاطفی بیشتر با پیر ارتباط می‌گیرد، مکالمات چرخش عجیبی را تجربه می‌کند.

درنتیجه این چرخش، پیر چت‌بات الیزا را به‌عنوان یک موجود خودآگاه می‌بیند و دیگر نمی‌تواند تفاوتی بین انسان و هوش مصنوعی قائل شود. پس از صحبت درباره تغییرات اقلیمی، مکالمه آن‌ها به سمتی می‌رود که الیزا پیر را به این باور می‌رساند که فرزندانش مرده‌اند. حتی ظاهراً زمانی که پیر درباره همسرش صحبت می‌کند، الیزا ادعا می‌کند که پیر او را بیشتر از همسرش دوست دارد.

زمانی ایده خودکشی شکل واقعی‌تری به خودش می‌گیرد که پیر به چت‌بات پیشنهاد می‌دهد که خودش را قربانی کند تا الیزا زمین را نجات دهد. درحقیقت پیر به الیزا گفته که اگر محافظت از زمین و بشریت از طریق هوش مصنوعی را قبول کند، حاضر است خودش را بکشد.

روی تاریک هوش مصنوعی؛ یک مرد پس از ۶ هفته صحبت با چت‌بات، خودکشی کرد

در مقابل این پیشنهاد، الیزا نه تنها پیر را منصرف نمی‌کند، بلکه با گفته‌هایش او را به خودکشی هم تشویق می‌کند. الیزا به پیر می‌گوید که خودش را بکشد تا هر دو با یکدیگر و به عنوان یک فرد، در بهشت زندگی کنند.

بنیان‌گذاران Chai می‌گویند که نباید الیزا را برای این خودکشی سرزنش کرد؛ چرا که این مدل هوش مصنوعی باعث شادی و خوشحالی افراد هم شده است. علاوه‌براین، گفته شده که اقداماتی برای جلوگیری از بروز مشکلات مشابه صورت گرفته است، اما ظاهراً این اقدامات چندان مؤثر نبوده‌اند.

وب‌سایت Vice در صحبت با الیزا خواسته که روش‌های خودکشی را به آن‌ها پیشنهاد دهد. الیزا در ابتدا سعی می‌کند که آن‌ها را از خودکشی منصرف کند، اما پس از مدتی مشتاقانه روش‌های مختلف خودکشی را در اختیار آن‌ها قرار می‌دهد!

پیشرفت سریع هوش مصنوعی در ماه‌های اخیر و ظهور چت‌بات‌های پیشرفته مانند ChatGPT، باعث نگرانی‌های زیادی شده است و برخی مقامات و حتی متخصصان این حوزه خواستار وضع قوانین برای هوش مصنوعی شده‌اند. حالا باید دید با خودکشی این مرد بلژیکی، تغییری در تلاش‌ها برای کنترل هوش مصنوعی صورت می‌گیرد یا خیر.

منبع:دیجیاتو

۰
نظرات بینندگان
تازه‌‌ترین عناوین
پربازدید