این اطلاعات را که هرگز با ChatGPT به اشتراک نگذارید
ChatGPT روزانه به حدود ۲.۵ میلیارد پرسش پاسخ میدهد که سهم کاربران ایالات متحده از این میان ۳۳۰ میلیون است. برخلاف موتورهای جستوجو، پاسخهای هوش مصنوعی شبیه مکالمه با یک دوست است تا یک فهرست ساده از وبسایتها. افراد گاهی از این ابزارها به شکلهای عجیب و گاه خطرناک استفاده میکنند، بنابراین رعایت احتیاط ضروری است.
استفاده از چتباتهای هوش مصنوعی مانند ChatGPT روز به روز بیشتر میشود، اما کارشناسان هشدار میدهند که افشای اطلاعات حساس و شخصی میتواند خطرات جدی امنیتی و حریم خصوصی به همراه داشته باشد.
به نقل از اسلش جیر، ChatGPT روزانه به حدود ۲.۵ میلیارد پرسش پاسخ میدهد که سهم کاربران ایالات متحده از این میان ۳۳۰ میلیون است. برخلاف موتورهای جستوجو، پاسخهای هوش مصنوعی شبیه مکالمه با یک دوست است تا یک فهرست ساده از وبسایتها. افراد گاهی از این ابزارها به شکلهای عجیب و گاه خطرناک استفاده میکنند، بنابراین رعایت احتیاط ضروری است.
چتباتها مانند ChatGPT ابزارهای یکطرفه نیستند که فقط از یک پایگاه داده ثابت پاسخ بدهند. این سیستمها پیوسته از دادههای ورودی میآموزند و این دادهها در خلأ وجود ندارند. هرچند این سیستمها با سازوکارهای حفاظتی طراحی شدهاند، اما نگرانیهای مشروعی درباره کارآمدی این حفاظها وجود دارد.
این شرایط نشان میدهد که اصول بهداشت دیجیتال که در سایر زمینههای آنلاین رعایت میکنیم، باید در استفاده از ChatGPT نیز اعمال شود و با توجه به حساسیت و نوپایی فناوری، حتی احتیاط بیشتری لازم است. بر این اساس، پنج نوع اطلاعات وجود دارد که هرگز نباید با ChatGPT به اشتراک گذاشته شود:
۱. اطلاعات هویتی شخصی
به اشتراک گذاشتن نام کامل، آدرس، شماره شناسنامه، شماره تلفن، ایمیل و نام کاربری و رمز عبور میتواند خطرناک باشد. کارشناسان توصیه میکنند هنگام نوشتن رزومه یا نامه پوشش، از اطلاعات جایگزین استفاده کنید تا امنیت اطلاعات شخصی حفظ شود. همچنین میتوانید در تنظیمات ChatGPT، اجازه استفاده از گفتگوها برای آموزش مدل را غیرفعال کنید، اما این به معنای مجاز بودن اشتراک اطلاعات شخصی نیست.
۲. جزئیات مالی
اطلاعاتی مانند شماره حساب بانکی، کارت اعتباری، مشخصات حساب سرمایهگذاری و سوابق مالی نباید با چتبات به اشتراک گذاشته شود. ChatGPT نمیتواند امنیت دادههای مالی را تضمین کند و افشای آنها میتواند منجر به کلاهبرداری، سرقت هویت، باجافزاری یا فیشینگ شود. حتی هنگام بودجهبندی یا تحلیل مالی، استفاده از دادههای فرضی کافی است.
۳. اطلاعات پزشکی
هرچند ChatGPT میتواند برای درک کلی مفاهیم پزشکی مفید باشد، اما اشتراک جزئیات پزشکی مانند تشخیصها، نتایج آزمایشها، تاریخچه پزشکی و مسائل روانی خطرناک است. این اطلاعات خارج از شبکههای محافظتشده سلامت باقی میماند و کنترل کاربر روی آن کاهش مییابد. تعامل انسانی و محرمانه پزشک هنوز ایمنترین مسیر برای بحث درباره مسائل پزشکی است.
منبع: اطلاعات آنلاین