این اطلاعات را که هرگز با ChatGPT به اشتراک نگذارید

این اطلاعات را که هرگز با ChatGPT به اشتراک نگذارید

ChatGPT روزانه به حدود ۲.۵ میلیارد پرسش پاسخ می‌دهد که سهم کاربران ایالات متحده از این میان ۳۳۰ میلیون است. برخلاف موتورهای جست‌وجو، پاسخ‌های هوش مصنوعی شبیه مکالمه با یک دوست است تا یک فهرست ساده از وب‌سایت‌ها. افراد گاهی از این ابزارها به شکل‌های عجیب و گاه خطرناک استفاده می‌کنند، بنابراین رعایت احتیاط ضروری است.

کد خبر : ۲۸۸۸۵۰
بازدید : ۰

استفاده از چت‌بات‌های هوش مصنوعی مانند ChatGPT روز به روز بیشتر می‌شود، اما کارشناسان هشدار می‌دهند که افشای اطلاعات حساس و شخصی می‌تواند خطرات جدی امنیتی و حریم خصوصی به همراه داشته باشد.

به نقل از اسلش جیر، ChatGPT روزانه به حدود ۲.۵ میلیارد پرسش پاسخ می‌دهد که سهم کاربران ایالات متحده از این میان ۳۳۰ میلیون است. برخلاف موتورهای جست‌وجو، پاسخ‌های هوش مصنوعی شبیه مکالمه با یک دوست است تا یک فهرست ساده از وب‌سایت‌ها. افراد گاهی از این ابزارها به شکل‌های عجیب و گاه خطرناک استفاده می‌کنند، بنابراین رعایت احتیاط ضروری است.

چت‌بات‌ها مانند ChatGPT ابزارهای یک‌طرفه نیستند که فقط از یک پایگاه داده ثابت پاسخ بدهند. این سیستم‌ها پیوسته از داده‌های ورودی می‌آموزند و این داده‌ها در خلأ وجود ندارند. هرچند این سیستم‌ها با سازوکارهای حفاظتی طراحی شده‌اند، اما نگرانی‌های مشروعی درباره کارآمدی این حفاظ‌ها وجود دارد.

این شرایط نشان می‌دهد که اصول بهداشت دیجیتال که در سایر زمینه‌های آنلاین رعایت می‌کنیم، باید در استفاده از ChatGPT نیز اعمال شود و با توجه به حساسیت و نوپایی فناوری، حتی احتیاط بیشتری لازم است. بر این اساس، پنج نوع اطلاعات وجود دارد که هرگز نباید با ChatGPT به اشتراک گذاشته شود:

۱. اطلاعات هویتی شخصی

به اشتراک گذاشتن نام کامل، آدرس، شماره شناسنامه، شماره تلفن، ایمیل و نام کاربری و رمز عبور می‌تواند خطرناک باشد. کارشناسان توصیه می‌کنند هنگام نوشتن رزومه یا نامه پوشش، از اطلاعات جایگزین استفاده کنید تا امنیت اطلاعات شخصی حفظ شود. همچنین می‌توانید در تنظیمات ChatGPT، اجازه استفاده از گفتگوها برای آموزش مدل را غیرفعال کنید، اما این به معنای مجاز بودن اشتراک اطلاعات شخصی نیست.

۲. جزئیات مالی

اطلاعاتی مانند شماره حساب بانکی، کارت اعتباری، مشخصات حساب سرمایه‌گذاری و سوابق مالی نباید با چت‌بات به اشتراک گذاشته شود. ChatGPT نمی‌تواند امنیت داده‌های مالی را تضمین کند و افشای آن‌ها می‌تواند منجر به کلاهبرداری، سرقت هویت، باج‌افزاری یا فیشینگ شود. حتی هنگام بودجه‌بندی یا تحلیل مالی، استفاده از داده‌های فرضی کافی است.

۳. اطلاعات پزشکی

هرچند ChatGPT می‌تواند برای درک کلی مفاهیم پزشکی مفید باشد، اما اشتراک جزئیات پزشکی مانند تشخیص‌ها، نتایج آزمایش‌ها، تاریخچه پزشکی و مسائل روانی خطرناک است. این اطلاعات خارج از شبکه‌های محافظت‌شده سلامت باقی می‌ماند و کنترل کاربر روی آن کاهش می‌یابد. تعامل انسانی و محرمانه پزشک هنوز ایمن‌ترین مسیر برای بحث درباره مسائل پزشکی است.

منبع: اطلاعات آنلاین

۰
نظرات بینندگان
تازه‌‌ترین عناوین
پربازدید