چرا هوش مصنوعی «نفهم» باقی می‌ماند؟

چرا هوش مصنوعی «نفهم» باقی می‌ماند؟

جان سرل (John Searle)، فیلسوف آمریکایی، استدلال می‌کند که هوش مصنوعی هرگز نمی‌تواند واقعا فکر کند بلکه نهایتا فقط می‌تواند یک جور تظاهر به شناخت باشد. او این مطلب را از طریق مثال معروف به «اتاق چینی» بیان می‌کند.

کد خبر : ۱۲۸۸۱۲
بازدید : ۶۸۰

فرادید | امروزه استفاده از هوش مصنوعی برای مقاصد گوناگون در حال فراگیر شدن است؛ از ماشین‌های خودران گرفته تا خلق نقاشی‌ها و تصاویر شگفت‌انگیز، تحلیل میلیون‌ها توییت در یک زمان کوتاه و حتی نوشتن مقاله. نمی‌توان انکار کرد که تولید فزایندۀ داده‌های دیجیتال و پیشرفت‌های کامپیوتری مختلف تا حد زیادی زندگی‌ها ما را تغییر داده و بر روی مفهوم ذهنی ما از «هوش» تاثیر گذاشته است.

به گزارش فرادید؛ برخی اندیشمندان مثل نیکولاس کریستیکاس، جامعه‌شناس آمریکایی، هوش مصنوعی را یکی از اساسی‌ترین فناوری‌هایی می‌دانند که تعاملات بشری را برای همیشه دگرگون خواهند کرد. اما از طرف دیگر فیلسوفی مثل جان سرل معتقد است که هوش مصنوعی هرگز نمی‌تواند واقعا مثل انسان‌ها فکر کند. او برای اثبات این عقیده مثالی دارد که به «استدلال اتاق چینی» معروف شده است.

سرل در کتاب «ذهن‌ها، بدن‌ها و علم» می‌نویسد که برنامه‌های کامپیوتری می‌توانند از فرایند‌های ذهنی انسان تقلید کنند، اما فقط به طور «صوری» و نه حقیقی؛ یعنی هوش مصنوعی هرگز نمی‌تواند «بفهمد» که دارد چه کاری انجام می‌دهد. به عبارت دیگر هوش مصنوعی فقط می‌تواند از یک مجموعه قواعد پیروی کند بدون اینکه معنای آن‌ها را بفهمد. برای روشن شدن این ادعا سرل مثال اتاق چینی را مطرح می‌کند.

فرض کنید که شما در یک اتاق تنها هستید. در اتاق بسته است و در داخل آن سبدی هست که پر از علامت‌ها و نماد‌های زبان چینی است (با این فرض که شما چینی بلد نیستید). به غیر از این نمادها، یک کتابچۀ قواعد هم در اتاق هست که به زبان خود شما نوشته شده است. در این کتاب شرح داده شده که شما چطور باید از نماد‌های چینی استفاده کنید. مثلا در کتاب نوشته شده که «اگر علامت ایکس را دیدید، با علامت ایگرگ جواب بدهید» و از این قبیل دستورالعمل‌ها.

چرا هوش مصنوعی «نفهم» باقی می‌ماند؟

حالا فرض کنید که یک نفر یک علامت چینی را از زیر در اتاق به داخل می‌اندازد. شما هم بر طبق دستورالعمل کتاب، علامتی را که باید در پاسخ به آن نشان بدهید، از داخل سبد برمی‌دارید و از زیر در به بیرون می‌فرستید. فرض کنید دستورالعمل‌های کتاب آنقدر دقیق و روشن هستند که شما خیلی زود می‌توانید پاسخ مناسب به هر نوشته‌ای که به داخل می‌آید را پیدا کنید و بیرون بفرستید. حالا آن کسی که بیرون ایستاده دربارۀ شما چه فکری می‌کند؟ احتمالا او تصور می‌کند که شما زبان چینی را بلد هستید. این در حالی است که شما کوچکترین فهمی از این زبان ندارید و تنها بر حسب قاعده‌های مشخص عمل می‌کنید.

از نظر سرل این همان اتفاقی است که در مورد هوش مصنوعی می‌افتد. هوش مصنوعی هیچ چیز نمی‌فهمد بلکه تنها بر طبق قاعده‌هایی عمل می‌کند که توسط انسان طراحی شده‌اند. مهم نیست که چقدر عملکرد هوش مصنوعی پیچیده باشد؛ هرچقدر هم که پیشرفت‌های آیندۀ تکنولوژی بتواند عملکرد‌های پیچیده‌تری را برای هوش مصنوعی فراهم کند، باز هم ذات و ماهیت فاقد فهمِ هوش مصنوعی تغییری نمی‌کند.

از ماشین‌حساب‌های دیجیتالی ساده که می‌توانستند جمع دو عدد را به ما بگویند تا چت جی پی تی که می‌تواند مقاله بنویسد، راه درازی طی شده و پیشرفت‌های بزرگی حاصل شده است؛ اما چت جی پی تی درست به اندازۀ ماشین‌حساب «بدون فهم» است. اگر در اتاق چینی چندین کتابچۀ راهنما اضافه شود که باعث شوند شما عملکرد‌ها و پاسخ‌های پیچیده‌تری داشته باشید، باز هم در این واقعیت که شما زبان چینی بلد نیستید تغییری به وجود نمی‌آید.

برای اینکه ما بتوانیم اموری مثل «فهم»، «یادگیری» و «اختیار» را به ماشین‌ها منتقل کنیم، می‌بایست ابتدا خودمان فهم کامل و شفافی از این امور داشته باشیم تا بتوانیم آن‌ها را به صورت کدگذاری شده به ماشین ارائه کنیم. اما چه کسی می‌داند واقعا اختیار و فهم بشری چه ساز و کاری دارد؟ ما می‌توانیم برنامه‌هایی طراحی کنیم که از برخی جهات خاص (مثل شطرنج بازی کردن یا تولید محتوای متنی یا رانندگی و . . .) ادای فهم را دربیاورند، اما نمی‌توانیم ماشینی بسازیم که واقعا بفهمد.

شاید بیش از آنکه هوش مصنوعی واقعا تعجب‌آور و حیرت‌انگیز باشد، در واقع این خود ما هستیم که علاقه داریم شگفت‌زده شویم. انگار فیلم‌ها و داستان‌های علمی‌تخیلی دربارۀ آیندۀ هوش مصنوعی و شورش ماشین‌ها، ذهن‌های خیالپرداز ما را مستعد این کرده‌اند که با هر پیشرفتی در عرصۀ هوش مصنوعی، خودمان را به آخرالزمان روبات‌های هوشمند نزدیک‌تر ببینیم. اما نباید فراموش کنیم که هر فاجعه یا خطایی هم که از هوش مصنوعی سر بزند، این فاجعه نه حاصل «تصمیم» ماشین‌ها بلکه حاصل قاعده‌ها و دستورالعمل‌های نابه‌جایی است که عروسک‌گردانان هوش مصنوعی به آن داده‌اند.

۱
نظرات بینندگان
تازه‌‌ترین عناوین
پربازدید