جنگ سرد جدید بر سر هوش مصنوعی
چت جیپیتی نمونهای از هوش مصنوعی مولد است که بر اساس تحلیلهایش از متون، تصاویر و صداهای موجود در اینترنت، محتوای انسانگونه تولید میکند.
وقتی جک کلارک، یکی از همبنیانگذاران استارتآپ آمریکایی هوش مصنوعی Anthropic، بحث طرح باروک (Baruch Plan) را مطرح و آن را با احساس نیاز دولتها برای جلوگیری از گسترش کاربردهای مضر هوش مصنوعی مقایسه کرد، همان حس دلهره آشنای قدیمی به ذهن افراد متبادر شد.
طرح باروک در ماه ژوئن سال ۱۹۴۶ از سوی دولت ایالاتمتحده به کمیسیون انرژی هستهای سازمان ملل متحد ارائه شد که بر اساس آن آمریکا، بریتانیا و کانادا خواستار تشکیل یک سازمان بینالمللی برای قانونگذاری و نظارت بر کاربردهای انرژی هستهای شده بودند.
این طرح با واکنش منفی اتحاد جماهیر شوروی مواجه شد که آن را اقدامی در راستای ایجاد انحصار هستهای برای دولت ایالاتمتحده خوانده بود. به این ترتیب در آخرین روزهای سال ۱۹۴۶ شوروی در شورای امنیت سازمان ملل متحد از امضای این طرح سر باز زد تا جنگ سرد آغاز شود.
وقتی کارآفرینان ابداعاتشان را با بمبهای هستهای مقایسه میکنند، گویا باید منتظر نقطه عطفی در آن صنعت بود. از زمانی که چت جیپیتی در سال گذشته میلادی ارائه شد، نگرانیها از مرز خطرهای موجود ناشی از هوش مصنوعی هم فراتر رفته است.
با این حال، اینبار شرایط فرق میکند. اگر به صحبتهای بعضی از پیشگامان این عرصه گوش کنید، خواهید دید که وقتی بحث بهتر اندیشیدن ماشینها از انسانها و خطرات پنهان آن برای مشاغل به میان میآید، آنها کمتر درباره ویرانشهر آینده نگران هستند.
چت جیپیتی نمونهای از هوش مصنوعی مولد است که بر اساس تحلیلهایش از متون، تصاویر و صداهای موجود در اینترنت، محتوای انسانگونه تولید میکند.
سم آلتمن، مدیرعامل شرکت OpenAI که سازنده این چتبات است، به تازگی در کنگره ایالاتمتحده حاضر شد و اعلام کرد که وجود نوعی مداخله نظارتی برای مدیریت خطرات ناشی از توسعه سریع مدلهای زبانی بزرگ (LLMS) مربوط به چتباتهای هوشمند، لازم و ضروری است.
بعضی از رقبای او در سانفرانسیسکو میگویند که آنها در غیبت قوانین، کانالهای حمایتی را با مقامات دولتی در واشنگتن ایجاد کردهاند تا درباره خطرات و ضررهای بالقوه چتباتهایشان مباحثه و مشاوره کنند. این خطرات شامل مواردی از قبیل نژادپرستی و قابلیتهای خطرناکی مانند حقوق کودک و ساخت بمب میشوند.
مصطفی سلیمان، همبنیانگذار استارتآپ Inflection ai تصمیم دارد تا در هفتههای پیشرو جوایز سخاوتمندانهای به هکرهایی بدهد که میتوانند آسیبپذیریهای موجود در دستیار سخنگوی دیجیتال شرکتش با نام Pi را شناسایی کنند.
چنین مصلحتاندیشیهایی باعث میشود این رشد انفجاری اولیه در دنیای تکنولوژی، دستکم در ظاهر کمی متفاوت به نظر برسد. طبق معمول سرمایهگذاری خطرپذیر در این زمینه نقش دارد.
با این حال برخلاف رویکرد «سریع برو جلو و همهچیز را خراب کن» در سال گذشته، حالا بسیاری از ارائههای استارتآپی در ابتدای این جریان و پس از آن مربوط به موضوع ایمنی هستند. حکایت قدیمی سیلیکونولی درباره قانونگذاری و نظارت (بهتر است خواستار بخشش باشید تا مجوز) دیگر کنار گذاشته شده است.
استارتآپهایی مانند OpenAI، Anthropic و Inflection ai آنقدر مشتاق به نتیجه رسیدن ایدهشان هستند که حاضر نمیشوند تنها به خاطر درآمدزایی، ایمنی را قربانی کنند.
دلیل دیگری که این رشد انفجاری را متمایز میکند آن است که این استارتآپها مدلهای زبانی بزرگ (LLMS) اختصاصی خودشان را با هدف سرنگونی سلسله غولهای تکنولوژی موجود، ایجاد نمیکنند.
در واقع آنها ممکن است آن را تقویت هم بکنند. این به خاطر آن است که روابطشان با غولهای تکنولوژی پیشرو در رقابت هوش مصنوعی مولد، نیازمند نوعی همزیستی است.OpenAI وابسته به مایکروسافت است؛ سرمایهگذار بزرگی که از تکنولوژی قبلی آن برای بهبود نرمافزارها و محصولات جستوجوی خودش استفاده میکند.
آلفابت، شرکت مادر گوگل، بخش قابلتوجهی از سهام استارتآپ Anthropic را در اختیار دارد. این استارتآپ در بیستوسوم ماه مه امسال اعلام کرد که بخش زیادی از آخرین مرحله جذب سرمایه ۴۵۰ میلیون دلاریاش متعلق به این غول تکنولوژی بوده است.
شرکتهای جوانتر حتی سعی دارند ارتباط مستحکمتری با غولهای تکنولوژی و پلتفرمهای ابری آنها ایجاد کنند تا الگوهای زبانی خودشان را با اقیانوسی از داده آموزش بدهد و به این ترتیب رفتار چتباتهایشان شباهت بیشتری به انسان داشته باشد.
مایکروسافت و گوگل هم مانند این استارتآپها مشتاق هستند تا نشان بدهند که امنیت موضوع بسیار مهمی برای آنهاست؛ حتی اگر در رقابت چتباتها با یکدیگر در حال جنگ باشند.
همچنین آنها درباره لزوم تصویب قوانین جدید در این زمینه با یکدیگر مباحثه میکنند و اتفاق نظر دارند که باید یک همکاری بینالمللی برای نظارت بر عملکرد مدلهای زبانی بزرگ (LLMS) وجود داشته باشد. در همین راستا ساندار پیچای، مدیرعامل آلفابت، گفته است: «هوش مصنوعی به قدری اهمیت دارد که نباید تحت کنترل قرار بگیرد و آنقدر اهمیت دارد که نمیتوان به خوبی برای آن قانونگذاری کرد.»
این اقدامات احتمالا تضمین خوب و کاملی برای جلوگیری از خطرات اطلاعات نادرست، مدیریت نتایج انتخابات، تروریسم، ایجاد اختلال در مشاغل و دیگر خطرات بالقوه که به دنبال گسترش سریع مدلهای زبانی ایجاد میشوند، نخواهند بود.
با این وجود قانونگذاری میتواند مزایایی برای غولهای تکنولوژی داشته باشد، به خاطر آنکه احتمالا ساختارهای فعلی بازار را تقویت کرده، هزینههای تولید را کاهش داده و موانع بیشتری برای ورود به این عرصه ایجاد میکند.
این موضوع اهمیت زیادی دارد. اگر غولهای تکنولوژی از قوانین و مقررات استحکام جایگاه خودشان بر قلههای هوش مصنوعی مولد استفاده کنند، این یک معامله خواهد بود.
این شرکتهای بزرگ تکنولوژی به احتمال زیاد از هوش مصنوعی مولد برای ارتقای کیفیت محصولات فعلی خود استفاده میکنند تا آنکه به کلی آنها را با نمونههای جدید جایگزین کنند. آنها به دنبال محافظت از تجارت اصلی خود (مانند نرمافزار برای مایکروسافت و جستوجوی اینترنتی برای گوگل) هستند.
به جای جانمایی در یک دوره تازه از تخریب خلاق شومپیتری، این روند بیشتر به شکل یک یادآور عمل میکند که شرکتهای بزرگ فعلی سعی دارند فرآیند نوآوری را کنترل کنند؛ چیزی که بعضیها آن را «انباشت خلاق» مینامند.
منبع: دنیای اقتصاد