ابعاد غیر اخلاقی ماشین‌های تشخیص چهره

ابعاد غیر اخلاقی ماشین‌های تشخیص چهره

«در حال حاضر بسیاری از شرکت‌ها برای اینکه بدانند آیا فردی که برای مصاحبه‌ی شغلی به آن‌ها مراجعه کرده فرد مناسبی است یا نه، از این تکنیک‌ها استفاده می‌کنند. حتی مشاهده شده نمونه‌هایی به صورت آزمایشی در برخی مدارس به کار گرفته شده تا بتوان تشخیص داد دانش آموزان در هر لحظه چه احساسی دارند. به طور مثال آیا سراپا گوش هستند یا عصبانی و بی حوصله اند.»

کد خبر : ۶۸۵۲۵
بازدید : ۲۶۳۵۹
فرادید | آیا برنامه‌ی کامپیوتری قادر است حالات چهره و رفتار تروریست‌های بالقوه را تشخیص دهد؟

این فرضیه‌ای بود که در سال ۲۰۰۳ و با شروع آزمایش یک برنامه‌ی نظارتی با عنوان «غربالگری مسافران با استفاده از تکنیک‌های نظارت» یا Spot، توسط اداره‌ی امنیت حمل و نقل ایالات متحده TSA مورد آزمون قرار گرفت.
چرا ماشین تشخیص احساسات نگران کننده است؟

آن‌ها برای طراحی این برنامه‌ی نظارتی با پاول اکمن، استاد بازنشسته‌ی روان شناسی از دانشگاه کالیفرنیا در سانفرانسیسکو، مشورت کردند. دهه‌ها قبل، اکمن روشی را برای تشخیص حالات چهره‌ی افراد در یک دقیقه و مرتبط ساختن این حالات با احساسات مختلف ارائه کرده بود. روش اکمن به «ماموران تشخیص رفتار» آموزش داده می‌شد تا به کمک آن چهره‌ی افراد را برای پیدا کردن نشانه‌های فریبکاری اسکن کنند.

این برنامه در سال ۲۰۰۷ رونمایی شد، اما نواقص زیادی داشت. ماموران با درصد خطای بالایی مسافران را برای بازجویی غربال می‌کردند، و افرادی که به ظن ارتباط با تروریسم دستگیر شده بودند، هیچ کدام ارتباطی با این قضیه نداشتند.

حتی برخی ابراز نگرانی کردند که این برنامه پرونده سازی‌های نژادی (اتهام زنی بر اساس نژاد) را توجیه می‌کند.

اکمن خودش را از برنامه‌ی Spot کنار کشید و گفت: از روش او سوء برداشت شده و به نحوی غلط از آن استفاده می‌شود. اما دیگران گفتند که عدم موفقیت این برنامه به دلیل بنا شدن آن بر یک نظریه‌ی تاریخ مصرف گذشته است که روش اکمن را تایید می‌کند. بر اساس این نظریه می‌توان با تحلیل حالات چهره‌ی افراد، احساسات آن‌ها را به صورت عینی تشخیص داد.

در سال‌های اخیر، شرکت‌های تکنولوژی با به کارگیری روش اکمن تلاش کرده اند الگوریتم‌های تشخیص احساسات بر اساس حالات چهره را توسعه دهند. بعضی توسعه دهندگان ادعا کردند که سیستم خودکار تشخیص احساس نه تنها در تحلیل چهره و تشخیص احساسات حقیقی بهتر از انسان‌ها عمل می‌کند، بلکه چنین سیستمی قادر است با درونی‌ترین احساسات ما ارتباط برقرار کند و تعامل ما را با ابزارهایمان توسعه دهد.

اما بسیاری از کارشناسانی که علم احساسات را مطالعه می‌کنند، نگرانند این الگوریتم‌ها یک بار دیگر شکست بخورد و بر اساس یک علم غلط و مشکل دار درباره‌ی زندگی‌های ما تصمیماتی با ابعاد جبران ناپذیر اتخاذ گردد.

سمعک احساسی
تکنولوژی تشخیص احساسات به دو تکنیک نیازمند است: بینایی کامپیوتری برای تشخیص دقیق حالات چهره، و الگوریتم‌های یادگیرنده برای تحلیل و تفسیر محتوای احساسی این حالات.

گام دوم نیازمند به کارگیری تکنیکی با عنوان یادگیری نظارتی است: روشی که به وسیله‌ی آن الگوریتم‌ها توسعه یافته و چیز‌هایی را که قبلا دیده اند، تشخیص می‌دهند.

ایده‌ی اولیه این است که اگر شما به الگوریتم، هزاران هزار تصویر از یک چهره‌ی خوشحال را نشان دهید و روی آن برچسب «خوشحال» بزنید، اگر الگوریتم یک تصویر دیگر از یک صورت خوشحال ببیند، دوباره آن را به عنوان تصویر «خوشحال» تشخیص می‌دهد.
چرا ماشین تشخیص احساسات نگران کننده است؟
رعنا کلیوبی، نخستین فردی بود که این رویکرد را به بوته‌ی آزمایش گذاشت. در سال ۲۰۰۱، بعد از آنکه برای دریافت درجه‌ی دکتری در علوم کامپیوتر از مصر به دانشگاه کمبریج رفت، فهمید که بیشترین وقتش صرف ارتباط با کامپیوترش می‌شود تا دنیای خارج. او فکر کرد اگر بتواند به کامپیوترش آموزش دهد تا وضعیت‌های احساسی او را تشخیص دهد، آن وقت می‌تواند بیش از پیش با کامپیوترش تعامل برقرار کند و دل تنگی برای خانواده کمتر آزارش می‌دهد.

کلیوبی مابقی مطالعات دکتری اش را به کار بروی این مسئله اختصاص داد و نهایتا ابزاری را طراحی کرد که می‌تواند به کودکانی که از سندروم آسپرگر رنج می‌برند، کمک کند بخوانند و به حالات چهره‌ی افراد واکنش نشان دهند. او این ابزار را «سمعک احساسی» نام گذاشت.

در سال ۲۰۰۶، کلیوبی به آزمایشگاهی در موسسه‌ی تکنولوژی ماساچوست پیوست تا با کمک روزالیند پیکارد، که گرداننده‌ی آزمایشگاه بود، این تکنولوژی را اصلاح کند. در سال ۲۰۰۹، آن‌ها مشترکا استارتاپی را با عنوان Affectiva طراحی کردند که نخستین بهره برداری تجاری در بازار «هوش عاطفی مصنوعی» بود.

این تکنولوژی توسط شرکت‌های دیگر توسعه یافت. آمازون، مایکروسافت، و آی. بی. ام، اکنون مشغول تبلیغ «آنالیز احساس» به عنوان یکی از محصولات تشخیص چهره هستند. تعداد زیادی از شرکت‌های کوچکتر مانند Kairos و Eyeris هم ابزار‌هایی که تقریبا مشابه Affectiva هستند، را ارائه کرده اند.

امروزه از تکنولوژی تشخیص چهره در حوزه‌های مختلف استفاده می‌شود. در حرفه‌ی پزشکی از آن برای معاینه‌ی بیمار و تشخیص اینکه سلامت او در چه وضعیتی است، استفاده می‌شود. از این تکنولوژی برای تعیین احساسات گیمر‌ها در هنگام بازی و تعیین احساسات رانندگان در هنگام کار نیز استفاده شده است.

کلیوبی که شاهد توسعه‌ی برنامه‌ی تشخیص احساس از یک پروژه‌ی دانشگاهی به یک صنعت ۲۰ میلیارد دلاری بوده است، معتقد است این صنعت توسعه بیشتری پیدا خواهد یافت. او پیش بینی می‌کند زمانی فرا خواهد رسید که این تکنولوژی در تمامی ابزار‌ها به کار گرفته خواهد شد و این ابزار‌ها با توجه به احساسات لحظه به لحظه‌ی ما فعالیت خواهند کرد.

پایگاه داده‌ای متشکل از ۷.۵ میلیون چهره از ۸۷ کشور دنیا
مانند هر ماشین کاربردی یادگیرنده ای، توسعه‌ی ماشین‌های تشخیص احساسات نیز بستگی به غنای اطلاعاتی دارد که این ماشین‌ها بر اساس آن فعالیت می‌کنند.
چرا ماشین تشخیص احساسات نگران کننده است؟

بر اساس وب سایت Affectiva، این شرکت، داده‌های مربوط به ۷.۵ میلیون چهره از ۸۷ کشور جهان را در اختیار دارد که بزرگترین در نوع خود است. بیشتر این داده‌ها از ویدیو‌هایی به دست آمده که تصویر افراد را در هنگام تماشای تلویزیون یا رانندگی روزانه ثبت کرده است.

این ویدیو‌ها توسط ۳۵ برچسب زن در دفتر Affectiva، برچسب گذاری شده اند. آن‌ها بعد از دیدن فیلم‌ها و ترجمه‌ی حالات چهره به احساسات مرتبط، بروی آن‌ها برچسب گذاشتند. به طور مثال اگر در تصویر، ابرو‌های افتاده، لب‌های به هم فشرده و چشم‌های از حدقه بیرون زده را مشاهده کرده اند، روی آن برچسب «عصبانی» زده اند.
سپس این برچسب‌ها برای آموزش الگوریتم Affectiva به کار گرفته شدند و این ماشین کم کم یاد گرفت با دیدن هر تصویر مشابهی روی آن برچسب «عصبانی» بزند.

نظریه‌ی کلاسیک احساسات
این شیوه‌ی برچسب گذاری، بر اساس روش کدگذاری حرکات احساسی صورت یا Emfacs که توسط پاول اکمن و والاس وی فریسن در دهه‌ی ۸۰ میلادی ارائه شد، صورت گرفته است.
چرا ماشین تشخیص احساسات نگران کننده است؟

ریشه‌های علمی این سیستم به دهه‌ی ۱۹۶۰ باز می‌گردد که اکمن و دو نفر از همکارانش فرضیه‌ای را مطرح کردند که می‌گفت، نوع بشر در تمام دنیا ۶ احساس مشترک شامل عصبانیت، تنفر، ترس، شادی، غم و تعجب، دارند، که می‌توان آن‌ها را با استفاده از آنالیز عضلات چهره در هر فرهنگی تشخیص داد.

برای آزمایش این فرضیه، آن‌ها به گروه‌های جمعیتی متنوع در سراسر جهان عکس‌هایی از چهره‌های مختلف نشان دادند و از آن‌ها خواستند که احساس این چهره‌ها را تشخیص دهند. آن‌ها دریافتند که با وجود این که شرکت کنندگان از پیشینه‌های فرهنگی متنوع بودند، اما حالات چهره‌ی مشابه را به احساسات مشابه نسبت می‌دهند.

چهره‌ای با ابرو‌های پایین افتاده، لب‌های به هم فشرده و چشم‌های از حدقه بیرون زده برای افراد در ایالات متحده، یا قبایل شکارگر در گینه‌ی جدید پاپوآ فقط یک معنی دارد: فرد عصبانی است.

طی دو دهه‌ی بعد، اکمن از یافته‌های خود برای توسعه‌ی روشی برای تشخیص حالات چهره و مرتبط ساختن آن با احساسات استفاده کرد.

فرضیه‌ی اصلی این بود که اگر یکی از آن ۶ احساس جهانی در شخصی برانگیخته شود، حرکات چهره‌ی مربوط به آن به صورت خودکار روی صورت وی ظاهر خواهد شد. حتی اگر شخص مورد نظر تلاش کند این احساسات را پنهان کند، باز هم احساسات حقیقی و فطری وی به نحوی «نشت می‌کند»، و بنابراین شخصی که برای تشخیص حالات چهره و احساسات افراد آموزش دیده است، می‌تواند به راحتی احساس واقعی افراد را تشخیص دهد.

در سراسر نیمه‌ی دوم قرن بیستم، این نظریه-که به آن نام نظریه‌ی کلاسیک احساسات داده شده بود-نظریه‌ی مسلط در حوزه‌ی علوم احساسات بود. اکمن با ثبت حق مالکیت روش تشخیص احساسات، آن را به عنوان برنامه‌ی آموزشی به سازمان سیا، اف. بی. آی، اداره‌ی گمرک و محافظت مرزی و اداره‌ی امنیت حمل و نقل آمریکا می‌فروخت.

این ایده که احساسات حقیقی افراد را می‌توان از حالات چهره‌ی آن‌ها تشخیص داد، در فرهنگ پاپ هم رخنه کرد و مبنای تولید سریال تلویزیونی «به من دروغ بگو» Lie to Me قرار گرفت.

احساسات، برساخت‌های اجتماعی
اما، بسیاری از دانشمندان و روان شناسان که در زمینه‌ی ماهیت احساسات تحقیق می‌کنند، نسبت به درستی نظریه‌ی کلاسیک احساسات و روش تشخیص احساسات اکمن که بر اساس این نظریه توسعه یافته، تردید دارند.

یکی از منتقدان سرسخت این نظریه که استدلال‌های بسیار قدرتمندی را در این باره مطرح کرده است، لیزا فلدمن بارت، استاد روان شناسی در دانشگاه نورث ایسترن در بوستون است.

بارت به دنبال روشی برای اندازه گیری احساسات به صورت کاملا عینی بود که با روش اکمن آشنا شد. او با مروری بر ادبیات موضوع نسبت به روش شناسی افرادی که در این زمینه کار کرده بودند، دچار تردید شد.

به خصوص که او مشاهده کرد، اکمن به افرادی که در پژوهش شرکت کرده بودند برچسب‌های از پیش آماده را می‌داد و از آن‌ها می‌خواست که این برچسب‌ها را با عکس‌هایی که در اختیار آن‌ها قرار داده بود، مرتبط کنند. در واقع اکمن «ناخواسته» از مشارکت کنندگان می‌خواست تا پاسخ‌های مشخصی بدهند.

او و گروهی از همکارانش این فرضیه را با ایجاد تغییراتی در روش اکمن دوباره آزمایش کردند. آن‌ها این بار، برخلاف اکمن، به مشارکت کنندگان برچسب‌های از پیش تعیین شده را ندادند، بلکه از آن‌ها خواستند خودشان احساسی را که در تصاویر مشاهده می‌کنند، زیر آن‌ها بنویسند.

به این ترتیب همبستگی بین حالات خاص چهره و احساسات خاص به شدت کاهش پیدا کرد.

بارت نظریه‌ی خودش درباره‌ی احساسات را در کتابی با عنوان «چطور احساسات ساخته می‌شوند: زندگی مخفیانه‌ی مغز» مطرح کرد.

او بر اساس این نظریه استدلال می‌کند که در مغز ما هیچ مکانی برای احساسات جهانی که با محرک‌های خارجی برانگیخته بشوند، وجود ندارد.

«احساسات واقعی هستند، اما نه در معنای عینی مانند واقعی بودن مولکول‌ها یا نورونها. وقتی از واقعی بودن احساس صحبت می‌کنیم، درست مثل این است که از واقعی بودن پول صحبت کنیم. این واقعیت فقط یک توهم است، اما محصول توافق انسان هاست.»

بارت توضیح می‌دهد که تهیه‌ی نقشه‌ای جامع از حالات چهره‌ی افراد، به این معنی که بتوانیم حالات چهره‌ی همه‌ی افراد از فرهنگ‌ها و بافت‌های مختلف را به یک احساس مشخص نسبت دهیم، معنا ندارد.

ممکن است فردی از یک فرهنگ، در هنگام عصبانیت اخم کند. اما فرد دیگری مودبانه لبخند بزند، اما در دل نقشه‌ی سرنگونی دشمنش را طراحی کند. به همین دلیل، بهترین راه ارزیابی احساسات افراد از طریق تعاملات چهره به چهره، به صورت فرایندی، با آشنایی به ظرفیت‌های فرهنگی، و تجربیات تجسم یافته، است.

بارت می‌گوید: «این کار تلاش طاقت فرسا می‌طلبد، زیرا احساسات به شدت پیچیده اند.»

سوگیری تکنولوژی تشخیص چهره
کلیوبی درباره‌ی پیچیده بودن احساسات هیچ اختلاف نظری با بارت ندارد، اما می‌گوید، به دلیل اعتقاد به همین پیچیدگی است که تیم او تلاش می‌کند، بانک اطلاعاتی مربوط به حالات چهره را غنی‌تر سازد. آن‌ها برای توسعه‌ی الگوریتم هایشان از صدا و تغییرات کوچک چهره در طی زمان هم استفاده می‌کنند.

برخی از مطالعات حتی هم اکنون معتقدند که ماشین‌ها بهتر از انسان‌ها احساسات بشر را تشخیص می‌دهند.

اما بارت می‌گوید، مسئله فقط دیتا‌ها نیستند، چگونگی برچسب گذاری این دیتا‌ها نیز حائز اهمیت است. بارت می‌گوید، فرایند برچسب گذاری‌ای که Affectiva و سایر شرکت‌های تشخیص احساسات برای آموزش الگوریتم هایشان استفاده می‌کنند، فقط می‌تواند آن چه که او «کلیشه‌های احساسی» می‌نامد، تشخیص دهد. کلیشه‌های احساسی، چیزی شبیه ایموجی‌ها هستند. ایموجی‌ها نماد‌هایی هستند که تلاش شده بیشترین نزدیکی را برای بیان مجموعه‌ای از احساسات داشته باشند.

مردیت ویتیکر، یکی از مدیران موسسه علمی AI Now در نیویورک، می‌گوید، موضوع فقط این نیست که روش اکمن بر اساس یک نظریه‌ی از اعتبار افتاده طراحی شده است، بلکه موضوع این است که این روش می‌تواند آسیب‌های اجتماعی به دنبال داشته باشد.

«در حال حاضر بسیاری از شرکت‌ها برای اینکه بدانند آیا فردی که برای مصاحبه‌ی شغلی به آن‌ها مراجعه کرده فرد مناسبی است یا نه، از این تکنیک‌ها استفاده می‌کنند. حتی مشاهده شده نمونه‌هایی به صورت آزمایشی در برخی مدارس به کار گرفته شده تا بتوان تشخیص داد دانش آموزان در هر لحظه چه احساسی دارند. به طور مثال آیا سراپا گوش هستند یا عصبانی و بی حوصله اند.»

«نحوه‌ی استفاده از این اطلاعات می‌تواند بسیاری از افراد جویای شغل را نا امید کند، می‌تواند بر نحوه‌ی آموزش ما در مدارس تاثیرات منفی بگذارد و اگر تحلیل‌ها صحیح نباشند، آسیب‌های اجتماعی اجتناب ناپذیر خواهد بود.»

کلیوبی در پاسخ به این انتقاد‌ها می‌گوید، «ما برای آموزش الگوریتم‌های خود از اطلاعات متنوع از افراد سراسر جهان مثل آسیایی ها، افرادی با رنگ پوست تیره، و حتی افرادی که حجاب دارند، استفاده می‌کنیم. برای همین است که برای توسعه‌ی Affectiva اطلاعات ۸۷ کشور دنیا را گردآوری کرده ایم.»

کلیوبی می‌گوید در هنگام گردآوری این داده‌ها به مواردی جالب برخوردیم. مثل اینکه لبخند در ژاپن همواره بیان کننده‌ی شادی نیست بلکه یک حرکت مودبانه است. اما در برزیل افراد وقتی احساس شادی می‌کنند یک لبخند بزرگ روی لب هایشان ظاهر می‌شود.

با این حال ویتتیکر همچنان نسبت به ابعاد غیر اخلاقی ماشین‌های تشخیص چهره هشدار می‌دهد. او می‌گوید، این ابزار همین حالا هم به عنوان ابزار فیزیوژنی یا چهره شناسی که تغییرات چهره افراد را در گذر زمان تشخیص می‌دهد، و مثلا می‌گوید، آیا آن‌ها قابلیت تبدیل شدن به یک تروریست یا کودک آزار را دارند، استفاده می‌شود.

حتی برخی مدعی شده اند که می‌توانند گرایشات جنسی افراد را فقط از حالات چهره‌ی آن‌ها تشخیص دهند.

نتیجه‌ی تحقیقی که دسامبر سال گذشته به چاپ رسید نشان می‌دهد که تکنولوژی تشخیص احساسات دارای سوگیری است و به طور مثال احساسات منفی را به چهره‌ی مردان سیاه پوست بیشتر نسبت می‌دهد، تا به چهره‌ی مردان سفید پوست.

کلیوبی نهایتا اعتراف می‌کند: «تکنولوژی هرگز ۱۰۰ درصد از خطاب مبرا نیست.»
منبع: Guardian
مترجم فرادید: عاطفه رضوان نیا
۰
نظرات بینندگان
اخبار مرتبط سایر رسانه ها
    سایر رسانه ها
    تازه‌‌ترین عناوین
    پربازدید