دانشمندان برای نشان دادن خطرات تشخیص احساسات هوش مصنوعی بازی های آنلاین ایجاد می کنند هوش مصنوعی (AI)

این یک فناوری است که اخلاق گرایان آن را ناامید کرده اند: اکنون محققان امیدوارند که با تلاش برای تقویت بحث عمومی ، واقعیت سیستم های تشخیص احساسات را از بین ببرند.

فناوری طراحی شده برای شناسایی احساسات انسان با استفاده از الگوریتم های یادگیری ماشین ، یک صنعت عظیم است ، با ادعاهایی که می تواند در شرایط بی شماری از ایمنی جاده گرفته تا تحقیقات بازار ارزشمند باشد. اما منتقدان می گویند این فناوری نه تنها نگرانی های مربوط به حریم خصوصی را ایجاد می کند بلکه نادرست و مغرضانه نژادی است.

تیمی از محققان وب سایتی ایجاد کرده اند – emojify.info – که در آن عموم مردم می توانند سیستم های تشخیص احساسات را از طریق دوربین های رایانه ای خود امتحان کنند. یک بازی بر روی کشیدن چهره ها برای فریب فناوری متمرکز است ، در حالی که بازی دیگری چگونگی این مشکلات را برای خواندن حالت های صورت در متن بررسی می کند.

محققان می گویند امید آنها افزایش آگاهی از این فناوری و ارتقا convers گفتگوها در مورد استفاده از آن است.

دکتر الکسا هاگرتی ، سرپرست پروژه و محقق در دانشگاه کمبریج لورهولم گفت: “این نوعی تشخیص چهره است ، اما فراتر از آن است زیرا به جای شناسایی افراد ، ادعا می کند احساسات و احساسات درونی ما را از چهره ما می خواند. مرکز آینده هوش و مرکز بررسی خطر وجودی.

فناوری شناسایی صورت که غالباً برای شناسایی افراد استفاده می شود ، در سالهای اخیر مورد توجه جدی قرار گرفته است. سال گذشته کمیسیون برابری و حقوق بشر گفت که استفاده از آن برای غربالگری گسترده باید متوقف شود ، گفت که این می تواند تبعیض پلیس را افزایش دهد و به آزادی بیان آسیب برساند.

اما هاگرتی گفت بسیاری از مردم از چگونگی رایج بودن سیستم های شناسایی احساسات آگاهی ندارند ، خاطرنشان كرد: آنها در شرایطی از استخدام شغل ، كار بصیرت مشتری ، امنیت فرودگاه و حتی آموزش كار می كنند تا ببینند دانش آموزان درگیر هستند یا مشق شب خود را انجام می دهند.

به گفته وی ، از چنین فناوری در سراسر جهان ، از اروپا گرفته تا ایالات متحده و چین استفاده می شود. Taigusys ، یک شرکت متخصص در سیستم های شناسایی احساسات و دفتر اصلی آن در شنژن است ، می گوید از آنها در محیط های مختلف از خانه های مراقبت تا زندان استفاده کرده است ، در حالی که طبق گزارشات اوایل سال جاری ، شهر Lucknow هند قصد دارد از فناوری برای ردیابی ناراحتی در زنان در نتیجه آزار و اذیت – حرکتی که با انتقاداتی روبرو شده است ، از جمله از طرف سازمان های حقوق دیجیتال.

در حالی که هاگورتی گفت: فناوری تشخیص احساسات ممکن است دارای مزایای بالقوه ای باشد ، اما باید درمورد نگرانی در مورد دقت ، تعصب نژادی و همچنین اینکه آیا این فناوری حتی ابزار مناسبی برای یک کار خاص است ، سنجیده شود.

وی گفت: “ما باید در مورد این فن آوری ها گفتگوی عمومی گسترده تری داشته باشیم و رایزنی کنیم.”

این پروژه جدید به کاربران امکان می دهد فناوری تشخیص احساسات را امتحان کنند. این سایت خاطر نشان می کند که “هیچ اطلاعات شخصی جمع آوری نمی شود و همه تصاویر در دستگاه شما ذخیره می شوند”. در یک بازی ، از کاربران دعوت می شود که برای ایجاد احساسات جعلی ، یک سری چهره ها را بکشند و ببینند آیا سیستم فریب خورده است.

هاگرتی گفت: “ادعای افرادی که این فناوری را توسعه می دهند این است که این احساسات را می خوانند.” اما ، وی افزود ، در واقع این سیستم در حال خواندن حرکات صورت و سپس ترکیب آن با فرض مرتبط بودن این حرکات با احساسات بود – به عنوان مثال لبخند به این معنی است که کسی خوشحال است.

“بسیاری از علوم کاملاً محکم وجود دارد که می گوید بسیار ساده است. این کاملاً کار نمی کند ، “گفت هاگورتی ، افزود که حتی فقط تجربه انسانی نشان داد که می توان لبخند جعلی ساخت. “این همان چیزی است که آن بازی بود: برای نشان دادن اینکه شما احساس درونی خود را به سرعت شش بار تغییر نداده اید ، فقط نوع نگاه خود را تغییر داده اید [on your] چهره ، “او گفت.

برخی از محققان تشخیص احساسات می گویند از چنین محدودیت هایی آگاه هستند. اما هاگرتی اظهار امیدواری کرد این پروژه جدید که توسط Nesta (بنیاد ملی علوم ، فناوری و هنر) تأمین می شود ، باعث افزایش آگاهی از این فناوری و بحث پیرامون کاربرد آن شود.

“من فکر می کنم ما در حال درک این هستیم که واقعاً” کاربر “فناوری نیستیم ، ما شهروندانی هستیم که در جهان به شدت تحت تأثیر فناوری قرار گرفته اند ، بنابراین ما باید همان نوع ورودی دموکراتیک و مبتنی بر شهروند را در این فن آوری ها داشته باشیم. در مورد سایر موارد مهم در جوامع ، “او گفت.

ویدوشی ماردا ، افسر ارشد برنامه سازمان حقوق بشر در ماده 19 گفت كه فشار بر “توقف” در بازار رو به رشد سیستم های تشخیص احساس بسیار مهم است.

وی گفت: “استفاده از فن آوری های شناخت احساسات بسیار نگران كننده است زیرا نه تنها این سیستم ها مبتنی بر علم تبعیض آمیز و بی اعتبار هستند ، استفاده از آنها نیز اساساً با حقوق بشر ناسازگار است.” “یک یادگیری مهم از مسیر سیستم های تشخیص چهره در سراسر جهان ، زیر سوال بردن اعتبار و نیاز به فن آوری های اولیه و اغلب – و پروژه هایی است که بر محدودیت ها و خطرات شناخت احساسات تأکید دارند ، گام مهمی در این مسیر است.”

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *