هوش مصنوعی در فرایند استخدام شرکت آمازون و مشکلات آن7

آمازون / amazon
Share on telegram
اشتراک‌گذاری در تلگرام
Share on linkedin
اشتراک‌گذاری در لینکدین

به لطف شرکت معروف آمازون، جهان امروز داستانی جذاب و مخاطره‌انگیز در مورد خطرات آموزش تصمیم‌گیری انسانی به کامپیوترها برای روایت دارد. براساس گزارش رویترز، سال گذشته، آمازون تصمیم به متوقف کردن یک «ابزار اتوماسیون استخدام» گرفت که از هوش مصنوعی برای رتبه‌دهی به متقاضیان شغلی استفاده می کرد؛ این توقیف تا حدودی به دلیل تبعیض علیه زنان در روند رتبه‌دهی استخدامی انجام شد. بنا به گزارش‌های استخدام‌کنندگان، شرکت‌ها هرگز برای پیدا کردن نیروهای مستعد فقط به نتایج این برنامه متکی نبوده‌اند! در ادامه، در این مقاله از فنولوژی، هوش مصنوعی در فرایند استخدام را مورد بررسی دقیق‌تر قرار می‌دهیم.

هوش مصنوعی در فرایند استخدام و شروع مشکلات آمازون!

مشکل منابع انسانی آمازون در سال ۲۰۱۴ آغاز شد؛ هنگامی که گروهی از مهندسان آمازون در اسکاتلند شروع به مکانیزه‌کردن فرایند head-hunting (شکار نیرو‌های ارزشمند شرکت‌های رقیب و ترغیب آن‌ها به موقعیت‌های شغلی) شرکت کردند؛ این فرایند به‌ وسیله‌ی برنامه‌ای که برای پیدا کردن متقاضیان باارزش، اینترنت را شخم می‌زد، ممکن می‌شد! (و احتمالاً مسئولین نیروانسانی آمازون را از شر ساعت های طولانی گشت زدن در LinkedIn  برای یافتن نیرو خلاص می کرده است!). حتی منبعی به رویترز گفته بود «همه این معدن طلا رو می خواستند!» و در ادامه «اونا عملا می خواستند یه موتور جستجویی باشه که بهش ۱۰۰ تا رزومه بدی، پنج نفر برتر رو سریع بده بیرون! بعدشم ما اونا رو استخدام کنیم!»

نهایتا برنامه به شکلی که تیم توسعه‌دهنده انتظار داشت عمل نمی‌کرد. در سال ۲۰۱۵، تیم توسعه‌دهنده متوجه شد که برنامه هنگام استخدام استعدادهای فنی مانند توسعه‌دهندگان نرم افزار، به نفع آقایان بایاس دارد (بطور مغرضانه‌ای آقایان را انتخاب می کند). مشکل این‌جا بود که آن‌ها الگوریتم‌های یادگیری ماشین خود را طوری آموزش داده بودند تا چشم‌انداز هدف خود (روزمه‌های برتر) را با شناخت اصطلاحاتی که در رزومه‌ی متقاضیان پیشین ظاهر شده بود، انتخاب کند. (و خب همونطور که احتمالا می‌دونید به دلیل عدم تعادل جنسیتی شناخته شده در جهان فناوری، اون روزمه‌های برتر به سمت مردان گرایش داشتند.)

رزومه‌ها و حساسیت آمازون به واژه‌های خاص

در ادامه‌ی گزارش رویترز آمده است: «در واقع، سیستم آمازون به خودش یاد داده بود که متقاضیان مرد نسبت به متقاضیان زن ارجح‌‌تراند. این باعث کاهش رتبه رزومه‌های شامل کلمات زن و زنان می‌شد مثل عنوان کاپیتان تیم شطرنج زنان. همچنین این برنامه اولویت استختدامی تمام فارق‌التحصیلان دو کالج مخصوص زنان را کاهش داده‌ بود. این برنامه همچنین تصمیم گرفت مهارت‌های پایه‌ای مانند توانایی نوشتن کد که در انواع رزومه‌ها ظاهر می‌شوند آنقدرها هم مهم نیستند؛ اما در عوض متقاضیانی که رزومه‌های خود را با افعال ماچو (اصطلاحا افعالی که مردان استفاده می‌کنند یا افعالی که برتری مردانه را نشان می‌دهد) مانند «executed» و «captured» پر کرده بودند، از اولیت استخدامی بیشتری برخوردارند.»

همه این‌ها تصویری صریح و واضح از چرایی نگرانی بسیاری از کارشناسان حوزه‌ی فناوری ترسیم می‌کند. هوش مصنوعی به جای حذف بایاس (تمایل به سمت جنسیتی خاص) از تصمیمات مهم، فرایند تصمیم‌گیری خودکار را به سادگی با تعصبات همراه می‌سازد. به عنوان مثال، در تحقیقی دیگر توسط ProPublica مشخص شد، الگوریتم‌های هوش مصنوعی مورد استفاده قاضیان برای تعیین مجازات‌های کیفری محکومین، ممکن است مجازات‌های سختگیرانه‌تری برای متهمین سیاه‌پوست نسبت به متهمین سفیدپوست در نظر بگیرند. همچنین از مثال‌های دیگر می‌توان به گوگل ترنسلیت اشاره کرد؛ در اقدامی معروف، گوگل ترنسلیت gender bias (تعصب جنسیتی در ترجمه) را به ترجمه متون خود افزود.

ریشه اشکالات استفاده از هوش مصنوعی در فرایند استخدام

مشکل از آن‌جا نشات می‌گیرد که برنامه‌های مبتنی بر هوش مصنوعی، با تجزیه و تحلیل مجموعه های عظیم داده یاد می‌گیرند الگوها را پیدا و تصمیم‌گیری کنند؛ در حالی که این الگوها اغلب بازتاب تبعیض‌های اجتماعی‌اند؛ در نتیجه می‌توان گفت این برنامه ها بازتابی از جامعه امروزی ما هستند. برنامه نویسان می‌توانند سعی کنند با دستکاری هوش مصنوعی، از نتایج فاجعه‌بار جلوگیری شود؛ اما باز ممکن است موفق نشوند!

آمازون بالاخره چه کرد؟

طبق گمانه‌زنی‌ها، آمازون پس از سال‌ها تلاش برای اصلاح این پروژه، امیدی به ادامه پروژه ندید و در سال ۲۰۱۷ به تمامی تلاش ها خاتمه داد. آمازون شایسته‌ی تقدیر است چرا که اشکال ابزار خود را فهمید؛ سعی در برطرف‌کردن آن کرد و نهایتا پروژه را متوقف نمود (با فرض این‌که دورریختن تلاش‌ها تأثیر جدی در فرایند استخدام شرکت آمازون در طی چند سال گذشته نداشته باشد)؛ اما در برهه‌ای که بسیاری از کمپانی‌ها به دلایلی مانند استخدام، هوش مصنوعی را پذیرفته اند، اتفاق رخ‌داده در آمازون، نشان می‌دهد‌ استفاده از چنین فناوری‌هایی بدون عواقب ناخواسته بسیار سخت است و اگر شرکتی مانند آمازون نتواند بدون مشکل آن را اجرایی کند، تصور این‌که شرکت‌های ضعیف‌تر از نظر فنی بتوانند دشوار است.

منبع : SLATE

شبکه‌های اجتماعی

تماس با ما

ایمیل

شماره تماس

۹۳۷۲۳۷۶۷۶۰ (۹۸+)

آیدی تلگرام

عضویت در خبرنامه

©۲۰۱۹ – کلیه حقوق مادی و معنوی متعلق به فنولوژی است.