ربات‌های هوشمند استخدام می‌توانند در فرآیند سنجش انسان‌ها، سوگیری‌ داشته باشند

از آوریل ۲۰۲۳، کارفرمایان در شهر نیویورک، باید به هنگام استفاده از نرم‌افزارهای استخدامی و ربات‌های هوشمند به متقاضیان اطلاع دهند.

ربات‌های هوشمند استخدام می‌توانند در فرآیند سنجش انسان‌ها، سوگیری‌های نژادپرستانه یا جنسیتی داشته باشند

شرایطی را در نظر بگیرید که با دقت یک رزومه مناسب برای یک موقعیت شغلی درست کرده‌اید، اما هرگز هیچ پاسخی از شرکت مربوطه دریافت نکرده‌اید! به احتمال زیاد دلیل آن این است که هیچ انسانی فرم درخواست شما را بررسی نکرده است.

با توجه به روند توسعه هوش مصنوعی (AI)، شرکت‌های بیشتری وظیفه غربالگری درخواست‌های شغلی را به ربات‌های هوشمند واگذار می‌کنند. تا در زمان صرفه‌جویی کرده و فرآیند تصمیم‌گیری‌های مربوط به استخدام را تسهیل کنند. اما به‌ طرز عجیبی شاهد آن هستیم که ماشین‌ها، سوگیری‌ها و بازتاب‌های تبعیض‌آمیزی را در تصمیم‌گیری‌های خود اتخاذ می‌کنند.

در حال حاضر کارفرمایان بیشتر و بیشتری، به ویژه شرکت‌های بزرگ، از ابزارهای قدرتمند هوش مصنوعی برای پردازش سریع سیل درخواست‌های شغلی و رزومه‌های دریافتی خود استفاده می‌کنند.

پرداخت پول به انسان‌ها برای مرتب سازی این درخواست‌های شغلی، به ویژه در زمان کمبود نیروی کار، عملیاتی زمان بر بوده که باعث هدر رفت سرمایه و منابع شرکت‌ها می‌شود.

اینجاست که شرکت‌هایی وارد میدان شده و خدمات مربوط به ربات‌های هوشمند را ارائه می‌کنند. این ربات‌ها برای انجام غربالگری اولیه نامزدها پیش از شناسایی بهترین گزینه توسط نرم‌افزارها مورد استفاده قرار می‌گیرند.

اولین چیزی که نیروهای کار باید بدانند این است که «هیچ کس به رزومه شما نگاه نمی‌کند. قبل از اینکه رزومه شما توسط یک انسان بررسی شود، باید بتوانید از سد مربوط به هوش مصنوعی عبور کنید.»

– نقل قولی از جوزف فولر، استاد شیوه‌های مدیریتی در مدرسه بازرگانی هاروارد

با این حال، این سیستم‌های مرتب‌سازی که به تدریج و در حین کار پیشرفت کرده و یادگیری آنها بیشتر می‌شود، روز به روز هوشمندتر می‌شوند.

برخی از شرکت‌های هوش مصنوعی اکنون ادعا می‌کنند که پلتفرم‌های آنها نه تنها می‌توانند واجد شرایط‌ترین نامزد را از میان انبوهی از رزومه‌ها شناسایی کنند. بلکه پیش‌بینی می‌کنند که کدام یک در موقعیت شغلی به خصوص، می‌تواند بهتر عمل کند. این نوع ابزارها همچنین به صورت داخلی برای تعیین اینکه چه کسی در بین کارکنان احتمال ارتقاء به یک موقعیت بالاتر را دارد نیز مورد استفاده قرار می‌گیرند.

نامزدهای کنار گذاشته شده

اما این ابزارهای هوشمند قدرتمند، تنها بر جستجوی نوع خاصی از نامزدها تمرکز می‌کنند. و به این ترتیب نامزدهای بالقوه متفاوت و جالبی که می‌توانند واجد شرایط پر کردن موقعیت‌هایی مد نظر شوند را کنار می‌گذارند.

به گفته کارشناسان، از آنجایی که ماموریت این الگوریتم‌ها حذف نامزدها بر اساس معیارهای از پیش تعیین شده است. همچون روند تصمیم گیری انسان‌ها، آنها نیز ترجیحاتی دارند که از آن برای گزینش انواع خاصی از متقاضیان به ضرر برخی دیگر استفاده می‌کنند.

کارشناسان هشدار می‌دهند که با تطبیق مداوم با آنچه از آن‌ها درخواست می‌شود، نرم‌افزارهای استخدامی نه تنها می‌توانند برخی از نامزدهای واجد شرایط را نادیده بگیرد، بلکه اگر با دقت مورد استفاده قرار نگیرند، خودشان نیز سوگیری‌های جدیدی را در فرآیند استخدام اعمال می‌کنند.

محققان بیش از ۲۲۵۰ مدیر اجرایی را در ایالات متحده، بریتانیا و آلمان مورد بررسی قرار دادند. آنها دریافتند که بیش از ۹۰ درصد از شرکت‌ها از ابزارهایی مانند ATS برای غربالگری و رتبه بندی اولیه نامزدها استفاده می‌کنند.

تعصبات و پیش داوری‌های ماشین‌ها

اما اغلب از این ماشین‌ها به درستی استفاده نمی‌شود. گاهی اوقات نامزدها بر اساس شرح وظایفی پر از معیارهای غیرضروری و سفت و سخت ارزیابی می‌شوند. و همین امر باعث می‌شود که نام برخی از داوطلبان واجد شرایط در زیر نام برخی دیگر که نرم افزار مناسب‌تر می‌دانسته، پنهان شود.

بسته به پیکربندی هوش مصنوعی، این ابزارها می‌توانند داوطلبان را به دلیل عواملی مانند شکاف در مسیر شغلی یا نداشتن مدرک دانشگاهی تنزل داده یا نامشان را به کلی از لیست حذف کنند، حتی اگر موقعیت شغلی مورد نظر به تحصیلات پس از متوسطه نیاز نداشته باشد.

جوزف فولر، استاد شیوه‌های مدیریتی مدرسه بازرگانی هاروارد، که در طول سال گذشته پژوهشی را در مورد استفاده از این نرم‌افزارها و نامزدهایی که توسط شرکت‌ها در طول فرآیند استخدام‌شان نادیده گرفته می‌شوند، انجام داده است.

پژوخش فولر عنوان می‌کند جای تعجب نیست که رزومه‌های نادیده گرفته شده اغلب مرتبط با افرادی بوده‌اند که معمولاً در فرآیندهای استخدام معمولی نیز نادیده گرفته می‌شوند.

« بیشتر متقاضیان نادیده گرفته شده مهاجران، کهنه‌سربازان، افراد دارای معلولیت، پرستاران خانگی و افراد دارای اختلالات و مشکلات عصبی هستند. »

– نقل قولی از جوزف فولر، استاد شیوه‌های مدیریتی در مدرسه بازرگانی هاروارد

به همین دلیل است که محققان از کارفرمایان می‌خواهند که شرح ویژگی‌های لازم برای یک موقعیت شغلی را مجددا بازنویسی کنند. و ابزارهای هوش مصنوعی خود را طوری پیکربندی کنند که شامل نامزدهایی شود که مهارت‌ها و تجربه‌شان الزامات اساسی یک موقعیت شغلی را برآورده می‌کند، نه اینکه آنها را بر اساس معیارهای دیگر شخصی حذف کنند.

ربات‌های هوشمند استخدام می‌توانند در فرآیند سنجش انسان‌ها، سوگیری‌ داشته باشند

اشتباه آمازون

یکی از این سوگیری‌ها مربوط با فرآیند استخدام با نرم افزارِ شرکت آمازون است که در سال ۲۰۱۸ رخ داد.

ابزار هوشمندی که این شرکت چندملیتی برای مرتب‌سازی سیل درخواست‌های خود استفاده می‌کرد، تبعیض بیشتری علیه متقاضیان زن ایجاد می‌کرد. اما چرا زنان؟

در طول ایجاد این نرم افزار، این ربات هوشمند با بانک های CV نامزدهای سابق که اکثراً مرد بودند آموزش داده شده بود. بنابراین، منطق داخلی خودِ دستگاه شروع به تنزل دادن نامزدهایی کرده بود که در رزومه آنها شرکت در لیگ‌های ورزشی زنان یا اخذ مدرک دیپلم از دانشگاه‌های زنان ذکر شده بود.

همانطور که هوش مصنوعی به تدریج باهوش‌تر و پیشرفته ‌تر شده و با انواع نامزدهای مورد علاقه یک کارفرما، بر اساس افرادی که در گذشته استخدام کرده‌اند، سازگار می‌شود. شرکت‌های بیشتری در معرض خطر اشتباه مشابه قرار می‌گیرند. به گفته سوزی لیندسی، وکیل کمیسیون حقوقی انتاریو، به احتمال زیاد شرکت‌های بیشتر و بیشتری احتمالاً اشتباه آمازون را در تحقیق در مورد مقررات بالقوه هوش مصنوعی در کانادا تکرار می‌کنند.

واکنش مسئولین

این موضوع به قدری نگران‌کننده است که دولت ایالات متحده دستورالعمل‌هایی را برای کارفرمایان در خصوص پتانسیل نرم‌افزارهای استخدام خودکار برای تبعیض علیه متقاضیان دارای معلولیت، صادر کرده است.

از آوریل ۲۰۲۳، کارفرمایان در شهر نیویورک، باید به هنگام استفاده از نرم‌افزارهای استخدامی به متقاضیان و کارمندان این موضوع را اطلاع دهند. و همچنین باید این فناوری‌ ربات‌های هوشمند را بهتر بررسی کنند تا سوگیری‌های استخدامی آنها را کشف و برطرف کنند.

در کانادا، سیاست‌گذاری‌هایی در مورد استفاده از هوش مصنوعی در زمینه خدمات عمومی فدرال وجود دارد، اما هیچ قانون یا دستورالعمل روشنی برای سایر کارفرمایان وجود ندارد. با این حال، قوانینی که در حال حاضر در پارلمان ارائه شده است، سازندگان و کاربران سیستم‌های هوش مصنوعی با تأثیر بالا را ملزم می‌کند تا اقداماتی را برای کاهش آسیب‌ها و تعصبات اتخاذ کنند. با این حال، جزئیات مربوط به آنچه که تاثیر بالای هوش مصنوعی در نظر گرفته می‌شود، هنوز مشخص نشده است.

بنابراین در حال حاضر، این به کارفرمایان کانادایی و تیم‌های استخدام کننده آنها بستگی دارد که متوجه شوند نرم افزار هوش مصنوعی آنها دقیقا بر چه اساسی و چگونه کار می‌کند و آیا سوگیری‌های بالقوه‌ای را اتخاذ می‌کند یا خیر.

پاملا لیریو، استادیار مدیریت منابع انسانی بین‌المللی در دانشگاه مونترال، توصیه می‌کند که متخصصان منابع انسانی خود را آموزش داده و با تامین‌کنندگان خود گفتگوی آزاد داشته باشند. سیستم شما چگونه است؟ الگوریتم آن به چه صورت است؟ چه چیزی را دنبال می‌کند؟ این الگوریتم به من اجازه چه کاری را می‌دهد؟

به گفته خانم لیریو، این نکته نیز حائز اهمیت است که هنگام استفاده از این ربات‌های هوشمند بپرسیم که این ابزار استخدام هوشمند توسط چه کسی ساخته شده؟ و با کمک چه داده‌هایی آموزش دیده است؟ تا از اشتباهاتی مانند مشکل ایجاد شده برای شرکت آمازون در سال 2018 جلوگیری شود.

آیا می‌توانیم ربات‌های هوشمند استخدام کننده را شکست دهیم؟

از آنجایی که پدیده نرم افزارهای استخدامی به خودی خود چیز جدیدی نیست، کارشناسان کاریابی در طول زمان استراتژی‌هایی را برای غلبه بر دیوار روباتیک توسعه داده‌اند. یکی از رایج‌ترین ترفندها این است که کلمات کلیدی مناسب را در CV خود ذکر کنید و این کار به ابزار استخدامی اجازه می‌دهد تا معیارهای مورد نظر خود را به راحتی تشخیص دهد.

اما کلمات کلیدی تنها یکی از بسیار نقاط داده‌ای هستند که توسط سیستم‌های هوش مصنوعی پیشرفته‌تر استفاده می‌شوند. سایر موارد شامل نام شرکت‌هایی که در گذشته برای آنها کار کرده‌اید، مرتبه شغلی شما و حتی میزان فاصله مکانی شما با سازمانی که برای آن درخواست داده‌اید است.

به جای تلاش برای فریب دادن الگوریتم، کارشناسان توصیه می‌کنند که با در نظر گرفتن این که یک انسان همیشه تصمیم نهایی را می‌گیرد. برای مشاغلی درخواست دهید که با مهارت‌ها، دانش و تجربه‌ای که واقعاً دارید مطابقت داشته باشد.

شما باید شرایط یک موقعیت شغلی را برآورده کنید. رابرت اسپیلاک، معاون ارائه‌دهنده خدمات کارکنان TalentNest، می‌گوید:

«اگر هیچ یک از این شرایط را نداشته باشید، فرقی نمی‌کند، در هرصورت یک انسان یا نوعی اتوماسیون شما را فیلتر می‌کند.»

https://hodhod.ca/?p=70910

امتیاز بدهید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *