مطالعه موردی: اخلاق هوش مصنوعی؛ استخدام افراد توسط ماشین (Hiring by Machine)

این مطالعه موردی در دانشگاه پرینستون آمریکا انجام گرفته است و موضوع آن «اخلاق» در هوش مصنوعی و چالش‌های اساسی آن است.

Princeton-AI-Ethics-Case-Study-5

مقدمه

توسعه سیستم‌های هوش مصنوعی (AI) و استقرار آنها در جامعه باعث بروز سوالات و دلمشغولی‌های اخلاقی شده است. این مطالعه موردی به بررسی این مسائل در تقاطع AI و اخلاق می‌پردازد. در این مطالعه موردی، به بررسی استفاده از یک سیستم هوش مصنوعی برای مدیریت فرآیند استخدام در یک شرکت غیرانتفاعی به نام Strategeion پرداخته می‌شود.

زمینه

با مدرن شدن وسایل جنگی، ارتش ایالات متحده تأکید بیشتری بر آموزش نیروهای جدید در زمینه برنامه‌نویسی و مهندسی کامپیوتر گذاشته است. این تمرکز نه تنها به عملیات‌های نظامی ایالات متحده کمک می‌کند تا در صحنه جهانی رقابتی باقی بمانند، بلکه بسیاری از حرفه‌ای‌های نظامی را با مهارت‌هایی تجهیز می‌کند که می‌توانند بعداً در محیط‌های غیرنظامی استفاده شوند. این مورد برای گروهی کوچک و مشتاق از سربازان سابق ارتش که پس از پایان خدمت در دوران رکود اقتصادی 2008 به طور شرافتمندانه‌ای مرخص شدند، صادق بود.

تأسیس Strategeion

این گروه از برنامه‌نویسان با استفاده از تجربیات خود در پشتیبانی از عملیات‌های مختلف نظامی با راه‌حل‌های فناوری اطلاعات، تصمیم گرفتند شغلی برای خود ایجاد کنند و زندگی دیگران را بهبود بخشند. آنها یک شرکت غیرانتفاعی به نام Strategeion تأسیس کردند که هدف آن ایجاد یک پلتفرم آنلاین بود که به سربازان سابق کمک کند تا با هم در ارتباط بمانند و تجربیات خود را در برخورد با زندگی غیرنظامی به اشتراک بگذارند. 

گسترش پلتفرم و تعهد به شفافیت

همانطور که شرکت رشد کرد، پلتفرم Strategeion به خدمات متنوعی از جمله شبکه‌های اجتماعی، وبلاگ‌نویسی شخصی و حتی یک اپلیکیشن جستجوی مکان‌های جالب در جوامع جدید که برای افراد متحرک طراحی شده بود، گسترش یافت. شعار غیررسمی Strategeion “هیچ کس را جا نگذار” شد. یکی از تعهدات کلیدی شرکت، مدل متن‌باز بود، به این معنی که کد منبع بسیاری از نرم‌افزارهای خود را برای عموم آزاد می‌کرد. هدف این بود که سازمان‌های دیگر نه تنها از کد Strategeion استفاده کنند، بلکه آن را بهبود بخشند و سود آن را به همه برسانند.

موفقیت و چالش‌های استخدام

مدل کسب‌وکار Strategeion موفق بود و شرکت رشد پایداری در تعداد کاربران و درآمد داشت. با این حال، حتی با گسترش و ورود به بازارهای جدید، Strategeion هرگز تعهد ویژه خود به رفع نیازهای سربازان سابق را ترک نکرد. این در محصولات اصلی شرکت که به طور خاص برای سربازان سابق طراحی شده بودند، آشکار بود. برخلاف سایر شرکت‌های نوآور فناوری که بیشتر فارغ‌التحصیلان جوان دانشگاه‌های معتبر را استخدام می‌کردند، Strategeion عمدتاً از نیروهای سابق ارتش تشکیل شده بود. این سیاست به شرکت کمک کرد تا فرصت‌های شغلی برای سربازان سابق فراهم کند و از آنها حمایت کند.

 مشکل سرباز زدن از تقاضای زیاد

در پی موفقیت Strategeion و قرار گرفتن در لیست “100 شرکت برتر برای کار کردن” مجله Wealth در سال 2013، تعداد درخواست‌های شغلی به طور چشمگیری افزایش یافت. تیم منابع انسانی (HR) به حدی از تعداد زیاد رزومه‌ها که دریافت می‌کردند، فشار آوردند که مجبور شدند روند استخدام را متوقف کنند تا بتوانند با عقب‌ماندگی رسیدگی کنند.

توسعه سیستم هوش مصنوعی PARiS

گروهی از توسعه‌دهندگان Strategeion تصمیم گرفتند یک سیستم اختصاصی برای بررسی رزومه‌ها ایجاد کنند تا به تیم HR کمک کنند. آنها سیستمی به نام PARiS توسعه دادند که از پردازش زبان طبیعی (NLP) و یادگیری ماشین (ML) برای شناسایی نشانگرهای موجود در رزومه‌ها که بهترین کاندیداها را متمایز می‌کرد، استفاده می‌کرد. سیستم PARiS رزومه‌های ورودی را بر اساس تطابق با انواع ایده‌آل رتبه‌بندی می‌کرد و آنهایی که زیر آستانه مشخصی بودند را کنار می‌گذاشت.

 نتایج اولیه و چالش‌ها

استقرار PARiS با استقبال تیم HR مواجه شد. این سیستم به سرعت و کارآمدی بیشتری نسبت به انسان‌ها توانست رزومه‌ها را بررسی کند و تطابق آنها را با ارزش‌های Strategeion تأیید کند. با این حال، یک دانشجوی امیدبخش علوم کامپیوتر به نام Hara که برای شغل در Strategeion درخواست داده بود، به سرعت و به طور خودکار رد شد. او که مطمئن بود کاندیدای مناسبی برای شرکت است، از این رد شدن سریع شگفت‌زده شد.

بررسی و کشف مشکلات

پس از بررسی دقیق رزومه Hara توسط تیم HR، مشخص شد که او از لحاظ علایق و مدارک با بهترین کارمندان Strategeion مطابقت دارد. با این حال، سیستم PARiS او را به دلیل نداشتن سابقه ورزشی رد کرده بود. این نشان می‌داد که داده‌های آموزشی PARiS به نحوی منحرف شده‌اند که به سوابق ورزشی اهمیت زیادی داده‌اند، زیرا بسیاری از کارمندان سابق ارتش Strategeion دارای سابقه ورزشی بودند.

اعتراضات اخلاقی

  1. عدالت: Hara احساس کرد که به دلیل یک ویژگی نامربوط (عدم سابقه ورزشی) به ناحق از فرصت شغلی محروم شده است. او و همکارانش در دنیای غیرانتفاعی معتقد بودند که Strategeion باید به جای اینکه به ویژگی‌های نامربوط توجه کند، بر اساس ویژگی‌های مرتبط و دستاوردها قضاوت کند.
  2. سیستم‌های غیرانسانی: Hara نگران بود که تصمیم‌گیری‌های مهم شغلی به یک سیستم AI واگذار شده باشد که ممکن است اثرات عمیقی بر زندگی افراد داشته باشد. او معتقد بود که برای چنین تصمیمات مهمی باید انسان‌ها در فرآیند دخیل باشند.
  3. رضایت و یکپارچگی زمینه‌ای: Hara و بسیاری از کارکنان فعلی و سابق Strategeion نگران بودند که رزومه‌هایشان بدون رضایت آنها برای آموزش سیستم PARiS استفاده شده است.

 پاسخ Strategeion

پس از دریافت شکایت Hara، هیئت مدیره Strategeion تصمیم گرفت یک تحقیق جامع درباره سیستم PARiS انجام دهد. آنها دریافتند که سیستم به طور ناخواسته به تبعیض بر اساس ویژگی‌های نامربوط منجر شده است. 

سوالات و مباحث اخلاقی

  1. چگونه می‌توان از تبعیض ناخواسته در سیستم‌های AI جلوگیری کرد؟
  2. آیا استخدام توسط ماشین باعث از بین رفتن نقش انسانی منابع انسانی می‌شود؟
  3. چه تعادلی باید بین کارایی و عدالت در فرآیند استخدام برقرار شود؟
  4. آیا سیستم PARiS باید به دلیل ویژگی‌های نامربوطی که در تصمیم‌گیری‌هایش مورد استفاده قرار می‌دهد، تغییر کند؟
  5. آیا Strategeion باید به کارکنان و متقاضیان اطلاعات کاملی درباره نحوه استفاده از داده‌هایشان ارائه دهد؟

نتیجه‌گیری

این مطالعه موردی نشان‌دهنده اهمیت در نظر گرفتن مسائل اخلاقی در توسعه و استفاده از سیستم‌های هوش مصنوعی در فرآیند استخدام است. سیستم PARiS توانست بهبودهای قابل توجهی در کارایی فرآیند استخدام ایجاد کند، اما همچنان با چالش‌های اخلاقی و اجتماعی مواجه است. برای حل این مسائل، باید نگرانی‌های متقاضیان و کارکنان مورد توجه قرار گیرد و راه‌حل‌های مناسبی برای بهبود شفافیت، کاهش نابرابری و افزایش عدالت ارائه شود.

سوالات برای بحث

  1. چگونه باید تصمیمات در مورد استفاده از تکنولوژی‌های AI در استخدام گرفته شود و چه کسانی باید در این فرآیند دخیل باشند؟
  2. آیا استخدام توسط ماشین باعث از بین رفتن نقش انسانی منابع انسانی می‌شود؟
  3. چه تعادلی باید بین کارایی و عدالت در فرآیند استخدام برقرار شود؟
  4. آیا سیستم PARiS باید به دلیل ویژگی‌های نامربوطی که در تصمیم‌گیری‌هایش مورد استفاده قرار می‌دهد، تغییر کند؟
  5. آیا Strategeion باید به کارکنان و متقاضیان اطلاعات کاملی درباره نحوه استفاده از داده‌هایشان ارائه دهد؟

این سوالات و مباحث می‌توانند به درک بهتر مسائل اخلاقی و اجتماعی مرتبط با استفاده از هوش مصنوعی در فرآیند استخدام کمک کنند و راه‌حل‌های مناسبی برای بهبود و بهینه‌سازی این سیستم‌ها ارائه دهند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *