این مطالعه موردی در دانشگاه پرینستون آمریکا انجام گرفته است و موضوع آن «اخلاق» در هوش مصنوعی و چالشهای اساسی آن است.
Princeton-AI-Ethics-Case-Study-5مقدمه
توسعه سیستمهای هوش مصنوعی (AI) و استقرار آنها در جامعه باعث بروز سوالات و دلمشغولیهای اخلاقی شده است. این مطالعه موردی به بررسی این مسائل در تقاطع AI و اخلاق میپردازد. در این مطالعه موردی، به بررسی استفاده از یک سیستم هوش مصنوعی برای مدیریت فرآیند استخدام در یک شرکت غیرانتفاعی به نام Strategeion پرداخته میشود.
زمینه
با مدرن شدن وسایل جنگی، ارتش ایالات متحده تأکید بیشتری بر آموزش نیروهای جدید در زمینه برنامهنویسی و مهندسی کامپیوتر گذاشته است. این تمرکز نه تنها به عملیاتهای نظامی ایالات متحده کمک میکند تا در صحنه جهانی رقابتی باقی بمانند، بلکه بسیاری از حرفهایهای نظامی را با مهارتهایی تجهیز میکند که میتوانند بعداً در محیطهای غیرنظامی استفاده شوند. این مورد برای گروهی کوچک و مشتاق از سربازان سابق ارتش که پس از پایان خدمت در دوران رکود اقتصادی 2008 به طور شرافتمندانهای مرخص شدند، صادق بود.
تأسیس Strategeion
این گروه از برنامهنویسان با استفاده از تجربیات خود در پشتیبانی از عملیاتهای مختلف نظامی با راهحلهای فناوری اطلاعات، تصمیم گرفتند شغلی برای خود ایجاد کنند و زندگی دیگران را بهبود بخشند. آنها یک شرکت غیرانتفاعی به نام Strategeion تأسیس کردند که هدف آن ایجاد یک پلتفرم آنلاین بود که به سربازان سابق کمک کند تا با هم در ارتباط بمانند و تجربیات خود را در برخورد با زندگی غیرنظامی به اشتراک بگذارند.
گسترش پلتفرم و تعهد به شفافیت
همانطور که شرکت رشد کرد، پلتفرم Strategeion به خدمات متنوعی از جمله شبکههای اجتماعی، وبلاگنویسی شخصی و حتی یک اپلیکیشن جستجوی مکانهای جالب در جوامع جدید که برای افراد متحرک طراحی شده بود، گسترش یافت. شعار غیررسمی Strategeion “هیچ کس را جا نگذار” شد. یکی از تعهدات کلیدی شرکت، مدل متنباز بود، به این معنی که کد منبع بسیاری از نرمافزارهای خود را برای عموم آزاد میکرد. هدف این بود که سازمانهای دیگر نه تنها از کد Strategeion استفاده کنند، بلکه آن را بهبود بخشند و سود آن را به همه برسانند.
موفقیت و چالشهای استخدام
مدل کسبوکار Strategeion موفق بود و شرکت رشد پایداری در تعداد کاربران و درآمد داشت. با این حال، حتی با گسترش و ورود به بازارهای جدید، Strategeion هرگز تعهد ویژه خود به رفع نیازهای سربازان سابق را ترک نکرد. این در محصولات اصلی شرکت که به طور خاص برای سربازان سابق طراحی شده بودند، آشکار بود. برخلاف سایر شرکتهای نوآور فناوری که بیشتر فارغالتحصیلان جوان دانشگاههای معتبر را استخدام میکردند، Strategeion عمدتاً از نیروهای سابق ارتش تشکیل شده بود. این سیاست به شرکت کمک کرد تا فرصتهای شغلی برای سربازان سابق فراهم کند و از آنها حمایت کند.
مشکل سرباز زدن از تقاضای زیاد
در پی موفقیت Strategeion و قرار گرفتن در لیست “100 شرکت برتر برای کار کردن” مجله Wealth در سال 2013، تعداد درخواستهای شغلی به طور چشمگیری افزایش یافت. تیم منابع انسانی (HR) به حدی از تعداد زیاد رزومهها که دریافت میکردند، فشار آوردند که مجبور شدند روند استخدام را متوقف کنند تا بتوانند با عقبماندگی رسیدگی کنند.
توسعه سیستم هوش مصنوعی PARiS
گروهی از توسعهدهندگان Strategeion تصمیم گرفتند یک سیستم اختصاصی برای بررسی رزومهها ایجاد کنند تا به تیم HR کمک کنند. آنها سیستمی به نام PARiS توسعه دادند که از پردازش زبان طبیعی (NLP) و یادگیری ماشین (ML) برای شناسایی نشانگرهای موجود در رزومهها که بهترین کاندیداها را متمایز میکرد، استفاده میکرد. سیستم PARiS رزومههای ورودی را بر اساس تطابق با انواع ایدهآل رتبهبندی میکرد و آنهایی که زیر آستانه مشخصی بودند را کنار میگذاشت.
نتایج اولیه و چالشها
استقرار PARiS با استقبال تیم HR مواجه شد. این سیستم به سرعت و کارآمدی بیشتری نسبت به انسانها توانست رزومهها را بررسی کند و تطابق آنها را با ارزشهای Strategeion تأیید کند. با این حال، یک دانشجوی امیدبخش علوم کامپیوتر به نام Hara که برای شغل در Strategeion درخواست داده بود، به سرعت و به طور خودکار رد شد. او که مطمئن بود کاندیدای مناسبی برای شرکت است، از این رد شدن سریع شگفتزده شد.
بررسی و کشف مشکلات
پس از بررسی دقیق رزومه Hara توسط تیم HR، مشخص شد که او از لحاظ علایق و مدارک با بهترین کارمندان Strategeion مطابقت دارد. با این حال، سیستم PARiS او را به دلیل نداشتن سابقه ورزشی رد کرده بود. این نشان میداد که دادههای آموزشی PARiS به نحوی منحرف شدهاند که به سوابق ورزشی اهمیت زیادی دادهاند، زیرا بسیاری از کارمندان سابق ارتش Strategeion دارای سابقه ورزشی بودند.
اعتراضات اخلاقی
- عدالت: Hara احساس کرد که به دلیل یک ویژگی نامربوط (عدم سابقه ورزشی) به ناحق از فرصت شغلی محروم شده است. او و همکارانش در دنیای غیرانتفاعی معتقد بودند که Strategeion باید به جای اینکه به ویژگیهای نامربوط توجه کند، بر اساس ویژگیهای مرتبط و دستاوردها قضاوت کند.
- سیستمهای غیرانسانی: Hara نگران بود که تصمیمگیریهای مهم شغلی به یک سیستم AI واگذار شده باشد که ممکن است اثرات عمیقی بر زندگی افراد داشته باشد. او معتقد بود که برای چنین تصمیمات مهمی باید انسانها در فرآیند دخیل باشند.
- رضایت و یکپارچگی زمینهای: Hara و بسیاری از کارکنان فعلی و سابق Strategeion نگران بودند که رزومههایشان بدون رضایت آنها برای آموزش سیستم PARiS استفاده شده است.
پاسخ Strategeion
پس از دریافت شکایت Hara، هیئت مدیره Strategeion تصمیم گرفت یک تحقیق جامع درباره سیستم PARiS انجام دهد. آنها دریافتند که سیستم به طور ناخواسته به تبعیض بر اساس ویژگیهای نامربوط منجر شده است.
سوالات و مباحث اخلاقی
- چگونه میتوان از تبعیض ناخواسته در سیستمهای AI جلوگیری کرد؟
- آیا استخدام توسط ماشین باعث از بین رفتن نقش انسانی منابع انسانی میشود؟
- چه تعادلی باید بین کارایی و عدالت در فرآیند استخدام برقرار شود؟
- آیا سیستم PARiS باید به دلیل ویژگیهای نامربوطی که در تصمیمگیریهایش مورد استفاده قرار میدهد، تغییر کند؟
- آیا Strategeion باید به کارکنان و متقاضیان اطلاعات کاملی درباره نحوه استفاده از دادههایشان ارائه دهد؟
نتیجهگیری
این مطالعه موردی نشاندهنده اهمیت در نظر گرفتن مسائل اخلاقی در توسعه و استفاده از سیستمهای هوش مصنوعی در فرآیند استخدام است. سیستم PARiS توانست بهبودهای قابل توجهی در کارایی فرآیند استخدام ایجاد کند، اما همچنان با چالشهای اخلاقی و اجتماعی مواجه است. برای حل این مسائل، باید نگرانیهای متقاضیان و کارکنان مورد توجه قرار گیرد و راهحلهای مناسبی برای بهبود شفافیت، کاهش نابرابری و افزایش عدالت ارائه شود.
سوالات برای بحث
- چگونه باید تصمیمات در مورد استفاده از تکنولوژیهای AI در استخدام گرفته شود و چه کسانی باید در این فرآیند دخیل باشند؟
- آیا استخدام توسط ماشین باعث از بین رفتن نقش انسانی منابع انسانی میشود؟
- چه تعادلی باید بین کارایی و عدالت در فرآیند استخدام برقرار شود؟
- آیا سیستم PARiS باید به دلیل ویژگیهای نامربوطی که در تصمیمگیریهایش مورد استفاده قرار میدهد، تغییر کند؟
- آیا Strategeion باید به کارکنان و متقاضیان اطلاعات کاملی درباره نحوه استفاده از دادههایشان ارائه دهد؟
این سوالات و مباحث میتوانند به درک بهتر مسائل اخلاقی و اجتماعی مرتبط با استفاده از هوش مصنوعی در فرآیند استخدام کمک کنند و راهحلهای مناسبی برای بهبود و بهینهسازی این سیستمها ارائه دهند.