این مطالعه موردی در دانشگاه پرینستون آمریکا انجام گرفته است و موضوع آن «اخلاق» در هوش مصنوعی و چالشهای اساسی آن است.
Princeton-AI-Ethics-Case-Study-4مقدمه
توسعه سیستمهای هوش مصنوعی (AI) و استقرار آنها در جامعه باعث بروز سوالات و دلمشغولیهای اخلاقی شده است. این مطالعه موردی تخیلی به بررسی این مسائل در تقاطع AI و اخلاق میپردازد. در این مطالعه موردی، به بررسی استفاده از چتباتهای هوش مصنوعی در اجرای قانون در کشور Panoptica پرداخته میشود. کشور Panoptica با افزایش جرایم سایبری مواجه شده و به منظور مقابله با این مشکل، به توسعه و استفاده از چتبات JEREMY پرداخته است.
پسزمینه
کشور Panoptica، یک کشور اروپایی متوسط با سیستم رفاه اجتماعی قوی و سنت حقوقی لیبرال، اخیراً با افزایش جرایم اینترنتی و سایبری مواجه شده است. تضمینات قانون اساسی برای فرآیند دادرسی و احترام به حقوق فردی، تلاشهای اجرای قانون Panoptica را برای جلوگیری از جرایم سایبری در گذشته مختل کرده بود. پیچیدگی تکنولوژیهای مورد استفاده توسط مجرمان سایبری و ماهیت بینالمللی این جرایم، پیگرد قانونی آنها را بسیار دشوار میکرد.
پس از یک سری سرقتهای هویت که سالمندان Panoptica را هدف قرار داده بود، پلیس ملی یک بازار آنلاین بینالمللی را کشف کرد که در آن مجرمان سایبری هویتهای دزدیده شده را تبلیغ و معامله میکردند. این فوروم در یک وبسایت “دارک وب” قرار داشت که از طریق مرورگرها یا موتورهای جستجوی معمولی قابل دسترسی نبود و نیاز به نرمافزار ویژه برای ارتباط و معامله داشت. ماهیت مخفی این فورومها تلاشهای اجرای قانون را ناکام گذاشته و فقدان پیشرفت در آوردن مجرمان سایبری به عدالت، خشم پلیس، سیاستمداران و عموم مردم را برانگیخته بود.
توسعه چتبات JEREMY
با این مأموریت دموکراتیک در دست، نهادهای اجرای قانون Panoptica با محققان دانشگاه Panoptica همکاری کردند تا یک چتبات به نام JEREMY توسعه دهند که میتوانست برای شناسایی مجرمان سایبری استفاده شود. JEREMY با استفاده از پردازش زبان طبیعی (NLP) نحوه ارتباط مجرمان سایبری در فورومهای آنلاین را میآموخت. الگوریتم یادگیری ماشینی JEREMY سپس میتوانست از دادههای جمعآوری شده برای وارد شدن به گفتگو با افرادی که به ارتکاب یا معامله در سرقت هویت مظنون بودند، استفاده کند. ابتدا با تمرکز بر جرایم کوچکتر (مثل هک کردن)، سیستم نهایتاً از توطئههای بزرگتری آگاه میشد. در این فرآیند، JEREMY همچنین یک پرونده از شواهد (شامل شواهد نیت برای ارتکاب جرایم سایبری) جمعآوری میکرد که میتوانست در هرگونه پیگرد قانونی آینده استفاده شود. بدون محدودیتهای زمانی و انرژی انسانی، JEREMY میتوانست این وظایف را کارآمد و در مقیاس بزرگ انجام دهد. حتی بهتر از آن، JEREMY از تعصبات انسانی که عدالت برخی از کارهای پلیسی را تضعیف میکند، عاری بود.
نتایج اولیه
تقریباً بلافاصله، JEREMY توانست سارقان هویت آنلاین را شناسایی کند و اطلاعات از چتهای او برای ارسال دهها مجرم به زندان استفاده شد. شهروندان Panoptica نفس راحتی کشیدند و اعتماد کردند که JEREMY از امنیت آنلاین آنها محافظت میکند. با این حال، این آرامش ملی به زودی با وقوع یک حادثه بینالمللی به خطر افتاد.
چالشها و مسائل اخلاقی
یکی از افرادی که در اولین موج پیگردهای ممکن شده توسط JEREMY دخیل بود، یک جوان از کشور همسایه Hedonia بود که در سفر تعطیلات به Panoptica دستگیر شد. این مرد هرگز شهروند Panoptica نبوده و هیچ یک از معاملات آنلاین او در خاک Panoptica رخ نداده بود و بنابراین ادعا کرد که Panoptica حق پیگرد او تحت قوانین خود را ندارد. او همچنین ادعا کرد که قربانی به دام انداختن توسط اجرای قانون Panoptica شده است، زیرا در ابتدا قصد فروش هویتهای در اختیار خود را نداشت. او JEREMY را متهم کرد که او را تشویق به فروش هویتها کرده است. مذاکرات بینالمللی بین دو کشور به موضوع اصلی اخبار تبدیل شد و بسیاری از شهروندان Panoptica نیز به این نتیجه رسیدند که JEREMY ممکن است از حد خود فراتر رفته باشد.
اعتراض اخلاقی 1: مسئولیت در موارد به دام انداختن
بعضی از شهروندان نگران این بودند که JEREMY به جای متوقف کردن جرایم، افراد بالقوه خاطی را تشویق به ارتکاب جرایم میکند. در مواردی که JEREMY با استفاده از پردازش زبان طبیعی به مکالمه میپرداخت و پاسخهای دقیقی میساخت که گاهی به کشف نیت ارتکاب جرم منجر میشد، مشخص نبود که سیستم استانداردهای مورد نیاز را رعایت کرده باشد.
اعتراض اخلاقی 2: پاسخگویی
در مورد سرقت هویت، شهروندان Panoptica عموماً حاضر بودند برخی از آزادیهای فردی خود را برای ارتقای امنیت واگذار کنند. با این حال، چون الگوریتمهای JEREMY باید محرمانه بمانند تا در “دارک وب” کارآمد باشند، شهروندان از سیستم اطلاعاتی در مورد معماری و برنامهنویسی آن آگاه نبودند. این عدم شفافیت باعث نگرانیهایی در مورد پاسخگویی سیستم و عدم امکان اصلاح خطاهای احتمالی شد.
پاسخ مقامات Panoptica
مقامات Panoptica به نگرانیهای شهروندان پاسخ داده و تأکید کردند که افراد تنها زمانی هدف JEREMY قرار میگیرند که قبلاً تحت تحقیقات جنایی بودهاند. همچنین، تیمهای تحقیقاتی انسانها را به دستهبندی تهدیدهایی تقسیم میکنند که JEREMY از آنها اهداف خود را انتخاب میکند و قضات انسان نیز میتوانند در مواردی که به دادگاه آورده میشوند، ارزیابی کنند.
سوالات و مباحث اخلاقی
- در این زمینه، تفاوت بین یک عامل انسانی مخفی با قضاوت آموزش دیده و یک ابزار AI که برای انجام وظایف خود در محدودههای دقیق برنامهریزی شده است، چیست؟ JEREMY تا چه حد و به چه هدفی جایگزین عوامل انسانی میشود؟ چه مزایایی دارد و چه ارزشهایی را یک عامل انسانی برای تحقیقات جرایم سایبری به همراه دارد؟
- آیا مجریان قانون که JEREMY را برای دستگیری فردی از یک حوزه قضایی دیگر به کار گرفتند، موجه بودند؟ آیا دادگاههای ملی باید اختیار تصمیمگیری در مورد استفاده از ابزارهایی مانند JEREMY را داشته باشند؟
نتیجهگیری
این مطالعه موردی نشاندهنده اهمیت در نظر گرفتن مسائل اخلاقی در توسعه و استفاده از سیستمهای هوش مصنوعی در حوزه اجرای قانون است. سیستم JEREMY توانست بهبودهای قابل توجهی در کاهش جرایم سایبری ایجاد کند، اما همچنان با چالشهای اخلاقی و اجتماعی مواجه است. برای حل این مسائل، باید نگرانیهای شهروندان و جامعه بینالمللی مورد توجه قرار گیرد و راهحلهای مناسبی برای بهبود شفافیت، کاهش نابرابری و افزایش تعامل مثبت کاربران ارائه شود.
تکالیف و سوالات برای بحث
- چگونه باید تصمیمات در مورد استفاده از تکنولوژیهای AI گرفته شود و چه کسانی باید در این فرآیند دخیل باشند؟
- آیا استفاده از هوش مصنوعی در اجرای قانون باعث از بین رفتن نقش انسانی مأموران و کاهش استقلال آنها میشود؟
- چه تعادلی باید بین بهبود امنیت و حفظ حریم خصوصی و استقلال شهروندان برقرار شود؟
- آیا JEREMY باید به دلایل و معیارهای خود برای شناسایی افراد و شواهدی که جمعآوری کرده است، شفافیت بیشتری داشته باشد؟
- آیا Panoptica باید تکنولوژیهای خود را با کشورهای دیگر به اشتراک بگذارد تا به مقابله با جرایم سایبری در سطح جهانی کمک کند؟
این سوالات و مباحث میتوانند به درک بهتر مسائل اخلاقی و اجتماعی مرتبط با استفاده از هوش مصنوعی در سیستمهای اجرای قانون کمک کنند و راهحلهای مناسبی برای بهبود و بهینهسازی این سیستمها ارائه دهند.