مطالعه موردی: اخلاق هوش مصنوعی؛ چت‌بات‌های اجرای قانون (JEREMY)

این مطالعه موردی در دانشگاه پرینستون آمریکا انجام گرفته است و موضوع آن «اخلاق» در هوش مصنوعی و چالش‌های اساسی آن است.

Princeton-AI-Ethics-Case-Study-4

مقدمه

توسعه سیستم‌های هوش مصنوعی (AI) و استقرار آنها در جامعه باعث بروز سوالات و دلمشغولی‌های اخلاقی شده است. این مطالعه موردی تخیلی به بررسی این مسائل در تقاطع AI و اخلاق می‌پردازد. در این مطالعه موردی، به بررسی استفاده از چت‌بات‌های هوش مصنوعی در اجرای قانون در کشور Panoptica پرداخته می‌شود. کشور Panoptica با افزایش جرایم سایبری مواجه شده و به منظور مقابله با این مشکل، به توسعه و استفاده از چت‌بات JEREMY پرداخته است.

پس‌زمینه

کشور Panoptica، یک کشور اروپایی متوسط با سیستم رفاه اجتماعی قوی و سنت حقوقی لیبرال، اخیراً با افزایش جرایم اینترنتی و سایبری مواجه شده است. تضمینات قانون اساسی برای فرآیند دادرسی و احترام به حقوق فردی، تلاش‌های اجرای قانون Panoptica را برای جلوگیری از جرایم سایبری در گذشته مختل کرده بود. پیچیدگی تکنولوژی‌های مورد استفاده توسط مجرمان سایبری و ماهیت بین‌المللی این جرایم، پیگرد قانونی آنها را بسیار دشوار می‌کرد.

پس از یک سری سرقت‌های هویت که سالمندان Panoptica را هدف قرار داده بود، پلیس ملی یک بازار آنلاین بین‌المللی را کشف کرد که در آن مجرمان سایبری هویت‌های دزدیده شده را تبلیغ و معامله می‌کردند. این فوروم در یک وب‌سایت “دارک وب” قرار داشت که از طریق مرورگرها یا موتورهای جستجوی معمولی قابل دسترسی نبود و نیاز به نرم‌افزار ویژه برای ارتباط و معامله داشت. ماهیت مخفی این فوروم‌ها تلاش‌های اجرای قانون را ناکام گذاشته و فقدان پیشرفت در آوردن مجرمان سایبری به عدالت، خشم پلیس، سیاستمداران و عموم مردم را برانگیخته بود.

توسعه چت‌بات JEREMY

با این مأموریت دموکراتیک در دست، نهادهای اجرای قانون Panoptica با محققان دانشگاه Panoptica همکاری کردند تا یک چت‌بات به نام JEREMY توسعه دهند که می‌توانست برای شناسایی مجرمان سایبری استفاده شود. JEREMY با استفاده از پردازش زبان طبیعی (NLP) نحوه ارتباط مجرمان سایبری در فوروم‌های آنلاین را می‌آموخت. الگوریتم یادگیری ماشینی JEREMY سپس می‌توانست از داده‌های جمع‌آوری شده برای وارد شدن به گفتگو با افرادی که به ارتکاب یا معامله در سرقت هویت مظنون بودند، استفاده کند. ابتدا با تمرکز بر جرایم کوچک‌تر (مثل هک کردن)، سیستم نهایتاً از توطئه‌های بزرگتری آگاه می‌شد. در این فرآیند، JEREMY همچنین یک پرونده از شواهد (شامل شواهد نیت برای ارتکاب جرایم سایبری) جمع‌آوری می‌کرد که می‌توانست در هرگونه پیگرد قانونی آینده استفاده شود. بدون محدودیت‌های زمانی و انرژی انسانی، JEREMY می‌توانست این وظایف را کارآمد و در مقیاس بزرگ انجام دهد. حتی بهتر از آن، JEREMY از تعصبات انسانی که عدالت برخی از کارهای پلیسی را تضعیف می‌کند، عاری بود.

نتایج اولیه

تقریباً بلافاصله، JEREMY توانست سارقان هویت آنلاین را شناسایی کند و اطلاعات از چت‌های او برای ارسال ده‌ها مجرم به زندان استفاده شد. شهروندان Panoptica نفس راحتی کشیدند و اعتماد کردند که JEREMY از امنیت آنلاین آنها محافظت می‌کند. با این حال، این آرامش ملی به زودی با وقوع یک حادثه بین‌المللی به خطر افتاد.

چالش‌ها و مسائل اخلاقی

یکی از افرادی که در اولین موج پیگردهای ممکن شده توسط JEREMY دخیل بود، یک جوان از کشور همسایه Hedonia بود که در سفر تعطیلات به Panoptica دستگیر شد. این مرد هرگز شهروند Panoptica نبوده و هیچ یک از معاملات آنلاین او در خاک Panoptica رخ نداده بود و بنابراین ادعا کرد که Panoptica حق پیگرد او تحت قوانین خود را ندارد. او همچنین ادعا کرد که قربانی به دام انداختن توسط اجرای قانون Panoptica شده است، زیرا در ابتدا قصد فروش هویت‌های در اختیار خود را نداشت. او JEREMY را متهم کرد که او را تشویق به فروش هویت‌ها کرده است. مذاکرات بین‌المللی بین دو کشور به موضوع اصلی اخبار تبدیل شد و بسیاری از شهروندان Panoptica نیز به این نتیجه رسیدند که JEREMY ممکن است از حد خود فراتر رفته باشد.

اعتراض اخلاقی 1: مسئولیت در موارد به دام انداختن

بعضی از شهروندان نگران این بودند که JEREMY به جای متوقف کردن جرایم، افراد بالقوه خاطی را تشویق به ارتکاب جرایم می‌کند. در مواردی که JEREMY با استفاده از پردازش زبان طبیعی به مکالمه می‌پرداخت و پاسخ‌های دقیقی می‌ساخت که گاهی به کشف نیت ارتکاب جرم منجر می‌شد، مشخص نبود که سیستم استانداردهای مورد نیاز را رعایت کرده باشد.

اعتراض اخلاقی 2: پاسخگویی

در مورد سرقت هویت، شهروندان Panoptica عموماً حاضر بودند برخی از آزادی‌های فردی خود را برای ارتقای امنیت واگذار کنند. با این حال، چون الگوریتم‌های JEREMY باید محرمانه بمانند تا در “دارک وب” کارآمد باشند، شهروندان از سیستم اطلاعاتی در مورد معماری و برنامه‌نویسی آن آگاه نبودند. این عدم شفافیت باعث نگرانی‌هایی در مورد پاسخگویی سیستم و عدم امکان اصلاح خطاهای احتمالی شد.

پاسخ مقامات Panoptica

مقامات Panoptica به نگرانی‌های شهروندان پاسخ داده و تأکید کردند که افراد تنها زمانی هدف JEREMY قرار می‌گیرند که قبلاً تحت تحقیقات جنایی بوده‌اند. همچنین، تیم‌های تحقیقاتی انسان‌ها را به دسته‌بندی تهدیدهایی تقسیم می‌کنند که JEREMY از آن‌ها اهداف خود را انتخاب می‌کند و قضات انسان نیز می‌توانند در مواردی که به دادگاه آورده می‌شوند، ارزیابی کنند.

سوالات و مباحث اخلاقی

  1. در این زمینه، تفاوت بین یک عامل انسانی مخفی با قضاوت آموزش دیده و یک ابزار AI که برای انجام وظایف خود در محدوده‌های دقیق برنامه‌ریزی شده است، چیست؟ JEREMY تا چه حد و به چه هدفی جایگزین عوامل انسانی می‌شود؟ چه مزایایی دارد و چه ارزش‌هایی را یک عامل انسانی برای تحقیقات جرایم سایبری به همراه دارد؟
  2. آیا مجریان قانون که JEREMY را برای دستگیری فردی از یک حوزه قضایی دیگر به کار گرفتند، موجه بودند؟ آیا دادگاه‌های ملی باید اختیار تصمیم‌گیری در مورد استفاده از ابزارهایی مانند JEREMY را داشته باشند؟

نتیجه‌گیری

این مطالعه موردی نشان‌دهنده اهمیت در نظر گرفتن مسائل اخلاقی در توسعه و استفاده از سیستم‌های هوش مصنوعی در حوزه اجرای قانون است. سیستم JEREMY توانست بهبودهای قابل توجهی در کاهش جرایم سایبری ایجاد کند، اما همچنان با چالش‌های اخلاقی و اجتماعی مواجه است. برای حل این مسائل، باید نگرانی‌های شهروندان و جامعه بین‌المللی مورد توجه قرار گیرد و راه‌حل‌های مناسبی برای بهبود شفافیت، کاهش نابرابری و افزایش تعامل مثبت کاربران ارائه شود.

تکالیف و سوالات برای بحث

  1. چگونه باید تصمیمات در مورد استفاده از تکنولوژی‌های AI گرفته شود و چه کسانی باید در این فرآیند دخیل باشند؟
  2. آیا استفاده از هوش مصنوعی در اجرای قانون باعث از بین رفتن نقش انسانی مأموران و کاهش استقلال آنها می‌شود؟
  3. چه تعادلی باید بین بهبود امنیت و حفظ حریم خصوصی و استقلال شهروندان برقرار شود؟
  4. آیا JEREMY باید به دلایل و معیارهای خود برای شناسایی افراد و شواهدی که جمع‌آوری کرده است، شفافیت بیشتری داشته باشد؟
  5. آیا Panoptica باید تکنولوژی‌های خود را با کشورهای دیگر به اشتراک بگذارد تا به مقابله با جرایم سایبری در سطح جهانی کمک کند؟

 

این سوالات و مباحث می‌توانند به درک بهتر مسائل اخلاقی و اجتماعی مرتبط با استفاده از هوش مصنوعی در سیستم‌های اجرای قانون کمک کنند و راه‌حل‌های مناسبی برای بهبود و بهینه‌سازی این سیستم‌ها ارائه دهند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *