مطالعه موردی : اخلاق در هوش مصنوعی؛ اپلیکیشن سلامت‌سنجی

این مطالعه موردی در دانشگاه پرینستون آمریکا انجام گرفته است و موضوع آن «اخلاق» در هوش مصنوعی و چالش‌های اساسی آن است.

Princeton-AI-Ethics-Case-Study-1

مقدمه

توسعه سیستم‌های هوش مصنوعی (AI) و استقرار آنها در جامعه باعث بروز سوالات و دلمشغولی‌های اخلاقی شده است. این مطالعه موردی تخیلی به بررسی این مسائل در تقاطع AI و اخلاق می‌پردازد. اپلیکیشن مراقبت بهداشتی خودکار Charlie یکی از این موارد است که توسط محققان دانشگاه St. Marcarius-Alexandria طراحی شده است تا مدیریت دیابت نوع 2 را ساده‌تر و کارآمدتر کند. این مطالعه به بررسی چالش‌ها و دستاوردهای اخلاقی و فنی مرتبط با این اپلیکیشن می‌پردازد.

دیابت نوع 2: چالشی جدی

دیابت نوع 2 یک بیماری مزمن است که در آن بدن فرد یا انسولین تولید نمی‌کند یا به خوبی از آن استفاده نمی‌کند، که منجر به افزایش سطح گلوکز خون می‌شود. این بیماری می‌تواند عوارض جدی مانند بیماری قلبی، سکته، نابینایی و قطع عضو را به همراه داشته باشد. در حال حاضر 30.3 میلیون نفر در ایالات متحده (9.4٪ از جمعیت) به این بیماری مبتلا هستند، که بیشتر در میان گروه‌های کم‌درآمد، بومیان آمریکا، سیاه‌پوستان و هیسپانیک‌ها شایع است. مراقبت مناسب از دیابت نوع 2 نیازمند تست‌های مکرر گلوکز خون و تزریق‌های منظم انسولین است، که می‌تواند برای افراد مبتلا به مشکلات سلامت روانی یا دسترسی ناکافی به منابع بهداشتی دشوار باشد.

توسعه اپلیکیشن Charlie

محققان بیمارستان دانشگاه St. Marcarius-Alexandria برای بهبود مدیریت دیابت نوع 2 تصمیم به همکاری با گروهی از دانشمندان کامپیوتر گرفتند و اپلیکیشنی به نام Charlie را توسعه دادند. این اپلیکیشن از تکنولوژی‌های هوش مصنوعی استفاده می‌کند تا مراقبت از دیابت را آسان‌تر، جامع‌تر و دسترسی‌پذیرتر کند. Charlie با استفاده از بیوسنسورهای ساعت‌های هوشمند، گلوکز خون را از طریق پوست تست می‌کند و دوز بهینه انسولین را برای هر کاربر محاسبه می‌کند. این اپلیکیشن همچنین داده‌های سبک زندگی (مثل مصرف کربوهیدرات پیش‌بینی شده و سطح فعالیت بدنی) و داده‌های پزشکی (مثل شرایط بهداشتی موجود) را در نظر می‌گیرد.

ویژگی‌های متمایز اپلیکیشن Charlie

Charlie دو ویژگی متمایز دارد:

  1. پلتفرم جمع‌آوری داده: داده‌های کاربران و مجموعه‌های داده ناشناس جمع‌آوری شده توسط بیمارستان دانشگاه در آزمایش‌های دیگر به الگوریتم‌های Charlie تغذیه می‌شوند، که به بهبود مداوم و ارائه توصیه‌های دقیق‌تر و شخصی‌تر دوز انسولین کمک می‌کند. همچنین، این اپلیکیشن یادآوری‌های شخصی‌سازی شده برای ورزش، تغذیه مناسب و تست گلوکز خون را ارائه می‌دهد.
  2. فروم اطلاعات و شبکه اجتماعی: فرومی برای اشتراک‌گذاری اطلاعات و شبکه اجتماعی طراحی شده است که هدف آن ایجاد فضایی برای کاربران جهت بحث و تبادل نظر درباره تحقیقات جدید و جاری در زمینه دیابت است. این فروم همچنین به عنوان یک فضای غیر رسمی برای کاربران جهت برقراری ارتباط و حمایت از یکدیگر عمل می‌کند.

نتایج اولیه و چالش‌ها

اپلیکیشن Charlie پس از تایید هیات بررسی دانشگاه (IRB) در یک آزمایش بالینی در بیمارستان دانشگاه اجرا شد و نتایج مثبتی به همراه داشت. کاربران از تحلیل‌های علمی، شخصی و منظم سلامت خود استقبال کردند و داده‌ها نشان داد که کسانی که از سیستم استفاده می‌کردند، نرخ بالاتری از تبعیت پزشکی، سطح پایین‌تر گلوکز خون و بهبود در سلامت روانی نسبت به گروه کنترل داشتند. اما این نتایج برای همه کاربران یکسان نبود و به ویژه برای اقلیت‌های نژادی نتایج به همان اندازه مثبت نبود.

نتایج فروم شبکه اجتماعی نیز مختلط بود. بحث‌ها اغلب پویا بودند، اما همه کاربران آنها را سازنده نمی‌دانستند. گزارش‌های متناقض و نظرات بعضاً به بحث‌های خصمانه منجر می‌شد و کاربران یکدیگر را به “شبه‌علم” متهم می‌کردند. این جو منفی و تجزیه‌گرا باعث شد که برخی کاربران از پلتفرم فاصله بگیرند، که با اهداف توسعه‌دهندگان در تضاد بود.

ابتکارات تیم Benevolence

تیم تحقیقاتی پشت Charlie برای رسیدگی به این مشکلات و بهبود نتایج، تیمی به نام “Benevolence” تشکیل دادند که وظیفه داشت به مسائل نابرابری و گفتگو در فروم بپردازد و راه‌های جدیدی برای “انجام خوب” با Charlie را بررسی کند. پس از نظرخواهی از کاربران و برگزاری بحث‌های آزاد، چندین ابتکار مشخص شد:

  1. بهبود نمایندگی مجموعه‌های داده:یکی از دلایل احتمالی تفاوت نتایج بین گروه‌های نژادی مختلف، کم‌نمایی اقلیت‌های نژادی در مجموعه‌های داده‌ای بود که به کار رفته بودند. تیم تصمیم گرفت از مجموعه‌های داده نماینده‌تر استفاده کند. همچنین، آنها می‌خواستند بدانند چرا برخی کاربران کمتر از اپلیکیشن تبعیت می‌کنند و چه کاری می‌توان برای بهبود آن انجام داد.
  2. اصلاح الگوریتم‌های تعدیل محتوای خودکار (ACMAs): تیم Benevolence تصمیم گرفت الگوریتم‌های ACMAs را به جای اولویت دادن به محتوای جدید، بر اساس اطلاعات پذیرفته‌شده‌تر یا تاییدشده‌تر توسط کاربران اصلاح کند.
  3. انجام آزمایش‌های کنترل‌شده:برای بهبود نتایج بهداشتی برای همه کاربران، تیم تصمیم گرفت آزمایش‌های کوچک کنترل‌شده‌ای انجام دهد تا بفهمد کدام روش‌های مدیریت دیابت نوع 2 برای هر فرد موثرتر است.

سوالات و مباحث اخلاقی

تیم Benevolence سه ابتکار اصلی داشت: بهبود نمایندگی مجموعه‌های داده و هدف‌گیری کاربران در معرض خطر، تعدیل گفتگوها، و انجام آزمایش‌ها. هر تغییر باعث شد Charlie نقش فعال‌تری در جهت‌دهی به رفتارهای کاربران ایفا کند. این تغییرات سوالات اخلاقی متعددی را مطرح کرد، از جمله:

  1. چگونه می‌توان اطمینان حاصل کرد که همه کاربران به طور برابر از Charlie بهره‌مند می‌شوند؟
  2. آیا شبکه اجتماعی باید به دلیل ناتوانی در دستیابی به اهدافش حذف می‌شد یا تعدیل بیشتری باید اعمال می‌شد؟
  3. آیا اقدامات تیم Benevolence منجر به نوعی پدرسالاری می‌شود و چگونه می‌توان بین آزادی فردی و اهداف اجتماعی متعادل شد؟
  4. آیا شفافیت الگوریتمی و نحوه استفاده از داده‌ها کافی است و کاربران به اندازه کافی در جریان قرار گرفته‌اند؟

نتیجه‌گیری

در نتیجه، اپلیکیشن Charlie بهبودهای قابل توجهی در مدیریت دیابت نوع 2 ارائه داده است، اما همچنان با چالش‌های اخلاقی و اجتماعی مواجه است. تیم تحقیقاتی باید به نگرانی‌های کاربران و مسائل اخلاقی توجه کرده و راه‌حل‌های مناسبی برای بهبود شفافیت، کاهش نابرابری و افزایش تعامل مثبت کاربران بیابد. این مطالعه موردی نشان‌دهنده اهمیت در نظر گرفتن مسائل اخلاقی در توسعه و استفاده از سیستم‌های هوش مصنوعی در حوزه بهداشت و درمان است.

تکالیف و سوالات برای بحث

  1. چگونه می‌توان از نابرابری در نتایج دیابت نوع 2 جلوگیری کرد و آیا تیم تحقیقاتی مسئولیت ویژه‌ای در قبال کاربران در معرض خطر دارد؟
  2. آیا شبکه اجتماعی باید به دلیل ناتوانی در دستیابی به اهدافش حذف شود یا تعدیل بیشتری باید اعمال شود؟ چه مزایا و معایبی دارد؟
  3. آیا تغییر نقش Charlie از ارائه‌دهنده اطلاعات به راهنما و مشوق، مسئله رضایت آگاهانه را تحت تأثیر قرار می‌دهد؟
  4. چه مسئولیت‌هایی در زمینه شفافیت داده‌ها و استفاده از اطلاعات حساس بر عهده Charlie است؟
  5. آیا تیم تحقیقاتی باید بر اساس خواسته‌های کاربران ویژگی‌های جدید را معرفی کند؟ چه ارزش‌های دیگری باید در تصمیم‌گیری‌های طراحی مورد توجه قرار گیرند؟
  6. چگونه می‌توان بین شفافیت الگوریتمی و اعتماد کاربران تعادل برقرار کرد؟

با توجه به این سوالات و مباحث، می‌توان نتیجه گرفت که توسعه و استفاده از سیستم‌های هوش مصنوعی در حوزه بهداشت و درمان نیازمند در نظر گرفتن مسائل اخلاقی و اجتماعی و ایجاد تعادل بین منافع فردی و اجتماعی است.

1 دیدگاه برای “مطالعه موردی : اخلاق در هوش مصنوعی؛ اپلیکیشن سلامت‌سنجی

  1. ملیکا هادیزاده گفته:

    حوزه Ehealth خیلی حوزه خاصیه برای کار کردن و پیچیدگی های خاص خودشو داره و انگار هنوز خیلی بین مردم مرسوم نشده. به نظرم مسئله ای که مطرحه اینه که چون مستقیما با سلامتی مردم درارتباطه خیلی نیاز داره که بدون ایراد و باگ انجام بشه. چون بر فرض مثال اگر یه باگی تو اپلیکیشن اوبر ایجاد بشه، نهایتا یک مسافر ماشین گیرش نخواهد اومد ولی در اپلیکیشن های سلامتی قطعا عوارض جدی تری وجود‌ خواهد داشت.
    از طرفی دیگه همکاری بین مهندسین و پزشکان هم خیلی مهمه. درواقع ارتباط موثر بین این دو گروه شاید بتونه خیلی از باگ ها رو رفع کنه.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *