مطالعه موردی: اخلاق هوش مصنوعی؛ بهینه‌سازی مدارس

این مطالعه موردی در دانشگاه پرینستون آمریکا انجام گرفته است و موضوع آن «اخلاق» در هوش مصنوعی و چالش‌های اساسی آن است.

Princeton-AI-Ethics-Case-Study-3

مقدمه

توسعه سیستم‌های هوش مصنوعی (AI) و استقرار آنها در جامعه باعث بروز سوالات و دلمشغولی‌های اخلاقی شده است. این مطالعه موردی تخیلی به بررسی این مسائل در تقاطع AI و اخلاق می‌پردازد. در این مطالعه موردی، به بررسی بهینه‌سازی مدارس با استفاده از AI پرداخته می‌شود. مدرسه Minerva High School در پیتسبورگ، پنسیلوانیا، با چالش‌های جدی در زمینه افت تحصیلی و نرخ ترک تحصیل بالا مواجه شد و به منظور حل این مشکل، به استفاده از یک سیستم هوش مصنوعی روی آورد.

چالش‌های مدرسه Minerva

در سال 2012، مدرسه Minerva High School با حدود 3000 دانش‌آموز و 180 معلم به یک نقطه اوج نامطلوب رسید. نرخ ترک تحصیل دانش‌آموزان به 9 درصد رسید، به این معنی که از هر ده دانش‌آموز، یک نفر بدون فارغ‌التحصیلی مدرسه را ترک می‌کرد. تنها 55 درصد از دانش‌آموزان این مدرسه توانستند به موقع فارغ‌التحصیل شوند که در مقایسه با میانگین ایالتی 76.4 درصد، بسیار پایین‌تر بود. هیئت مدیره مدرسه از مدیر مدرسه، آقای Vulcani، خواست تا این مشکل را حل کند وگرنه خطر کاهش بودجه و حتی تعطیلی مدرسه وجود داشت. 

رویکرد جدید: استفاده از هوش مصنوعی

آقای Vulcani و هیئت مدیره مدرسه پیشنهاد کردند که از داده‌های گسترده‌ای که مدرسه در مورد رفتار دانش‌آموزان جمع‌آوری کرده بود، استفاده کنند. این داده‌ها شامل سوابق عملکرد، انضباطی و حضوری، استفاده از کارت‌های شناسایی اسکن‌شده توسط دانش‌آموزان برای ورود به کتابخانه، تایید حضور در کلاس، خرید تنقلات و ناهار و حتی ردیابی استفاده از اینترنت و حرکات دانش‌آموزان در سراسر محوطه مدرسه بود. این داده‌ها حجم عظیمی از اطلاعات تولید می‌کردند و هیئت مدیره پیشنهاد داد که از پیشرفت‌های موجود در علم داده و یادگیری ماشین برای تحلیل این اطلاعات و شناسایی دلایل افت تحصیلی استفاده کنند.

همکاری با شرکت Hephaestats

آقای Vulcani با یک شرکت محلی داده‌کاوی به نام Hephaestats قرارداد بست که وعده داده بود با استفاده از رویکردهای جدید در هوش مصنوعی، بینش‌های ارزشمندی در فرآیندهای تجاری ارائه دهد. آنها اهداف خاصی را تعیین کردند:

  1. شناسایی پیش‌بینی‌کننده‌های عدم تعامل دانش‌آموزان به عنوان نشانگری برای ترک تحصیل و استفاده از ابزارهای یادگیری ماشین برای شناسایی دانش‌آموزان در معرض خطر.
  2. تجهیز معلمان با اطلاعات دقیق برای تخصیص منابع و کمک به دانش‌آموزان در معرض خطر با پیشنهاد مداخلات خاص.
  3. شفافیت در نحوه استفاده از سیستم.

آقای Vulcani و هیئت مدیره مدرسه توافق کردند که پایگاه‌های داده موجود را در اختیار Hephaestats قرار دهند و به آنها دسترسی به داده‌های جدید را نیز بدهند. دانش‌آموزان و والدین آنها از این توافق‌نامه مطلع نشدند و همچنین گزینه‌ای برای خروج از این سیستم نداشتند. آقای Vulcani معتقد بود که این تصمیم به نفع همه است و با توجه به تجربه قبلی در جلب توافق والدین و مدیران، این اقدام را مناسب می‌دانست.

تحلیل داده‌ها و نتایج اولیه

شرکت Hephaestats با تحلیل گسترده‌ای از داده‌ها، به شناسایی پیش‌بینی‌کننده‌های مهم برای ترک تحصیل پرداخت. این پیش‌بینی‌کننده‌ها شامل عوامل دموگرافیک (مانند نژاد، قومیت، جنسیت، محل سکونت، زندگی خانگی)، عوامل آکادمیک (مانند نمرات، معدل، نتایج آزمون‌ها، سوابق انضباطی، حضور در کلاس‌ها) و عوامل مربوط به معلمان (مانند مدارک، درصد دانش‌آموزان ناکام در هر کلاس، سابقه تدریس) بودند. با تجمیع این داده‌ها و ترکیب آنها با داده‌های جدید، Hephaestats توانست با دقت 92 درصدی پیش‌بینی کند که آیا یک دانش‌آموز ترک تحصیل خواهد کرد یا خیر.

مداخلات و بهبود نتایج

Hephaestats با استفاده از این داده‌ها، پروفایل‌هایی از دانش‌آموزان در معرض خطر تهیه کرد و توصیه‌های خاصی برای معلمان ارائه داد. این توصیه‌ها شامل گفتگو با دانش‌آموز، تنظیم بار کاری و برنامه درسی، تماس با والدین و یا ملاقات با مشاور دانش‌آموز بود. معلمان با پیروی از این توصیه‌ها، بهبود قابل توجهی در تعامل دانش‌آموزان مشاهده کردند. همچنین، تغییراتی در محیط مدرسه اعمال شد، مانند تشویق دانش‌آموزان به تغییر دروس خود برای داشتن برنامه‌های قابل مدیریت‌تر و حذف غذاهای پرقند از کافه‌تریا.

تا پایان سال تحصیلی 2016-2017، مدرسه Minerva High School توانست نرخ فارغ‌التحصیلی چهار ساله خود را از 55 درصد به 85 درصد افزایش دهد و نرخ ترک تحصیل را از 9 درصد به 5 درصد کاهش دهد. آقای Vulcani در مصاحبه‌ای با یک خبرنگار محلی، از کار Hephaestats به عنوان یکی از عوامل اصلی این بهبود یاد کرد.

واکنش‌های دانش‌آموزان و والدین

با اعلام نتایج مثبت، مدرسه Minerva High School تصمیم گرفت که سیاست‌های جمع‌آوری و استفاده از داده‌ها را برای حفظ دقت سیستم ادامه دهد. این تصمیم باعث نارضایتی برخی از دانش‌آموزان و والدین شد. آنها از این که داده‌های دانش‌آموزان بدون اطلاع و رضایت آنها مورد استفاده قرار گرفته بود، ناراضی بودند. همچنین، برخی معلمان و مدیران نیز به طور عمومی مخالفت خود را با این سیستم ابراز کردند.

اعتراضات اخلاقی

  1. نقض حریم خصوصی: منتقدان معتقد بودند که داده‌های دانش‌آموزان بدون توجه به حساسیت آنها در اختیار Hephaestats قرار گرفته است و این ممکن است نقض قوانین حریم خصوصی باشد. همچنین، عدم کسب رضایت از دانش‌آموزان و والدین نیز مورد انتقاد قرار گرفت.
  2. غیرانسانی کردن دانش‌آموزان و معلمان: برخی دانش‌آموزان از اینکه به عنوان موضوع تحقیقاتی در یک آزمایش زنده به کار گرفته شده‌اند، ناراضی بودند. این سیستم به نظر می‌رسید که بیشتر به بهبود رتبه مدرسه توجه دارد تا به ایجاد یک فضای امن و حمایتگر برای دانش‌آموزان.
  3. عدم شفافیت: دانش‌آموزان، والدین و معلمان احساس می‌کردند که به یک فرآیند ارزیابی و شناسایی وابسته شده‌اند که نمی‌توانند آن را خود بررسی کنند. آنها خواستار شفافیت بیشتر در طراحی و اجرای سیستم بودند و درخواست دسترسی به کد منبع Hephaestats را مطرح کردند.

دفاعیات مدرسه و Hephaestats

مدرسه Minerva High School و Hephaestats در پاسخ به نگرانی‌ها، ادعا کردند که پایگاه‌های داده به صورت ناشناس‌شده ارائه شده‌اند و هیچ رکوردی از لینک بین داده‌ها و هویت دانش‌آموزان در دیتاست خام نگه‌داری نشده است. همچنین، Hephaestats از افشای الگوریتم‌های اختصاصی خود خودداری کرد و ادعا کرد که کد منبع برای عموم بی‌معنی خواهد بود.

سوالات و مباحث اخلاقی

  1. چگونه باید تصمیمات در مورد استفاده از تکنولوژی‌های AI گرفته شود و چه کسانی باید در این فرآیند دخیل باشند؟
  2. آیا مدرسه با اشتراک داده‌های دانش‌آموزان با Hephaestats حریم خصوصی آنها را نقض کرده است؟
  3. چگونه می‌توان از نابرابری در نتایج جلوگیری کرد و آیا تیم تحقیقاتی مسئولیت ویژه‌ای در قبال دانش‌آموزان در معرض خطر دارد؟
  4. آیا دانش‌آموزان باید حق دسترسی به پروفایل‌های خطر خود و امکان اعتراض به نتایج داشته باشند؟
  5. آیا استفاده از هوش مصنوعی در سیستم آموزشی باعث از بین رفتن نقش انسانی معلمان و کاهش استقلال آنها می‌شود؟
  6. چه تعادلی باید بین بهبود نتایج آموزشی و حفظ حریم خصوصی و استقلال دانش‌آموزان و معلمان برقرار شود؟

نتیجه‌گیری

این مطالعه موردی نشان‌دهنده اهمیت در نظر گرفتن مسائل اخلاقی در توسعه و استفاده از سیستم‌های هوش مصنوعی در حوزه آموزش است. سیستم Hephaestats توانست بهبودهای قابل توجهی در نتایج آموزشی مدرسه Minerva High School ایجاد کند، اما همچنان با چالش‌های اخلاقی و اجتماعی مواجه است. برای حل این مسائل، باید نگرانی‌های دانش‌آموزان، والدین و معلمان مورد توجه قرار گیرد و راه‌حل‌های مناسبی برای بهبود شفافیت، کاهش نابرابری و افزایش تعامل مثبت کاربران ارائه شود.

سوالات برای بحث

  1. چگونه باید تصمیمات در مورد استفاده از تکنولوژی‌های AI گرفته شود و چه کسانی باید در این فرآیند دخیل باشند؟
  2. آیا مدرسه با اشتراک داده‌های دانش‌آموزان با Hephaestats حریم خصوصی آنها را نقض کرده است؟ اگر بله، این نقض تا چه حد قابل توجیه است؟
  3. چگونه می‌توان از نابرابری در نتایج جلوگیری کرد و آیا تیم تحقیقاتی مسئولیت ویژه‌ای در قبال دانش‌آموزان در معرض خطر دارد؟
  4. آیا استفاده از هوش مصنوعی در سیستم آموزشی باعث از بین رفتن نقش انسانی معلمان و کاهش استقلال آنها می‌شود؟
  5. چه تعادلی باید بین بهبود نتایج آموزشی و حفظ حریم خصوصی و استقلال دانش‌آموزان و معلمان برقرار شود؟
  6. آیا Hephaestats باید پروفایل‌های خطر دانش‌آموزان را در اختیار آنها قرار دهد و امکان اعتراض به نتایج را فراهم کند؟

این سوالات و مباحث می‌توانند به درک بهتر مسائل اخلاقی و اجتماعی مرتبط با استفاده از هوش مصنوعی در سیستم‌های آموزشی کمک کنند و راه‌حل‌های مناسبی برای بهبود و بهینه‌سازی این سیستم‌ها ارائه دهند.

 

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *