پنج شنبه ۶ شهریور ۱۴۰۴

مقالات

لبه‌های تاریک هوش مصنوعی

  فایلهای مرتبط
لبه‌های تاریک هوش مصنوعی
برخی از متخصصان اعتقاد دارند، اگرچه هوش مصنوعی در آموزش و مؤسسه‌ها و محیط‌های رسمی آموزشی ظرفیت قابل‌توجهی ارائه می‌دهد، اما تهدیدهایی در پی دارد که باید به‌دقت موردتوجه قرار گیرند و به آن‌ها پرداخته شود تا اطمینان حاصل شود که ترکیب هوش مصنوعی در آموزش، اخلاقی، مؤثر و حامی است. هوش مصنوعی چندین تهدید بالقوه در جنبه‌های اجتماعی، فنی و اخلاقی در آموزش ایجاد می‌کند.

مقدمه

با وجود توانایی هوش مصنوعی در متحول‌کردن آموزش، محققان و معلمانی که در فعالیت‌ها یا نظام‌های مرتبط درگیرند، با چالش‌های متعددی نیز روبه‌رو هستند، زیرا هوش مصنوعی ذاتاً یک «زمینه به‌شدت وابسته به فناوری» است. یونسکو در سال 2019 شش چالش را برای استفاده از هوش مصنوعی در آموزش مشخص کرده است:

1. سیاست‌گذاری عمومی جامع: ایجاد سیاستی جامع در هدایت، توسعه و استفاده از هوش مصنوعی در آموزش که منافع همه ذی‌نفعان را در نظر بگیرد.

2. فراگیری و عدالت: اطمینان از اینکه همه دانش‌آموزان، صرف‌نظـر از مـوقعیت اجتماعــی و اقتصــادی، به ابـزارها و مزیت‌های هوش مصنوعی در آموزش دسترسی داشته باشند.

3. آماده‌سازی معلمان برای آموزش مبتنی بر هوش مصنوعی: ارتقای دانش و مهارت معلمان برای استفاده مؤثر از ابزارهای هوش مصنوعی در فرایند یادگیری.

4. آماده‌سازی هوش مصنوعی برای درک آموزش: توسعه سامانه‌‌هایی از هوش مصنوعی که در درک پیچیدگی‌های یادگیری انسانی و ارائه پشتیبانی مناسب به دانش‌آموزان توانا باشند.

5. توسعه سامانه‌های داده باکیفیت و فراگیر: ایجاد سامانه‌هایی برای جمع‌آوری و مدیریت داده‌های آموزشی که هم از نظر کیفیت و هم از نظر فراگیربودن (نمایندگی طیف‌های متنوع دانش‌آموزان) در سطح مطلوبی باشند.

6. معنـادارکـردن تحقیـقات در ایـن حـوزه: اطمینان از اینکه تحقیقات انجام‌شده در حوزه هوش مصنوعی در آموزش، به راه‌حل‌هایی عملی و قابل‌اجرا برای بهبود کیفیت آموزش منجر شود.

در سطح فردی، چالش‌ها گستره وسیعی دارند. از عیب‌های مهم اجتماعی سوگیری، تبعیض، نابرابری برای گروه‌های به‌حاشیه‌رانده‌شده دانش‌آموزان و بیگانه‌هراسی، تا مسائل اخلاقی مربوط به حریم خصوصی و سوگیری در جمع‌آوری و پردازش داده‌ها را می‌توان نام برد. در واقع، پیامدهای گسترده هوش مصنوعی در آموزش همچنین به نگرانی‌های نوظهوری در مورد واقعیت‌های منفی آن منجر شده‌اند؛ مانند:

• توسعه شکاف نابرابری بین یادگیرندگان: ابزارهای هوش مصنوعی ظرفیت تشدید نابرابری‌های موجود در آموزش را دارند؛ به‌ویژه اگر دانش‌آموزانی از خانواده‌های کم‌درآمد به فناوری لازم برای استفاده از این ابزارها دسترسی نداشته باشند.

• تجاری‌سازی آموزش: این نگرانی وجود دارد که تمرکز بر هوش مصنوعی در آموزش به تجاری‌سازی بیش ‌از حد آموزش منجر شود و دسترسی به آموزش باکیفیت را برای کسانی که توانایی پرداخت هزینه‌های بالا را ندارند، محدود کند.

• تقویت شکاف بین خانه و مدرسه: استفاده از هوش مصنوعی در آموزش ممکن است شکاف بین خانه و مدرسه را برای دانش‌آموزانی که در خانه به منابع آموزشی کافی دسترسی ندارند، بیشتر کند.

هوش مصنوعی ممکن است در همه ابعاد فراگیر شود، به‌نحوی که افراد درگیر در آن، حتی بدون آگاهی از خطرات بالقوه، در معرض آن‌ها قرار گیرند. این مانع‌ها، ضرورت آگاهی‌بخشی و آشنایی معلمان و دانش‌آموزان با مسائل اخلاقی پیرامون هوش مصنوعی در آموزش و نحوه برخورد با آن‌ها را برجسته می‌کند. علاوه بر این، هوش مصنوعی در آموزش، پیامدهایی اخلاقی و خطرهایی درباره حریم خصوصی نیز در پی دارد که نیازمند توجهی ویژه برای تمایز قائل‌شدن بین «انجام کارهای اخلاقی» و «انجام کارها به شکل اخلاقی» است (هولمز و همکاران، ۲۰۲۱). همان‌طور که راسل و نورویگ (۲۰۰۲) بیان می‌کنند، «همه محققان هوش مصنوعی باید به پیامدهای اخلاقی کار خود توجه داشته باشند.» قطعاً پژوهش‌های فراوانی ظهور مضمون‌های اخلاقی متناقضی را در رابطه با هوش مصنوعی به‌طور کلی و هوش مصنوعی در آموزش نشان داده‌اند. بسیـاری از این مضمون‌هـا با موضـوع مسئـولیت‌پذیری در قبـال داده‌هـا در محیط‌هـای گوناگون آموزشـی مـرتبط هستند؛ از جمـله آمـوزش عالـی، دوره‌هـای ابتدایی و متوسطه، مدرسه‌ها و موضوعات درسی.

همان‌طور که ذکر شد، این مضمون‌ها شامل موارد زیر می‌شوند:

• موافقت آگاهانه: آیا دانش‌آموزان و والدین آن‌ها به‌طور کامل از نحوه استفاده از داده‌هایشان در ابزارهای هوش مصنوعی در آموزش مطلع هستند و آگاهانه رضایت خود را اعلام کرده‌اند؟

• نقض حریم خصوصی: آیا ابزارها به‌گونه‌ای طراحی شده‌اند که از حریم خصوصی دانش‌آموزان محافظت کنند؟

• داده‌های مغرضانه: آیا داده‌هایی که برای آموزش سامانه‌‌های هوش مصنوعی استفاده می‌شوند، عاری از هر گونه سوگیری هستند؟ این سوگیری‌ها می‌توانند به نتایج ناعادلانه برای برخی از دانش‌آموزان منجر شوند.

• عدالت: آیا ابزارهای هوش مصنوعی به‌گونه‌ای عمل می‌کنند که به همه دانش‌آموزان فرصت یادگیری برابر بدهند؛ صرف‌نظر از پیشینه یا توانایی‌های آن‌ها؟

• مسئولیت‌پذیری: چه کسی مسئول عملکرد و خروجی‌های ابزارهای هوش مصنوعی است؟ در صورت بروز مشکل یا سوگیری در نتایج، چه کسی پاسخ‌گو خواهد بود؟

• اشتباهات آماری: آیا الگوهایی که در داده‌های آموزشی مشاهده می‌شوند، واقعاً نشان‌دهنده یادگیری هستند یا صرفاً تصادفی‌اند؟

علاوه بر این موارد، برخی از محققان، مثل لاکین، تأثیر حـوزه‌های مرتبـط با هوش مصنوعی، مانند نظارت و رضایت، حـریم خصـوصی یادگیـرنده، پیکربندی هویت، محرمانگی کاربر، درستی و جامعیت داده‌ها (2017) را نیز زیر سؤال مـی‌بـرند. جریـان دیگـری از مباحث روی اخلاق داده‌هایی که برای استفـاده آموزشـی و تحلیـل یادگیـری در نظر گرفته شده‌اند، متمرکز شده است. این مباحث همچنین حوزه‌های تفسیر و مدیریت داده، دیدگاه‌های متعدد در مورداستفاده از داده و روابط قدرت بین ذی‌نفعان درگیر مانند دانش‌آموزان، معلمان و اهداف آموزشی را در بر می‌گیرد. موضوعات اخلاقی دیگر برای هوش مصنوعی در آموزش شامل این موارد هستند:

• مشکلات مربوط به جمع‌آوری داده: آیا روش‌های جمع‌آوری داده به‌اندازه کافی شفاف و اخلاقی هستند؟

• محدودیت دسترسی به منابع داده: آیا همه توسعه‌دهندگان و محققان هوش مصنوعی در آموزش به منابع داده باکیفیت دسترسی دارند؟

• سوگیری و بازنمایی: آیا داده‌های استفاده‌شده در هوش مصنوعی به‌گونه‌ای انتخاب و پردازش می‌شوند که همه گروه‌های دانش‌آموزی را به‌طور عادلانه نمایندگی کنند؟

• مالکیت و اختیار داده: چه کسی مالک داده‌های آموزشی است و چه کسی اختیار آن را بر عهده دارد؟

• استقلال داده: آیا دانش‌آموزان اختیار نحوه استفاده از داده‌های خود را دارند؟

• سامانه‌‌های هوش مصنوعی در آموزش و کنش انسانی: چگونه می‌توان اطمینان حاصل کرد سامانه‌های هوش مصنوعی در فرایند یادگیری جایگزین نقش معلم و کنش انسانی نشوند؟

 

جمع‌بندی

در نهایت، درک کامل این ارزش‌ها و اصول قبل از اتخاذ تصمیم‌های اخلاقی و مبتنی بر مسئولیت‌پذیری در آموزش و همچنین آگاهی از پیامدهای احتمالی و حتی غیرمنتظره، کاملاً ضروری است. این اواخر برای ایجاد چارچوب‌های اخلاقی در استفاده عمومی از هوش مصنوعی تلاش‌هایی صـورت گرفتـه‌اند. به‌عنـوان مثـال، گفتـه مـی‌شـود مسائل اخلاقـی و حریـم خصـوصـی باید متناسب با بافت آموزشی در نظر گرفته شوند. بنابراین، دستورالعمل‌های قبلی که در سایر رشته‌هـا تدویـن شده‌اند، ممکن است برای آموزش مناسـب نباشنـد. رویکـرد مبتنـی بر بـافت برای طراحی و استفـاده اخلاقـی از هوش مصنـوعی در آموزش می‌تواند در رسیدگـی به مسـائل مربوط به نگرانی‌های اخلاقی و حریم خصوصی در بستر آموزش نقشی اساسی ایفا کند. پیشینه تحقیقاتی بر اهمیت بستر اجتماعی‌فنی تأکید کرده است که فناوری آموزشی و شیوه‌های آموزشی در ملاحظات اخلاقی شکل گرفته‌اند. درک مسائل اخلاقی و حریم خصوصی از دیدگاه‌های متفاوت می‌تواند طراحی هوش مصنوعی در آموزشی اخلاقی و قابل‌اعتماد و همچنین پذیرش چنین سامانه‌هایی را تسهیل کند.

 

 

۲۷
کلیدواژه (keyword): رشد فناوری آموزشی، پرونده ویژه، اخلاق، آموزش، لبه های تاریک هوش مصنوعی، مریم فلاحی
برای نظر دادن ابتدا باید به سیستم وارد شوید. برای ورود به سیستم روی کلید زیر کلیک کنید.