شنبه ۳ آذر ۱۴۰۳

مقالات

سنجش الکترونیکی

  فایلهای مرتبط
سنجش الکترونیکی
در چند سال گذشته دوره‌های گسترده آزاد آنلاین (MOOC) به شکل فزاینده‌ای محبوب شده‌اند. «گسترده» عنوان شدن این دوره‌ها در ارتباط با تعداد یادگیرندگان ثبت‌نام‌شده‌شان است. محتوای این دوره‌ها معمولاً واحدهایی صوتی، تصویری و متنی هستند که از طریق اینترنت ارسال می‌شوند و رایگان‌اند. ثبت‌نام در این دوره‌ها از هزاران تا صدها هزار نفر متغیر است. البته در سال ۲۰۱۴، با گسترش موک‌ها انتظار می‌رفت ثبت‌نام یادگیرندگان تا ۱۰۰ درصد افزایش یابد. این پیش‌بینی دو سال پس از آن صورت گرفت که نیویورک‌تایمز سال ۲۰۱۲ را به‌عنوان سال موک نام‌گذاری کرد. از آنجا که تعداد موک‌ها در حال رشد است، در سنجش و ارزشیابی در موک، به‌عنوان بخشی مهم از این سیستم، تمرکز فزاینده‌ای وجود دارد. به دلیل ثبت‌نام‌های زیاد در هر موک، برای مربی غیرممکن است بتواند تکالیف را ارزیابی و فعالیت‌های هر دانش‌آموز را ارزشیابی کند. در نتیجه برای ردیابی و پیش‌بینی رفتار یادگیرنده به هنگام تکمیل ارزیابی موک، سیستم‌های هوشمندی طراحی‌شده‌اند. این ارزیابی‌های خودکار شرایط لازم برای نمره دهی به عملکرد دانش‌آموز و ارائه بازخورد لازم به آن‌ها را فراهم آورده است. این شیوه از ارزیابی به معلمان کمک می‌کند دانش‌آموزان را رتبه‌بندی و در فرایند یادگیری از آن‌ها حمایت کنند.

ارزشیابی در موک

ارزشیابی موضوع مهمی است که باید بررسی شود، زیرا می‌تواند در یادگیری ابزار قدرتمندی باشد؛ حتی در مورد موک. ارزیابی‌ها می‌توانند نتایج مثبت یا منفی داشته باشند، چراکه بر یادگیری و انگیزه یادگیرندگان تأثیر می‌گذارند. آن‌ها می‌توانند یادگیری را، هم بسنجند و هم از آن پشتیبانی کنند. از آنجا که هزاران موک وجود دارد، ارزیابی هر دوره به‌صورت جداگانه امکان‌پذیر نیست. بنابراین، سیستم‌عامل‌های ارائه‌دهنده این دوره‌ها، ارزشیابی را با تست‌هایی چندگزینه‌ای یا فعالیت‌هایی محاسباتی ارزیابی می‌کنند که امکان طبقه‌بندی و تصحیح خودکار آن‌ها توسط رایانه وجود داشته باشد.


برخی از موک‌ها از سؤالات باز پاسخ و انشایی به‌عنوان روش ارزشیابی مطلوب استفاده می‌کنند، چون شیوه چندگزینه‌ای نمی‌تواند مهارت‌های سطوح بالای یادگیری را به اندازه سؤالات باز پاسخ ارزیابی کند. اما تصحیح و نمره‌گذاری سؤالات باز پاسخ نیز با ماشین به‌دقت انسان امکان‌پذیر نیست. از سوی دیگر، بدون شک مشارکت مدرسان در ارزیابی هزاران تکلیف باز پاسخ غیرممکن است. به همین دلیل، موک‌ها به دنبال شیوه‌های جدیدی از ارزیابی بودند. برای مثال ای دی ایکس  از سیستمی به نام «Automated Essay Scoring» استفاده می‌کند که باوجود عملکرد مثبت در شناسایی و گزارش خطاهای دستوری، خطاهای استفاده کلمات، تنوع جملات، سبک، پیچیدگی متن، واژگان، تراز کردن محتوا با متن، ایده‌های حمایتی، نتیجه‌گیری و بخش‌های بی‌ربط، به دلیل محدود کردن رتبه‌بندی بر اساس عوامل سطحی، و نداشتن توانایی امتیازدهی به خلاقیت، طنز یا دریافت استعاره‌ها، مورد انتقاد قرارگرفته است و قادر به ارزیابی متون به روش ارزیابی‌کننده‌های انسانی نیست. این موضوع، این شبهه را ایجاد کرد که سیستم رایانه‌ای قادر به ارزشیابی فعالیت‌های دانش‌آموزان نیست و به ارزیاب‌های انسانی نیاز است.

از آنجا که ارزیابی تکالیف هزاران یادگیرنده توسط مربیان غیرممکن است، دو موک بزرگ کور سرا و ای دی ایکس (2016) از ارزیابی همتا و خودارزیابی استفاده می‌کنند. به‌طور خاص، کور سرا از یک نظام ارزیابی «همتای واسنجی شده» استفاده می‌کند. در این نظام یادگیرندگان ابتدا برخی تکالیف را که قبلاً مربی تصحیح کرده است، نمره‌گذاری می‌کنند. سپس سیستم میزان توافق بین نمره مربی و یادگیرنده را بررسی و نمرات داده‌شده توسط یادگیرندگان را واسنجی می‌کند و با توجه به میزان توافق، به یادگیرندگانِ شاخص صلاحیت داوری داده می‌شود. سپس هنگامی‌که یادگیرندگان تکالیف همتایان خود را ارزیابی می‌کنند، این درجه را می‌توان مطابق با شاخص صلاحیت داوری، کم‌وبیش به‌عنوان نمره نهایی آنان در نظر گرفت.

در شیوه ارزیابی همتایان، یادگیرندگان تکالیف چهار یا پنج نفر از همتایان خود را با استفاده از یک ‌روال ارزیابی می‌کنند و بقیه نیز به همان ترتیب تکالیف اینان را ارزیابی می‌کنند. بعضی از دوره‌ها نیز شرایط خودارزیابی را ارائه می‌کنند.

اما در ای دی ایکس (2016) برای تکالیف باز پاسخ دانش‌آموزان، وقتی‌که توسط همتایان خودارزیابی و ارزشیابی می‌شوند، فقط نمره همتایان به آن‌ها داده می‌شود و خودارزیابی در نظر گرفته نمی‌شود. این بدان معناست که در این نظام، خودارزیابی تا حدی دست‌کم گرفته‌شده است. ارزیابی در کورسرا و ای دی ایکس می‌تواند پایانی یا تکوینی باشد. ارزیابی برای یادگیری یا تکوینی قصد دارد از یادگیری پشتیبانی کند، درحالی‌که ارزیابی پایانی با درجه‌بندی، گواهی‌نامه و مدرک همراه است. توضیح آنکه یادگیرندگان برای به دست آوردن گواهی‌نامه در هر دو نظام، ملزم به پرداخت هزینه هستند.


نتیجه‌گیری

از آنجاکه چرخه آموزش- یادگیری- ارزیابی در موک شکسته شده است، بدون ارزیابی سازنده و بازخورد، موک به نمایشگر مقداری اطلاعات نه‌چندان ارزشمند تبدیل خواهد شد تا تجربه‌های آموزشی مفید! اگرچه در راه‌حل‌های ارائه‌شده سعی شده ارزیابی‌های سازنده به موک برگردانده شود، اما هر شیوه از ارزیابی  محدودیت‌ها و مشکلات خاص خود را دارد. تا به امروز کاربردی‌ترین روش برای همه موک‌ها، استفاده از همتاسنجی برای ارائه بازخورد لازم است. هر چند که این شیوه ارزیابی نیز از کمبود اعتبار رنج می‌برد.

در آموزش سنتی کلاسی، از همتاسنجی برای تسهیل مباحث کلاس استفاده می‌شود، اما در موک همتاسنجی در یک محیط بسیار متفاوت صورت می‌گیرد. اولین و بدیهی‌ترین موضوع در این مقایسه، مقیاس است. برای یک تکلیف واحد در یک موک، ده‌ها تا صدها هزار همکار بالقوه وجود دارد که بیش از صدها هزار مورد ارسالی را ارزیابی می‌کنند. تفاوت دوم در این است که به دلیل مقیاس، وساطت، نظارت و راهنمایی مربی بسیار اندک است یا اصلاً وجود ندارد. تفاوت سوم در این است که در موک‌ها، شرکت‌کنندگان بین‌المللی هستند و در زبان، فرهنگ، جهان‌بینی و ارزش‌های آن‌ها تفاوت‌های زیادی وجود دارد. ضمن اینکه بدون نظارت مربی، یادگیرندگان نیز احساس مسئولیت و انگیزه کمی برای جدی گرفتن روند ارزیابی همتایان خود دارند. فرا تحلیل لی و همکاران (2016)، با بررسی مقالات ارزیابی همتایی که در 15 سال گذشته منتشر شده‌اند، نشان داد همتاسنجی وقتی بر کاغذ مبتنی است، با ارزیابی معلم همبستگی بیشتری دارد تا زمانی که مبتنی بر رایانه است. همچنین، وقتی ارزیابی‌ها داوطلبانه باشند، همبستگی بالاتری با ارزیابی معلم خواهند داشت. نکته آخر اینکه وقتی یادگیرندگان در ایجاد معیارهای رتبه‌بندی شرکت دارند، ارزیابی همتایان دقیق‌تر است.


 

منابع

 

 

1. Admiraal, W., Huisman, B., & Pilli, O. (2015). Assessment in Massive Open Online Courses. Electronic Journal of E-learning, 13(4), 207-216.

2. Balfour, S. P. (2013). Assessing Writing in MOOCs: Automated Essay Scoring and Calibrated Peer Review™. Research & Practice in Assessment, 8, 40-48.

3. Chauhan, A. (2014). Massive open online courses (MOOCS): Emerging trends in assessment and accreditation. Digital Education Review, (25), 7-17.

4. Costello, E., Holland, J., & Kirwan, C. (2018). The future of online testing and assessment: question quality in MOOCs. International Journal of Educational Technology in Higher Education, 15(1), 42.

5. Li, H., Xiong, Y., Zang, X., L. Kornhaber, M., Lyu, Y., Chung, K. S., & K. Suen, H. (2016). Peer assessment in the digital age: a meta-analysis comparing peer and teacher ratings. Assessment & Evaluation in Higher Education, 41(2), 245-264.

6. Suen, H. K. (2014). Peer assessment for massive open online courses (MOOCs). The International Review of Research in Open and Distributed Learning, 15(3).

7. Timmis, S., Broadfoot, P., Sutherland, R., & Oldfield, A. (2016). Rethinking assessment in a digital age: Opportunities, challenges and risks. British Educational Research Journal, 42(3), 454-476.

8. Ventista, O. M. (2018). Self-assessment in Massive Open Online Courses. E-Learning and Digital Media, 15(4), 165-175.

 

۱۰۲۱
کلیدواژه (keyword): رشد فناوری آموزشی,پژوهش و ارزشیابی آموزشی,سنجش الکترونیکی,همتاسنجی,موک,
برای نظر دادن ابتدا باید به سیستم وارد شوید. برای ورود به سیستم روی کلید زیر کلیک کنید.