به جمع مشترکان مگیران بپیوندید!

تنها با پرداخت 70 هزارتومان حق اشتراک سالانه به متن مقالات دسترسی داشته باشید و 100 مقاله را بدون هزینه دیگری دریافت کنید.

برای پرداخت حق اشتراک اگر عضو هستید وارد شوید در غیر این صورت حساب کاربری جدید ایجاد کنید

عضویت

جستجوی مقالات مرتبط با کلیدواژه « rater reliability » در نشریات گروه « ادبیات و زبان ها »

تکرار جستجوی کلیدواژه «rater reliability» در نشریات گروه «علوم انسانی»
  • معصومه احمدی شیرازی
    تحقیق کنونی به ارائه چگونگی ساخت، پردازش، و استفاده از لیست ارزیابی دوگانه تحلیلی جزئی نگر می پردازد. هدف این لیست ارتقاء پایایی ارزیابی نوشتار مصححان هم به صورت فردی و هم گروهی می باشد. لیست ارزیابی دوگانه تحلیلی جزئی نگر متشکل از 68 سوال است که در برگیرنده پنج جزء تشکیل دهنده نوشتار شامل محتوا، سازمان دهی، نحو، واژگان، و سجاوندی می باشد. با استفاده از این لیست و سوالات مربوط، هشت مصحح به ارزیابی نوشتار 20 نفر از انگلیسی آموزان فارسی زبان پرداختند. همزمان، از مصححان خواسته شد که همین 20 نوشتار را از طریق روش ارزیابی نوشتار کلی نگر تافل تصحیح کنند تا بتوان به مقایسه دو روش کلی نگر و جزئی نگر پرداخت. برای کنکاش پایایی فردی و گروهی مصححان، روش های آماری مختلفی شامل ضریب همبستگی، مدل راش ساده و چند وجهی مورد استفاده قرار گرفت. نتایج نشان داد که لیست ارزیابی دوگانه تحلیلی جزئی نگر شاخص پایایی بالاتری را هم به صورت فردی و هم گروهی در مقایسه با ارزیابی کلی نگر ایجاد می کند. تحقیقاتی که در آینده انجام خواهد گرفت، با در نظر گرفتن تعداد مصححان بیشتر و آزمودنی های تحقیق، اعتبار بیشتری بر تاثیر ارزیابی دوگانه تحلیلی جزئی نگر در مقایسه با ارزیابی نوشتار کلی نگر را کسب خواهد کرد.
    کلید واژگان: ارزیابی تحلیلی جزئی نگر, پایایی فردی مصحح, پایایی گروهی مصححان, ارزیابی نوشتار}
    Masoumeh Ahmadi Shirazi
    The present study reports the processes of development and use of an Analytic Dichotomous Evaluation Checklist (ADEC) which aims at enhancing both inter- and intra-rater reliability of writing evaluation. The ADEC consists of a total of 68 items that comprises five subscales of content، organization، grammar، vocabulary، and mechanics. Eight raters assessed the writing performance of 20 Iranian EFL students using the ADEC. Also، the raters were asked to rate the same sample of essays holistically based on Test of Written English (TWE) scale. To examine the inter-rater and intra-rater reliability of the ADEC، multiple approaches were employed including correlation coefficient، the dichotomous Rasch Model، and many-faceted Rasch measurement (MFRM). The findings of the study confirmed that the ADEC introduces higher reliability into scoring procedure compared with holistic scoring. Future research with greater number of raters and examinees may provide robust evidence to use analytic scale rather than holistic one.
    Keywords: Analytic scoring, Inter, rater reliability, Intra, rater reliability, EFL writing evaluation}
  • مهناز سعیدی*، ماندانا یوسفی، پوریا بقایی
    شواهد بیانگر این می باشد که تغییر پذیری در ارزیابی نگارش دانشجویان فقط نتیجه تفاوت مهارت نوشتاری آنها نیست بلکه عوامل بیرونی خاصی در این امر دخیلند و عوامل مرتبط با مصحح، فعالییت، موقعییت یا تعامل هر یک از اینها میتوانند در تصمیم گیری ها و استنباطها در مورد توانایی نگارش فراگیران تاثیر بگذارند. هدف این تحقیق این است که مساله تغییرپذیری را در داوری مصحح به عنوان منبع خطای سنجش در ارزیابی نگارش فراگیران زبان انگلیسی به عنوان زبان خارجه مورد بررسی قرار دهد. به این منظور مقالات 32 دانشجوی ایرانی زبان انگلیسی بوسیله شش مصحح ارزشیابی و نتایج با استفاده از مدل رش و برنامه فست مورد تحلیل قرار گرفتند. یافته ها نشان دادند که تفاوتهای معنی داری در میزان سختگیری مصحح ها وجود دارد و تعامل مصحح با فراگیر باعث ایجاد تورش در ارزشیابی میشود. از آنجایی که ارزیابی مهارت نوشتن امری ذهنی میباشد و بر اساس داوری مصحح می تواند متغیر باشد، بررسی و شناخت عواملی که باعث عینی تر شدن این ارزیابی می شود امری ضروری به شمارمی رود. ذهنی بودن روند ارزیابی مهارت نوشتن تهدیدی برای روایی آزمون است و سبب می شود که نمره فراگیر نشان دهنده مهارت واقعی وی نباشد. این تحقیق نشان می دهد چطور ارزیابی می تواند کارامد و سودمند باشد و چگونه می توان انصاف و صحت عملکرد ذهنی را سنجید.
    کلید واژگان: تورش مصحح, توانایی نگارش, سنجش چند وجهی رش, پایایی بین مصحح}
    Mahnaz Saeidi*, Mandana Yousefi, Purya Baghayei
    Evidence suggests that variability in the ratings of students’ essays results not only from their differences in their writing ability، but also from certain extraneous sources. In other words، the outcome of the rating of essays can be biased by factors which relate to the rater، task، and situation، or an interaction of all or any of these factors which make the inferences and decisions made about students’ writing ability undependable. The purpose of this study، therefore، was to examine the issue of variability in rater judgments as a source of measurement error; this was done in relation to EFL learners’ essay writing assessment. Thirty two Iranian sophomore students majoring in English language participated in this study. The learners’ narrative essays were rated by six different raters and the results were analyzed using many-facet Rasch measurement as implemented in the computer program FACETS. The findings suggest that there are significant differences among raters concerning their harshness as well as several cases of bias due to the rater-examinee interaction. This study provides a valuable understanding of how effective and reliable rating can be realized، and how the fairness and accuracy of subjective performance can be assessed.
    Keywords: Rater bias, Writing ability, Many, Facet Rasch Measurement, Inter, rater reliability}
نکته
  • نتایج بر اساس تاریخ انتشار مرتب شده‌اند.
  • کلیدواژه مورد نظر شما تنها در فیلد کلیدواژگان مقالات جستجو شده‌است. به منظور حذف نتایج غیر مرتبط، جستجو تنها در مقالات مجلاتی انجام شده که با مجله ماخذ هم موضوع هستند.
  • در صورتی که می‌خواهید جستجو را در همه موضوعات و با شرایط دیگر تکرار کنید به صفحه جستجوی پیشرفته مجلات مراجعه کنید.
درخواست پشتیبانی - گزارش اشکال