Açık Uçlu Soruların Çok Yüzeyli Rasch Modeli ile Analizi
Şirin Çetin1*
1Tokat Gaziosmanpaşa University, Tokat, Turkey
* Corresponding author: cetinsirin55@gmail.com
Presented at the 4th International Symposium on Innovative Approaches in Health and Sports Sciences (ISAS WINTER-2019 (HSS)), Samsun, Turkey, Nov 22, 2019
SETSCI Conference Proceedings, 2019, 12, Page (s): 108-110 , https://doi.org/10.36287/setsci.4.9.067
Published Date: 23 December 2019
Sınavlarda ölçme aracı olarak kullanılan açık uçlu sorulardan oluşan sınavlarda yansız puanlama önemlidir. Açık uçlu sorular, öğrencilere kendilerini özgür bir biçimde ifade etme olanağı sunmakta ve çeşitli becerilerin farkındalığına imkân sunmaktadır. Ayrıca kişilerin bazı konularda olan yetersizliklerini görmeyi sağlamaktadır. Ancak açık uçlu soruların birçok olumsuz noktaları da bulunmaktadır. Özelikle puanlayıcıların yanlılığı açık uçlu sınavların değerlendirilmesinde hataların ortaya çıkmasına sebebiyet vermektedir. Bu hataları ortadan kaldırmak yada açık uçlu sınav değerlendirmelerin de hatayı en aza indirgemek için farklı analiz yöntemlerine ihtiyaç duyulmaktadır. Bu sebeple çalışmamızda klasik test teorisine alternatif olarak sunulmuş Madde yanıt teorisi ile açık uçlu soruların analizi amaçlanmıştır.
Keywords - Madde Yanıt analizi, Açık Uçlu Soru, Çok Yüzeyli Rasch Modeli
1) Birenbaum, M., & Feldman, R.A. (1998) Relationships between learning patterns and attitudes towards two assessment formats. Educational Research, 40(1), 90-98.
2) Simkin, M.G., & Kuechler, W.L. (2005). Multiple-choice tests and student understanding: What is the connection. Decision Sciences Journal of Innovative Education, 3(1), 73-97.
3) Haladyna, T. M. (1997). Writing Test Item to Evaluate Higher Order Thinking. USA: Allyn & Bacon.
4) Tuckman, B.W. (1991). Evaluating the alternative to multiple-choice testing for teachers. Contemporary education, 62(4), 299-300.
5) Romagnano, L. (2001). The myth of objectivity in mathematics assessment. Mathematics Teacher, 94(1), 31-37.
6) Takunyacı, M. (2016). Çoktan seçmeli sorulara dayalı olmayan bir kitle matematik sınavı sürecinin değerlendirilmesi: Grup uyumu değerlendirme modeli, Doktora Tezi, Marmara Üniversitesi.
7) Stecher, B. (2010). Performance assessment in an era of standards-based educational accountability. Stanford, CA: Stanford University, Stanford Center for Opportunity Policy in Education.
8) Cardinet, J., Johnson, S., & Pini, G. (2010). Applying generalizability theory using EduG. New York, NY: Taylor and Francis.
9) Zhu, X. (2009). Assessing fit of item response models for performance assessments using bayesian analysis. Unpublished Doctoral Thesis, University of Pittsburgh, Pittsburgh, ABD.
10) Şahin, M. G., Taşdelen Teker, G. ve Güler, N. (2016). An analysis of peer assessment through many facet rasch model, Journal of Education and Practice, Vol 7, No 32.
11) Hambleton RK, Swaminathan H, Rogers HJ. Fundamentals of item response theory. Sage Publications; 1991).
12) Linacre, J.M. (1989, Many-facet Rasch measurement. Chicago: MESA Press.;
13) Lunz, M.E., &Wright, B.D. (1997), Latent trait models for performance examinations. In J. Rost & R. Langeheine (Eds.), Applications of latent trait and latent class models in the social sciences (pp. 80-88). Münster, Germany: Waxmann.).
14) (Linacre, J. M. (1989). 1989: Many-facet Rasch measurement. Chicago, IL: MESA Press.
![]() |
This is an Open Access article distributed under the terms of the Creative Commons Attribution License 4.0, which permits unrestricted use, distribution, and reproduction in any medium, provided the original work is properly cited. |