Концептуальные и логические модели для распределённых программных систем поддержки контрольно-измерительных мероприятий

Автор: Незнанов Алексей Андреевич, Максименкова Ольга Вениаминовна

Журнал: Программные системы: теория и приложения @programmnye-sistemy

Рубрика: Информационные системы в культуре и образовании

Статья в выпуске: 4 (35) т.8, 2017 года.

Бесплатный доступ

В статье рассмотрены подходы, модели и методы проектирования и реализации программных средств поддержки измерений в образовании как части комплексных систем поддержки учебного процесса. Основным результатом является формализация понятия контрольно-измерительного материала, его жизненного цикла и смежных понятий с технической точки зрения на современном этапе развития программной инженерии. Формализация проведена на концептуальном уровне с обсуждением некоторых вопросов реализации и обеспечения интероперабельности систем учебного назначения.

ID: 143164281 Короткий адрес: https://sciup.org/143164281

Список литературы Концептуальные и логические модели для распределённых программных систем поддержки контрольно-измерительных мероприятий

  • E. L. Baker. Ontology-based educational design: seeing is believing, Resource Paper no. 13, The Regents of the University of California, 2012.
  • D. Kabenov, R. Muratkhan, D. Satybaldina, B. Razahova. "Ontology-based testing system for evaluation of student’s knowledge", International Journal of Philosophy Study, V. 1. No. 1. 2013, 8 p.
  • M. Boushman, O. Labouidya, N. El Kamoun. "Design of a cloud learning system based on multi-agents approach", International Journal of Advanced Computer Science and Applications, V. 6. No. 3. 2015. P. 20-26.
  • D. G. Velev. "Challenges and opportunities of cloud-based mobile learning", International Journal of Information and Education Technology, V. 4. No. 1. 2014. P. 49-53.
  • А. И. Башмаков, И. А. Башмаков. Разработка компьютерных учебников и обучающих систем, Информационно-издательский дом "Филинъ", М., 2003, 616 с.
  • R. Anson, J. A. Goodman. "A peer assessment system to improve student team experiences", Journal of Education for Business, V. 89. No. 1. 2014. P. 27-34.
  • M. Freeman, J. McKenzie. "SPARK, a confidential web-based template for self and peer assessment of student teamwork: benefints of evaluating across different subjects", British Journal of Educational Technology, V. 33. No. 5. 2002. P. 551-569.
  • V. Hyyrynen, H. Hamalainen, J. Ikonen, J. Porras. "MyPeerReview: an online peer-reviewing system for programming courses", Procceedings of the 10th Koli Calling International Conference on Computing Education Research (Koli National Park, Finland, 2010). P. 94-99.
  • M. P. Conlon. "RockTest: a programming contest management system", Journal of Computing Science in Colleges, V. 20. No. 5. 2005. P. 27-35.
  • S. K. Andrianoff, D. B. Levine, S. D. Gewand, G. A. Heissenberger. "A testing-based framework for programming contests", Proceedings of the 2003 OOPSLA workshop on eclipse technology eXchange (Anaheim, California, October 2003). P. 94-98.
  • S. D. Gewand, G. Q. Heissenberger. "The Corona Project: a testing framework for programming contests", Journal of Computing Science in Colleges, V. 19. No. 5. 2004. P. 348-349.
  • D. J. Weiss. "Item banking, test development, and test delivery", The APA Handbook on Testing and Assessment, ed. Geisinger K. F., American Psychological Association, Washington DC, 2011.
  • В. В. Подбельский, О. В. Максименкова, К. С. Бабич. Об обеспечении интероперабельности программных средств поддержки тестирования в образовании//Информационные технологии, 2016, №7. С. 535-541.
  • E. Kurilovas. "Interoperability, standards and metadata for e-learning", Intelligent Distributed Computing III, Springer, Berlin, 2009. P. 121-130.
  • IMS global learning tools interoperability implementation guide, Version 1.2 Final Specification, IMS Global Learning Consortium, 2015 (data accessed: 07.04.2017).
  • Interchange schema documentation, Ed-Fi Data Standard v2.0, Ed-Fi Alliance, 2017 (data accessed: 28.04.2017), URL: https://techdocs.edfi. org/display/EFDS20/Interchange+Schema+Documentation
  • The Guide to the Systems Engineering Body of Knowledge (SEBoK), v. 1.8, BKCASE Editorial Board, 2017 (data accessed: 24.04.2017), URL: http://www.sebokwiki.org
  • P. Bourque, R. Fairley (eds.). Guide to the Software Engineering Body of Knowledge, Version 3.0, IEEE Computer Society, 2014.
  • K. Fee. Delivering E-Learning: a complete strategy for design, application and assessment, Kogan Page, 2009, 180 p.
  • Assessment Systems. Test proctoring and security, Assessment Systems (data accessed: 01.11.2016), URL: http://www.assess.com/test-delivery
  • M. McAlpine. Design requirements of a databank, Blueprint, CAA Centre, Glasgow, 2002, ISBN: 1-904020-04-6.
  • A. S. Tanenbaum, M. van Steen. Distributed systems: principles and paradigms, 2nd ed., Pearson Education, Upper Saddle River, NJ, 2016, 702 p.
  • E. T. Bradlow, H. Wainer, X. Wang. "A Bayesian random effects model for testlets", Psychometrika, 64:2. P. 153-168.
  • H. Wainer, E. T. Bradlow, X. Wang. Testlet response theory and its applications, Cambridge University Press, New York, NY, 2007.
  • M. K. Tallent-Runnels, J. A. Thomas, W. Y. Lan, S. C. C. A. M. Shaw, X. Liu. "Teaching courses online: a review of the research", Review of Educational Research, V. 76. No. 1. 2016. P. 93-135.
  • R. D. Tennyson, O. C. Park. "The teaching of concepts: a review of instructional design research literature", Review of Educational Research, V. 50. No. 1. 2016. P. 55-70.
  • A. Kolomiets, O. Maksimenkova, A. Neznanov. "On business processes of computer-supported collaborative learning: a case of peer assessment system development", Business Informatics, V. 38. No. 4. 2016. P. 35-46.
  • Microsoft Office 365 for education, Microsoft (data accessed: 28.04.2017), URL: https://www.microsoft.com/enus/education/products/office/default.aspx
Еще
Ред. заметка