О последовательном построении непараметрических оценок регрессии

Автор: Мангалова Е.С., Шестернева О.В.

Журнал: Сибирский аэрокосмический журнал @vestnik-sibsau

Рубрика: Математика, механика, информатика

Статья в выпуске: 3 т.16, 2015 года.

Бесплатный доступ

Универсальность методов идентификации позволяет применять их как в различных технических областях (в том числе и в ракетно-космической отрасли), так и в медицине, экономике и т. д. В последние годы большое распространение среди методов идентификации получили ансамбли моделей. Идея построения ансамбля состоит в обучении нескольких моделей с последующим их объединением. Одной из основных задач объединения нескольких моделей одного типа является устранение тех или иных недостатков определенных индивидуальных моделей. Рассматриваются некоторые особенности построения непараметрических оценок Надарая-Ватсона, связанные с наличием разреженных областей пространства входных переменных (областей, содержащих малое количество наблюдений в обучающей выборке), а также с поведением непараметрической оценки Надарая-Ватсона вблизи границ областей пространства входных переменных. Предложен подход к формированию ансамбля непараметрических оценок Надарая-Ватсона, основанный на принципах последовательного обучения. Формализована процедура построения предложенного ансамбля последовательного обучения. Приводятся некоторые рекомендации по выбору параметров при построении последовательности непараметрических оценок. Проведены численные исследования, в ходе которых было показано, что точность ансамбля непараметрических оценок Надарая-Ватсона превосходит единственную оценку как в разреженных областях пространства входных переменных, так и в областях с большим количеством наблюдений. Показана высокая точность идентификации вблизи границ пространства входных признаков, а также возможность применения ансамблевого алгоритма для экстраполяции.

Еще

Восстановление регрессии, ансамблевое обучение, непараметрическая оценка надарая-ватсона, параметр размытости

Короткий адрес: https://sciup.org/148177459

IDR: 148177459

Список литературы О последовательном построении непараметрических оценок регрессии

  • Hastie T., Tibshirani R., Friedman J. The Elements of Statistical Learning: Data Mining, Inference, and Prediction. Second Edition. 2009. 312 р.
  • Polikar R. Ensemble Based Systems in Decision Making//IEEE Circuits and Systems Magazine. third quarter. 2006. P. 21-45.
  • Kuncheva L. I. Combining Pattern Classifiers, Methods and Algorithms. New York: Wiley Interscience, 2005. 360 р.
  • Мангалова Е. С., Агафонов Е. Д. О проблеме генерации разнообразия ансамблей индивидуальных моделей в задаче идентификации //Тр. XII Всерос. совещания по проблемам управления. URL: http://vspu2014.ipu.ru/proceedings/prcdngs/3214.pdf. (дата обращения: 10.1.2015).
  • Breiman L., Friedman J. H., Olshen R. A., Stone C. J. Classification and Regression Trees. Wadsworth, Belmont, 1984.
  • Breiman L. Random Forests//Machine Learning. 2001. 45 (1). Р. 5-32.
  • Friedman J. H. Greedy Function Approximation: A Gradient Boosting Machine . URL: http://www-stat.stanford.edu/~jhf/ftp/trebst.pdf (available: 10.1.2015).
  • Friedman J. H. Stochastic Gradient Boosting . URL: http://www-stat.stanford.edu/~jhf/ftp/stobst.pdf (available: 10.1.2015).
  • Надарая Э. А. Непараметрические оценки плотности вероятности и кривой регрессии. Тбилиси: Изд-во Тбил. ун-та, 1983. 194 с.
  • Барсегян А. А., Куприянов М. С., Холод И. И. Анализ данных и процессов. СПб.: BHV, 2009. 512 c.
  • Медведев А. В. Анализ данных в задаче идентификации//Компьютерный анализ данных моделирования. Минск: Изд-во Белорус. гос. ун-та, 1995. Т. 2. С. 201-206.
  • Корнеева А. А., Сергеева Н. А., Чжан Е. А. О непараметрическом анализе данных в задаче идентификации//Управление, вычислительная техника и информатика: вестн. Том. гос. ун-та. 2013. № 1 (22). С. 86-96.
  • Медведев А. В. Непараметрические системы адаптации. Новосибирск: Наука. Сиб. отд-ние, 1983.
  • Хардле В. Прикладная непараметрическая регрессия. М.: Мир, 1993. 349 с.
  • Schapire R. E. The strength of weak learnability//Machine Learning. 1990. Vol. 5, no. 2. Pp. 197-227.
Еще
Статья научная