Минимизация эмпирического риска при построении монотонных композиций классификаторов

Бесплатный доступ

В работе описывается метод обучения монотонного классификатора, минимизиру- ющий эмпирический риск. На основе этого метода синтезируется монотонная ком- позиция, построенная над результатом работы нескольких независимо обученных алгоритмов. Проводится исследование качества классификации монотонной компо- зиции на реальных задачах в зависимости от числа и типа алгоритмов, входящих в ее состав.

Короткий адрес: https://sciup.org/142185760

IDR: 142185760

Список литературы Минимизация эмпирического риска при построении монотонных композиций классификаторов

  • Гуз И.С. Нелинейные монотонные композиции классификаторов//ММРО-13. -2007. -С. 111-114.
  • Barlow R.E., Bartholomew D.J., Bremner J.M., Brunk H.D. Statistical inference under order restrictions; the theory and application of isotonic regression. New York: Wiley, 1972
  • Воронцов К.В. Локальные базисы в алгебраическом подходе к проблеме распознавания: диссертация на соискание ученой степени к.ф.-м.н., М.: ВЦ РАН -1999.
  • Hopcroft J.E., Karp R.M. An n 5/2 algorithm for maximum matchings in bipartite graphs, SIAM Journal on Computing 2 (4): 225-231
  • Kхnig D. Gr afok es m atrixok. Matematikai es Fizikai Lapok 38: 116-119.
  • Воронцов К.В. Комбинаторный подход к оценке качества обучаемых алгоритмов//Математические вопросы кибернетики. -2004. -№ 13. -С. 5-36.
  • Quinlan R. 2011, http://rulequest.com/see5-win.html
  • Breiman L., Friedman J.H., Olshen R.A., Stone C.J. Classification and regression trees. Monterey, CA: Wadsworth & Brooks/Cole Advanced Books & Software. 1984
  • Loh W.-Y., Shih Y.-S. Split selection methods for classification trees, Statistica Sinica. -1997. -V. 7. -P. 815-840.
  • Kass G.V. An Exploratory Technique for Investigating Large Quantities of Categorical Data. Applied Statistics. -V. 29, N 2. -1980. -P. 119-127.
  • Fine T.L. Feedforward Neural Network Methodology, 3rd ed. -New York: Springer-Verlag. -1999.
  • Cover T.M., Hart P.E. Nearest neighbor pattern classification. IEEE Transactions on Information Theory 13 (1): 21-27.
  • Agresti A. Building and applying logistic regression models. An Introduction to Categorical Data Analysis. Hoboken, New Jersey: Wiley. P. 138.
  • Cortes C., Vapnik V. Support-Vector Networks, Machine Learning, 20, 1995.
  • Воронцов К.В. Оптимизационные методы линейной и монотонной коррекции в алгебраическом подходе к проблеме распознавания//ЖВМ и МФ. -2000. -Т. 40, № 1. -С. 166-176.
  • Рудаков К.В., Воронцов К.В. О методах оптимизации и монотонной коррекции в алгебра-ическом подходе к проблеме распознавания. Доклады РАН. -1999. -Т. 367, № 3. -С. 314-317.
  • Воронцов К.В. Комбинаторные обоснования обучаемых алгоритмов//ЖВМ и МФ. -2004. -Т. 44, № 11. -С. 2099-2112.
  • Журавлёв Ю.И. Об алгебраическом подходе к решению задач распознавания или классификации//Проблемы кибернетики. -1978. -Т. 33. -С. 5-68.
  • Freund Y., Schapire R.E. A decision-theoretic generalization of on-line learning and an application to boosting. European Conference on Computational Learning Theory. -1995. -P. 23-37
Еще
Статья научная