Минимизация эмпирического риска при построении монотонных композиций классификаторов
Автор: Гуз И.С.
Журнал: Труды Московского физико-технического института @trudy-mipt
Рубрика: Математика, управление, экономика
Статья в выпуске: 3 (11) т.3, 2011 года.
Бесплатный доступ
В работе описывается метод обучения монотонного классификатора, минимизиру- ющий эмпирический риск. На основе этого метода синтезируется монотонная ком- позиция, построенная над результатом работы нескольких независимо обученных алгоритмов. Проводится исследование качества классификации монотонной компо- зиции на реальных задачах в зависимости от числа и типа алгоритмов, входящих в ее состав.
Короткий адрес: https://sciup.org/142185760
IDR: 142185760
Список литературы Минимизация эмпирического риска при построении монотонных композиций классификаторов
- Гуз И.С. Нелинейные монотонные композиции классификаторов//ММРО-13. -2007. -С. 111-114.
- Barlow R.E., Bartholomew D.J., Bremner J.M., Brunk H.D. Statistical inference under order restrictions; the theory and application of isotonic regression. New York: Wiley, 1972
- Воронцов К.В. Локальные базисы в алгебраическом подходе к проблеме распознавания: диссертация на соискание ученой степени к.ф.-м.н., М.: ВЦ РАН -1999.
- Hopcroft J.E., Karp R.M. An n 5/2 algorithm for maximum matchings in bipartite graphs, SIAM Journal on Computing 2 (4): 225-231
- Kхnig D. Gr afok es m atrixok. Matematikai es Fizikai Lapok 38: 116-119.
- Воронцов К.В. Комбинаторный подход к оценке качества обучаемых алгоритмов//Математические вопросы кибернетики. -2004. -№ 13. -С. 5-36.
- Quinlan R. 2011, http://rulequest.com/see5-win.html
- Breiman L., Friedman J.H., Olshen R.A., Stone C.J. Classification and regression trees. Monterey, CA: Wadsworth & Brooks/Cole Advanced Books & Software. 1984
- Loh W.-Y., Shih Y.-S. Split selection methods for classification trees, Statistica Sinica. -1997. -V. 7. -P. 815-840.
- Kass G.V. An Exploratory Technique for Investigating Large Quantities of Categorical Data. Applied Statistics. -V. 29, N 2. -1980. -P. 119-127.
- Fine T.L. Feedforward Neural Network Methodology, 3rd ed. -New York: Springer-Verlag. -1999.
- Cover T.M., Hart P.E. Nearest neighbor pattern classification. IEEE Transactions on Information Theory 13 (1): 21-27.
- Agresti A. Building and applying logistic regression models. An Introduction to Categorical Data Analysis. Hoboken, New Jersey: Wiley. P. 138.
- Cortes C., Vapnik V. Support-Vector Networks, Machine Learning, 20, 1995.
- Воронцов К.В. Оптимизационные методы линейной и монотонной коррекции в алгебраическом подходе к проблеме распознавания//ЖВМ и МФ. -2000. -Т. 40, № 1. -С. 166-176.
- Рудаков К.В., Воронцов К.В. О методах оптимизации и монотонной коррекции в алгебра-ическом подходе к проблеме распознавания. Доклады РАН. -1999. -Т. 367, № 3. -С. 314-317.
- Воронцов К.В. Комбинаторные обоснования обучаемых алгоритмов//ЖВМ и МФ. -2004. -Т. 44, № 11. -С. 2099-2112.
- Журавлёв Ю.И. Об алгебраическом подходе к решению задач распознавания или классификации//Проблемы кибернетики. -1978. -Т. 33. -С. 5-68.
- Freund Y., Schapire R.E. A decision-theoretic generalization of on-line learning and an application to boosting. European Conference on Computational Learning Theory. -1995. -P. 23-37
Статья научная