Методы построения ансамблей предикторов на основе выпуклых комбинаций

Обложка

Цитировать

Полный текст

Открытый доступ Открытый доступ
Доступ закрыт Доступ предоставлен
Доступ закрыт Доступ платный или только для подписчиков

Аннотация

При решении задач регрессии построение выпуклых комбинаций предикторов само по себе является эффективным методом построения ансамблей. При этом, если специально строить набор исходных предикторов с целью их дальнейшего использования в ансамбле, представляется возможным улучшить итоговое качество алгоритма. Исследуются два способа, позволяющие добиваться такого улучшения: модификация обучающих данных с помощью выборки объектов с возвращением в сочетании с методом случайных подпространств (по аналогии с методом Bootstrap Aggregating или бэггингом) и оптимизация разброса предикторов. Эффективность разработанных методов подтверждается результатами, полученными для конкретных прикладных задач.

Полный текст

Доступ закрыт

Об авторах

И. М. Борисов

Московский государственный университет им. М. В. Ломоносова

Автор, ответственный за переписку.
Email: s02210331@gse.cs.msu.ru
Россия, Москва

А. А. Докукин

Федеральный исследовательский центр «Информатика и управление» Российской академии наук

Email: dalex@ccas.ru
Россия, Москва

О. В. Сенько

Федеральный исследовательский центр «Информатика и управление» Российской академии наук

Email: senkoov@mail.ru
Россия, Москва

Список литературы

  1. Zhou Z.H. Ensemble Methods: Foundations and Algorithms. Chapman and Hall/CRC. N. Y., 2012.
  2. Hastie T., Tibshirani R., Friedman J. The Elements of Statistical Learning Data Mining, Inference, and Prediction. Springer Series in Statistics. N. Y.: Springer, 2009.
  3. Сенько О.В., Докукин А.А. Оптимальные выпуклые корректирующие процедуры в задачах высокой размерности // ЖВМ и МФ. 2011. Т. 51. № 9. С. 1751–1760.
  4. Сенько О.В., Докукин А.А. Регрессионная модель, основанная на выпуклых комбинациях, максимально коррелирующих с откликом // ЖВМ и МФ. 2015. Т. 55. № 3. С. 530–544.
  5. Senko O.V., Dokukin A.A., Kiselyova N.N., Dudarev V.A., Kuznetsova Yu.O. New Two-Level Ensemble Method and Its Application to Chemical Compounds Properties Prediction // Lobachevskii Journal of Mathematics. 2023. V. 44. № 1. P. 188–197.
  6. Докукин А.А., Сенько О.В. Новый двухуровневый метод машинного обучения для оценивания вещественных характеристик объектов // Изв. РАН ТиСУ. 2023. № 4. C. 17–24. https://doi.org/10.31857/S0002338823040029
  7. Zhuravlev Yu.I., Senko O.V., Dokukin A.A., Kiselyova N.N., Saenko I.A. Two-Level Regression Method Using Ensembles of Trees with Optimal Divergence // Doklady Mathematics. 2021. V. 104. № 1. P. 212–214.
  8. Kiselyova N.N., Stolyarenko A.V., Ryazanov V.V., Sen’ko O.V., Dokukin A.A. Application of Machine Training Methods to Design of New Inorganic Compounds // Diagnostic Test Approaches to Machine Learning and Commonsense Reasoning Systems / Eds X.A. Naidenova, D.I. Ignatov. Hershey: IGI Global, 2013. P. 197–220.
  9. Breiman L. Random forests // Machine Learning. 2001. V. 45. № 1. P. 5–32.
  10. Ho T.K. The Random Subspace Method for Constructing Decision Forests // IEEE Transactions on Pattern Analysis and Machine Intelligence. 1998. V. 20. № 8. P. 832–844.
  11. Wolpert D.H. Stacked Generalization // Neural Networks. 1992. V. 5. № 2. P. 241–259.

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML
2. Рис. 1. Гистограмма эффективности различных методов в смысле критерия топ-1.

Скачать (114KB)
3. Рис. 2. Гистограмма эффективности различных методов в смысле критерия топ-3.

Скачать (121KB)

© Российская академия наук, 2025