Метод ближайших соседей (NN) показывает более интересные результаты, чем линейные модели. Основная проблема, впрочем, в том, что он жутко медленный. Полноценный бустинг на нем запустить нереально, потому что вариантов, которые нужно валидировать, огромное количество, в отличие от линейных моделей, где вариантов всего столько сколько входных факторов. В случае NN теоретически возможны такие связки факторов как (1,3,5)+(2,7), простой перебор займет процессор на многие сутки. Приходится вместо нормального бустинга выбирать пространство по эвристике, типа такой: отранжировать входные факторы по модулю корреляции с выходом, взять первые два, на этом пространстве и плясать. Но даже такая эвристика работает, вот результаты валидации метода для некоторых инструментов (корреляции предсказаний и реальных значений):
sber 0.150
ri 0.178
gazp 0.091
lkoh 0.085
gmkn -0.012
Наверное есть смысл запускать модель в таком виде, а потом писать какое-нибудь более быстрое приближение к бустингу например на Сях.
sber 0.150
ri 0.178
gazp 0.091
lkoh 0.085
gmkn -0.012
Наверное есть смысл запускать модель в таком виде, а потом писать какое-нибудь более быстрое приближение к бустингу например на Сях.