Классификаторы образцов
|
|
Априорную плотность вероятности можно оценить различными способами. В параметрических методах пред полагается, что плотность вероятности (PDF) является функцией определенного вида с неизвестными параметрами. Например, можно попробовать приблизить PDF при помощи гауссовой функции. Для того чтобы произвести классификацию нужно предварительно получить оценочные значения для вектора среднего и матрицы ковариаций по каждому из классов данных и затем использовать их и решающем правиле. И результате получится полиномиальное решающее правило, содержащее только квадраты и попарные произведения переменных. Вся описанная процедура называется квадратичным дискриминантным анализом (QDA). В предположении, что матрицы ковариаций у всех классов одинаковы, QDA сводится к линейному дискриминантиому анализу (LDA).
|
Слава Україні!
Адмін сайту, який є громадянином України та безвиїзно перебуває в Україні на протязі всього часу повномасштабної російської агресії, зичить щастя та мирного неба всім українським хлопцям та дівчатам! Також він рекомендує українським трейдерам кращих біржових та бінарних брокерів, що мають приємні торгові умови та не співпрацюють з російською федерацією. А саме:
Exness – для доступу до валютного ринку;
RoboForex – для роботи з CFD-контрактами на акції;
Deriv – для опціонної торгівлі.
Ну, і звичайно ж, заборонену в росії компанію Альпарі, через яку Ви маєте можливість долучитися як до валютного ринку, так і до торгівлі акціями та бінарними опціонами (Fix-Contracts). Крім того, Альпарі ще цікава своїми інвестиційними можливостями. Дивіться, наприклад:
рейтинг ПАММ-рахунків;
рейтинг ПАММ-портфелів.
Все буде Україна!
|
|
В методах другого типа — непараметрических — никаких предварительных предположений о плотности вероятности не требуется. В методе "k ближайших соседей" (kNN) вычисляется расстояние между вновь поступившим образцом и векторами обучающего множества, после чего образец относится к тому классу, к которому принадлежит большинство из к его ближайших соседей. В результате этого границы, разделяющие классы, получаются кусочно линейными. Ряд применений kNN-метода будет рассмотрен в гл. 8. В различных модификациях того метода используются различные меры расстояния и специальные приемы нахождения соседей. Иногда вместо самого множества образцов берется совокупность центроидов, соответствующих кластерам в методе адаптивного векторного квантования (LVQ) (см. (168)). В других методах классификатор разбивает данные на группы по схеме дерева. На каждом шаге подгруппа разбивается надвое, и в результате получается иерархическая структура бинарного дерева. Разделяющие границы получаются, как правило, кусочно линейными и соответствуют классам, состоящим из одного или нескольких листьев дерева. Этот метод хорош тем, что он порождает метод классификации, основанный на логических решающих правилах.
Идеи древовидных классификаторов применяются в методах построения самонаращивающихся нейронных классификаторов.
|
|
|
Литература по биржевой торговле:
Бестенс Д. и др. Нейронные сети и финансовые рынки
Ван Тарп и др. Биржевые стратегии игры без риска
Грант К. Управление рисками в трейдинге
Моррис Г. Японские свечи
Пайпер Д. Дорога к трейдингу
Резго Г.Я., Кетова И.А. Биржевое дело
Рэдхэд К., Хьюс С. Управление финансовыми рисками
Сафонов В. Трейдинг. Дополнительное измерение принятия решений
Торговая система Woodies CCI
Торговая стратегия «Трейдинг без головной боли»
Тощаков И. Forex: игра на деньги. Стратегии победы
Хатсон Дж. Метод Вайкоффа
Черепков А. Теория длинных волн Н.Д. Кондратьева
Элдер А. Как фиксировать прибыль, ограничивать убытки и выигрывать от падения цен
|