Машинное обучение. Метрические методы. К.В. Воронцов, Школа анализа данных, Яндекс.
Метод ближайшего соседа является, пожалуй, самым простым методом классификации. Разбирая один за другим его недостатки, мы приходим к методам взвешенных ближайших соседей, парзеновского окна, потенциальных функций… и осознаём, что снова пришли к линейному классификатору. Отбор эталонных объектов в ленивом обучении в некоторых задачах позволяет радикально уменьшить объём хранимых данных, а, если повезёт, то и улучшить качество классификации. Идея, что схожим объектам должны соответствовать схожие ответы, в регрессии приводит к непараметрическим методам типа ядерного сглаживания. Выводы на удивление те же, что и для классификации: подбор ширины окна принципиально важен для оптимизации качества модели, а выбор ядра сглаживания отвечает лишь за её гладкость. В конце рассматривается проблема обнаружения и отсева выбросов.
2 views
1
0
2 years ago 00:30:34 18
Машинное обучение
3 years ago 01:00:24 16
17. Машинное обучение ПМИ: машинное обучение на графах
4 years ago 01:10:42 34
Квантовое машинное обучение
4 years ago 01:13:56 17
Машинное обучение 8
4 years ago 01:09:15 14
Машинное обучение 15
5 years ago 00:52:49 23
Машинное обучение. Энтропия.
8 years ago 00:10:05 131
#тренды | Машинное обучение
3 years ago 02:33:23 16
Машинное обучение. Регрессия
4 years ago 01:21:22 10
Машинное обучение 10
4 years ago 01:33:21 10
Машинное обучение 12
4 years ago 00:52:30 14
Машинное обучение в больших корпорациях
6 years ago 00:57:59 26
Занятие 1 | Машинное обучение
2 years ago 00:11:08 14
#13. Логистическая регрессия. Вероятностный взгляд на машинное обучение | Машинное обучение