Рецензия на лекции первого семестра ШАД: Машинное обучение.
- Получить ссылку
- Электронная почта
- Другие приложения
Лекция (ссылка)
|
Хардкор
|
Практичность
|
Актуальность в 2019
|
Мое мнение о лекции
|
Важные понятия для понимания лекции
|
Количество просмотров
|
Полезные ссылки
|
4
|
10
|
10
|
Эта лекция обязательна к просмотру любому ML-щику,
тут за 1,5 часа все основные вещи рассказываются.
|
Методы оптимизации, понятие функционала, эмпирический риск
|
130 995
|
| |
5
|
6
|
9
|
Метрические методы - традиционно самые простые в понимании и имплементации,
но совершенно не популярные во фреймворках.
Вторую половину смотреть только тем, кто сам пишет модификации метрических алгоритмов.
|
метрика Минковского, расстояние Левенштейна,
понятие метрического пространства, понимание функций argmax / sign,
линейная алгебра (азы), МНК, ядра функций
|
39 434
| ||
7
|
9
|
10
|
В этой лекции разобрано сразу несколько способов построения деревьев, даже тех, которых вы никогда не встретите в своей жизни.
Лектор идет далеко и показывает всевозможные техники выращивания, ветвления, усечения, сбора в ансамбль.
Местами небольшой перекос под нужды Яндекса.
|
матлогика: предикаты, конъюнкции, дизъюнкции; пороговые функции;
функции свертки нескольких критериев в один;
теория информации: энтропия; понятие жадного алгоритма
|
19 438
| ||
8
|
7
|
10
|
В этой лекции вы увидите много псевдокода и еще больше теорем и доказательств.
Это лекция о простейших линейных моделях является камнем преткновения.
Если вы пришли поглядеть на линейную регрессию и не готовы говорить о тюнинге SGD, вам будет очень тяжело.
Вторая половина лекции обрушится на головы нехилым заплывом в тервер.
|
Вычислительные методы, методы оптимизации, МНК,
задание кусочно-линейных функций, доопределение функций,
градиентный спуск, понятие сходимости, принцип максимума правдоподобия,
априорное распределение, принцип максимума апостериорной вероятности,
распределение Гаусса и Лапласа
|
14 909
| ||
9
|
7
|
8
|
Неожиданный подход к SVM как к двухслойной нейросети удивляет, раскрытие полного семейства алгоритмов,
использующих опорные вектора - поразителен, я уверен, что вы и не подозревали как можно отбирать признаки в таких алгоритмах.
|
мультиколлинеарность, гиперплоскость, зайчатки линалгебры,
условия Каруша-Куна-Таккера и двойственная задача математического программирования,
функция Лагранжа, лагранжиан и седловые точки;
гильбертово пространство и ядра функций
|
14 031
| ||
6
|
5
|
7
|
Данная лекция была максимально насыщена универовской терминологией 1-2 курсов и полна матричных преобразований.
Скучновато, долговато, все разжевано. Но без нее следующая лекция будет местами непонятной.
|
МНК, дисперсия, максимум правдоподобия, система уравнений,
обращение и транспонирование матрицы, частные производные,
сингулярное разложение, понятие плохо обусловленной матрицы
|
9 784
| ||
7
|
6
|
8
|
Любите сводить нелинейщину к линейщине?
Много матричных преобразований, замен, гессиан и увуля, вы уже в линейном мире.
В любом случае эта лекция венчает трек из 3 лекций про линейные модели, на этом с ними будет покончено, чтобы никогда вам не пригодится в проде.
|
градиент, гессиан, функционал, функционал среднеквадратичного отклонения,
метод Ньютона-Рафсона, МНК, сплайны, ядерное сглаживание;
экспоненциальное семейство распределений
|
7 024
| ||
5
|
4
|
6
|
Не самая хардкорная лекция о временных рядах, методы представлены самые простые,
и в целом, эту лекцию можно смотреть как вводную лекцию по временным рядам отдельно. В проде у вас скорее всего будут более сложные модели.
Для меня это был еще один повтор лекций по эконометрике.
|
МНК, авторегрессия, экспоненциальное скользящее среднее,
формула Надарая-Ватсона, знание функции argmin, сглаживание
|
18 571
| ||
8
|
9
|
10
|
Дальше идут три лекции, которые больше всего подвергаются изменениям от года к году. В первом видео дается сразу ворох теорем и кусков выводов.
Без этих выводов и вправду тяжело даются следующие два.
Моей ошибкой было сначала пропустить эти выводы, пришлось к ним вернуться. Параллельно хорошо рассказывается идея скользящего контроля.
После этой лекции понимаешь, на какой почве зыбких допущений стоит много рабочих техник в ML.
|
понятие плотности распределения и независимой случайной величины,
условная вероятность, функция правдоподобия,
принцип максимума апостериорной вероятности,
эмпирические оценки; понятие четности, нормированности,
невозрастания, неотрицательности функции;
понятие ядра, понятие Парзеновского окна;
многомерное нормальное распределение;
понятие квадратичного дискриминанта и линейного дискриминанта Фишера
|
6 972
| ||
7
|
10
|
9
|
Эта лекция на 30% состояла из повтора предыдущей, а вот затем пошли конкретные практические техники,
я бы сказал, это была одна из самых полезных лекций, с точки зрения работы в проде с байесовскими классификаторами.
|
То же, что и ранее плюс понятие разделяющей поверхности (линейной или нелинейной),
мультиколлинеарности, регуляризации; ковариационная матриц; распределение Стьюдента;
понятие жадного алгоритма
|
3 459
| ||
8
|
8
|
7
|
Мне показалось излишним подача HEM или SEM или даже SHEM модификаций EM-алгоритма,
кажется их никто нигде особо не использует (но надо проверить).
Однако, тот же EM, рабочая лошадка ML, был очень хорошо показан и объяснен.
|
То же, что и ранее плюс понятие локального экстремума
и метода простых итераций для его поиска; лагранжиан оптимизационной задачи;
гауссовские плотности;
|
3 809
| ||
5
|
9
|
9
|
Это была самая простая, как в плане алгоритмов, так и в плане подачи лекция во всем курсе.
Однако, методы описанные в ней, одни из самых популярных и лекция практически целиком закрывает потребность в теории на эту тему.
Можно сразу садиться и программировать, хоть локальную, хоть распределенную версии.
|
конъюнкция, дизъюнкция, понятие поддержки; условная вероятность;
свойство антимонотонности; поиск в ширину, построение префиксного дерева,
рекурсивный обход дерева
|
3 490
|
- Получить ссылку
- Электронная почта
- Другие приложения
Комментарии
Отправить комментарий