Рецензия на лекции первого семестра ШАД: Машинное обучение.



Лекция (ссылка)
Хардкор
Практичность
Актуальность в 2019
Мое мнение о лекции
Важные понятия для понимания лекции
Количество просмотров
Полезные ссылки
4
10
10
Эта лекция обязательна к просмотру любому ML-щику,
тут за 1,5 часа все основные вещи рассказываются. 
Методы оптимизации, понятие функционала, эмпирический риск
130 995

6
9
Метрические методы - традиционно самые простые в понимании и имплементации,
но совершенно не популярные во фреймворках.
Вторую половину смотреть только тем, кто сам пишет модификации метрических алгоритмов.
метрика Минковского, расстояние Левенштейна,
понятие метрического пространства, понимание функций argmax / sign,
линейная алгебра (азы), МНК, ядра функций
39 434
9
10
В этой лекции разобрано сразу несколько способов построения деревьев, даже тех, которых вы никогда не встретите в своей жизни.
Лектор идет далеко и показывает всевозможные техники выращивания, ветвления, усечения, сбора в ансамбль.
Местами небольшой перекос под нужды Яндекса.
матлогика: предикаты, конъюнкции, дизъюнкции; пороговые функции;
функции свертки нескольких критериев в один;
теория информации: энтропия; понятие жадного алгоритма
19 438
7
10
В этой лекции вы увидите много псевдокода и еще больше теорем и доказательств.
Это лекция о простейших линейных моделях является камнем преткновения.
Если вы пришли поглядеть на линейную регрессию и не готовы говорить о тюнинге SGD, вам будет очень тяжело.
Вторая половина лекции обрушится на головы нехилым заплывом в тервер. 
Вычислительные методы, методы оптимизации, МНК,
задание кусочно-линейных функций, доопределение функций,
градиентный спуск, понятие сходимости, принцип максимума правдоподобия,
априорное распределение, принцип максимума апостериорной вероятности,
распределение Гаусса и Лапласа
14 909
7
8
Неожиданный подход к SVM как к двухслойной нейросети удивляет, раскрытие полного семейства алгоритмов,
использующих опорные вектора - поразителен, я уверен, что вы и не подозревали как можно отбирать признаки в таких алгоритмах. 
мультиколлинеарность, гиперплоскость, зайчатки линалгебры,
условия Каруша-Куна-Таккера и двойственная задача математического программирования,
функция Лагранжа, лагранжиан и седловые точки;
гильбертово пространство и ядра функций
14 031
6
5
7
Данная лекция была максимально насыщена универовской терминологией 1-2 курсов и полна матричных преобразований.
Скучновато, долговато, все разжевано. Но без нее следующая лекция будет местами непонятной.
МНК, дисперсия, максимум правдоподобия, система уравнений,
обращение и транспонирование матрицы, частные производные,
сингулярное разложение, понятие плохо обусловленной матрицы
9 784
7
6
8
Любите сводить нелинейщину к линейщине?
Много матричных преобразований, замен, гессиан и увуля, вы уже в линейном мире.
В любом случае эта лекция венчает трек из 3 лекций про линейные модели, на этом с ними будет покончено, чтобы никогда вам не пригодится в проде.
градиент, гессиан, функционал, функционал среднеквадратичного отклонения,
метод Ньютона-Рафсона, МНК, сплайны, ядерное сглаживание;
экспоненциальное семейство распределений
7 024
5
4
6
Не самая хардкорная лекция о временных рядах, методы представлены самые простые,
и в целом, эту лекцию можно смотреть как вводную лекцию по временным рядам отдельно. В проде у вас скорее всего будут более сложные модели.
Для меня это был еще один повтор лекций по эконометрике.
МНК, авторегрессия, экспоненциальное скользящее среднее,
формула Надарая-Ватсона, знание функции argmin, сглаживание
18 571
8
9
10
Дальше идут три лекции, которые больше всего подвергаются изменениям от года к году. В первом видео дается сразу ворох теорем и кусков выводов.
Без этих выводов и вправду тяжело даются следующие два.
Моей ошибкой было сначала пропустить эти выводы, пришлось к ним вернуться. Параллельно хорошо рассказывается идея скользящего контроля.
После этой лекции понимаешь, на какой почве зыбких допущений стоит много рабочих техник в ML.
понятие плотности распределения и независимой случайной величины,
условная вероятность, функция правдоподобия,
принцип максимума апостериорной вероятности,
эмпирические оценки; понятие четности, нормированности,
невозрастания, неотрицательности функции;
понятие ядра, понятие Парзеновского окна;
многомерное нормальное распределение;
понятие квадратичного дискриминанта и линейного дискриминанта Фишера
6 972
7
10
9
Эта лекция на 30% состояла из повтора предыдущей, а вот затем пошли конкретные практические техники,
я бы сказал, это была одна из самых полезных лекций, с точки зрения работы в проде с байесовскими классификаторами.
То же, что и ранее плюс понятие разделяющей поверхности (линейной или нелинейной),
мультиколлинеарности, регуляризации; ковариационная матриц; распределение Стьюдента;
понятие жадного алгоритма
3 459
8
8
7
Мне показалось излишним подача HEM или SEM или даже SHEM модификаций EM-алгоритма,
кажется их никто нигде особо не использует (но надо проверить).

Однако, тот же EM, рабочая лошадка ML, был очень хорошо показан и объяснен.
То же, что и ранее плюс понятие локального экстремума
и метода простых итераций для его поиска; лагранжиан оптимизационной задачи;
гауссовские плотности;
3 809
5
9
9
Это была самая простая, как в плане алгоритмов, так и в плане подачи лекция во всем курсе.
Однако, методы описанные в ней, одни из самых популярных и лекция практически целиком закрывает потребность в теории на эту тему.
Можно сразу садиться и программировать, хоть локальную, хоть распределенную версии. 
конъюнкция, дизъюнкция, понятие поддержки; условная вероятность;
свойство антимонотонности; поиск в ширину, построение префиксного дерева,
рекурсивный обход дерева
3 490

Комментарии

Популярные сообщения из этого блога

Cassandra, мой первый кластер и первая NoSQL

10 причин раздражаться при использовании Apache Spark

Big Data on your local machine : Installing Hadoop Cluster (Multi Node regime)

MyBatis и Hibernate на одном проекте. Как подружить?

Virtual Box - много маленьких машинок внутри одной.