Это страничка курса по математике для анализа данных, который читается в 2023-2024 годах в магистратуре МОВС ФКН
- Записи лекций: youtube, yandex-disk
- Продолжение курса: yet another matstat course
Это курс по математике для анализа данных. Мы поговорим о поднаготной ML и попытаемся не заблудиться в теоремах и доказательствах. Будет два трека: продвинутый и классный. Программа продвинутой группы выглядит как справочник по продвинутой математике в ML. Мы посвятим основное время матричным производным, матричным разложениям, оптимизации и теории вероятностей. Программа классной группы будет более базовой. Мы вспомним в ней основные вещи из линейной алгебры, оптимизации и теории вероятностей.
- В курсе не будет АБ-тестов и матстата. Они будут в следующем семестре.
- Везде будем пытаться искать примеры из практики.
- Забыть про слово "очевидно" и везде проговаривать, почему это именно так работает, но не закапываться доказательствами.
- Больше смысла и концепций, меньше доказательств.
После каждой лекции будет выдаваться домашка. Всего их будет 12 штук по числу лекций. Итоговая оценка за курс ставится как среднее за 8 лучше всего сделанных домашек. Домашки сдаются в anytask.
План ниже примерный. По итогам я от него отклонюсь. Я себя знаю, поверьте мне.
В этой части курса мы поговорим про линейную алгебру и оптимизацию. Трек продвинутой группы не будет никак пересекаться с треком базовой группы. С базой мы будем споминать ... базу. С продвинутой группой поговорим про матричные разложения и матричные производные.
План базового трека
- Вектора и матрицы
- Матрицы и СЛАУ
- Обратная матрица
- Определитель
- Ранг матрицы, собственные числа
- Попытка погрузиться в векторные пространства, проекторы
- Производные, степенные ряды, основы оптимизации
- Условная оптимизация, Лагранжиан
План продвинутого трека
- Матричные производные-1
- Матричные производные-2
- LU и QR разложения
- Спектральное разложение и SVD
- Низкоранговые приближения, SVD в машинном обучении**
- Стабильность вычислений, введение в вычислительный линал**
- Выпуклая оптимизация
- 50 оттенков градиентного спуска
В этой части курса мы займёмся теорией вероятности. Треки не будут идти параллельно. Я буду пытаться делать так, чтобы лекции логичным образом продолжали друг-друга, но это у меня будет получаться не всегда.
| № | Базовая группа | продвинутая группа |
|---|---|---|
| 9 | Основы тервера | Нафига нужна сигма-алгебра |
| 10 | Комбинаторика | Разлагай и властвуй |
| 11 | Дискретные случайности | Метод первого шага |
| 12 | Непрерывные случайности | Пуасоновский процесс |
| 13 | Условные распределения | Условное математическое ожидание |
| 14 | Варка случайностей | Мартингалы либо дифференциальные формы |
Весь контент, созданный для этого курса распространяются на правах лицензии WTFPL. Материалы публикуются как общественное достояние.