Skip to content

FUlyankin/yet_another_math_for_DS

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

9 Commits
 
 
 
 
 
 
 
 

Repository files navigation

Yet another math for DS course

Это страничка курса по математике для анализа данных, который читается в 2023-2024 годах в магистратуре МОВС ФКН

Полезные ссылки

Идеология курса

Это курс по математике для анализа данных. Мы поговорим о поднаготной ML и попытаемся не заблудиться в теоремах и доказательствах. Будет два трека: продвинутый и классный. Программа продвинутой группы выглядит как справочник по продвинутой математике в ML. Мы посвятим основное время матричным производным, матричным разложениям, оптимизации и теории вероятностей. Программа классной группы будет более базовой. Мы вспомним в ней основные вещи из линейной алгебры, оптимизации и теории вероятностей.

  • В курсе не будет АБ-тестов и матстата. Они будут в следующем семестре.
  • Везде будем пытаться искать примеры из практики.
  • Забыть про слово "очевидно" и везде проговаривать, почему это именно так работает, но не закапываться доказательствами.
  • Больше смысла и концепций, меньше доказательств.

Оценивание

После каждой лекции будет выдаваться домашка. Всего их будет 12 штук по числу лекций. Итоговая оценка за курс ставится как среднее за 8 лучше всего сделанных домашек. Домашки сдаются в anytask.

План курса

План ниже примерный. По итогам я от него отклонюсь. Я себя знаю, поверьте мне.

Первая часть

В этой части курса мы поговорим про линейную алгебру и оптимизацию. Трек продвинутой группы не будет никак пересекаться с треком базовой группы. С базой мы будем споминать ... базу. С продвинутой группой поговорим про матричные разложения и матричные производные.

План базового трека

  1. Вектора и матрицы
  2. Матрицы и СЛАУ
  3. Обратная матрица
  4. Определитель
  5. Ранг матрицы, собственные числа
  6. Попытка погрузиться в векторные пространства, проекторы
  7. Производные, степенные ряды, основы оптимизации
  8. Условная оптимизация, Лагранжиан

План продвинутого трека

  1. Матричные производные-1
  2. Матричные производные-2
  3. LU и QR разложения
  4. Спектральное разложение и SVD
  5. Низкоранговые приближения, SVD в машинном обучении**
  6. Стабильность вычислений, введение в вычислительный линал**
  7. Выпуклая оптимизация
  8. 50 оттенков градиентного спуска

Вторая часть

В этой части курса мы займёмся теорией вероятности. Треки не будут идти параллельно. Я буду пытаться делать так, чтобы лекции логичным образом продолжали друг-друга, но это у меня будет получаться не всегда.

Базовая группа продвинутая группа
9 Основы тервера Нафига нужна сигма-алгебра
10 Комбинаторика Разлагай и властвуй
11 Дискретные случайности Метод первого шага
12 Непрерывные случайности Пуасоновский процесс
13 Условные распределения Условное математическое ожидание
14 Варка случайностей Мартингалы либо дифференциальные формы

Лицензия

Весь контент, созданный для этого курса распространяются на правах лицензии WTFPL. Материалы публикуются как общественное достояние.

About

math for data science [russian]

Resources

License

MIT, WTFPL licenses found

Licenses found

MIT
LICENSE
WTFPL
LICENSE.wtfpl

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors