Jupyter-ноутбуки по классическому машинному обучению и глубокому обучению: многоклассовая классификация, регрессия, распознавание изображений, автоэнкодеры и подбор гиперпараметров.
Все датасеты и обученные модели доступны на Google Drive.
Примечание: Некоторые ноутбуки были оптимизированы и выполнены локально на архитектуре Apple Silicon (M1, macOS). Некоторые части кода (например, использование tensorflow-metal, специфичная многопоточность или ускорения) могут потребовать адаптации для корректного запуска в среде Kaggle или Google Colab.
- Ключевые технологии: TensorFlow/Keras для табличных данных и изображений, PyTorch для последовательностей и автоэнкодеров, Ray Tune для гиперпараметров.
- Релевантные навыки: Transfer learning (MobileNetV2, YOLO-like), дообучение моделей (fine-tuning, PEFT-analog), CV (image classification, Grad-CAM), NLP (прогнозирование с LSTM), регрессия с регуляризацией (L2, Dropout), анализ латентного пространства.
- Метрики успеха: Точность классификации до 80% (CIFAR-10), MSE в регрессии ~0.5 (California Housing), стабильное прогнозирование временных рядов (ETH-USD).
- Визуалы: Графики обучения, confusion matrices, heatmaps (Grad-CAM), 3D-проекции латентного пространства.
Развернуть список ноутбуков
-
lab_1_multiclass_classification.ipynb
:
Multiclass Classification with MLP (TensorFlow/Keras) на датасете Breast Cancer Wisconsin.
Детали: EDA, нормализация, базовая MLP с дообучением. Фокус на табличных данных.
Метрики: Accuracy ~97%, F1-score ~0.96 (валидация).
-
lab_2_regression_overfitting.ipynb
:
Regression and Overfitting Control with Neural Networks (TensorFlow/Keras) на датасете California Housing.
Детали: Базовая модель с демонстрацией переобучения, добавление Dropout/L2, сравнение оптимизаторов (SGD/Adam).
Метрики: MSE ~0.5, MAE ~0.7 (валидация после регуляризации).
-
lab_3_image_classification_raytune.ipynb
:
Image Classification with Transfer Learning & Hyperparameter Tuning (Ray Tune + TensorFlow/Keras) на датасете CIFAR-10.
Детали: Transfer learning с MobileNetV2, кастомный классификатор, тюнинг (dropout, dense units, LR) через Ray Tune/ASHA.
Метрики: Accuracy ~80% (валидация после тюнинга).
Подробности гиперпараметрического тюнинга (Ray Tune)
Инструмент: Ray Tune
Метод оптимизации: Async HyperBand
Объект настройки: MobileNetV2 (fine-tuning, CIFAR-10)
Ключевой результат: Лучшая конфигурация (dense units=128, dropout=0.36, learning rate=0.00012) дала val_accuracy=0.7942 за ~46 минут (8 испытаний, 2/8 CPU).Использован early-stopping scheduler
-
lab_4_autoencoder_latent_space.ipynb
:
Autoencoder with Residual Blocks and Latent Space Analysis (PyTorch) на датасете MNIST.
Детали: Encoder/Decoder с ResNet, BatchNorm, SiLU; тюнинг latent_dim; генерация из latent space.
Метрики: MSE ~0.01-0.05 (зависит от latent_dim).
-
lab_5_eth_lstm_forecasting.ipynb
:
LSTM Forecasting of ETH-USD Price Series (PyTorch) с классификацией фаз рынка.
Детали: LSTM для прогнозирования (short/long-term), seq2seq, тюнинг с Ray Tune; классификация (бычий/медвежий/флет).
Метрики: MAE ~50-200 USD (зависит от горизонта), accuracy фаз ~85%.
Для работы ноутбуков требуется Python 3.10+ и следующие библиотеки:
- numpy, pandas, matplotlib, seaborn, scikit-learn, torch, torchvision, tensorflow, ray[tune]