Skip to content

A curated collection of machine learning and deep learning notebooks — classification, regression, CV, autoencoders, NLP, and time series forecasting with TensorFlow, PyTorch, and Ray Tune.

License

Notifications You must be signed in to change notification settings

NkvMax/ml-portfolio

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

9 Commits
 
 
 
 
 
 
 
 
 
 

Repository files navigation

ML Portfolio

Jupyter-ноутбуки по классическому машинному обучению и глубокому обучению: многоклассовая классификация, регрессия, распознавание изображений, автоэнкодеры и подбор гиперпараметров.

Все датасеты и обученные модели доступны на Google Drive.

Примечание: Некоторые ноутбуки были оптимизированы и выполнены локально на архитектуре Apple Silicon (M1, macOS). Некоторые части кода (например, использование tensorflow-metal, специфичная многопоточность или ускорения) могут потребовать адаптации для корректного запуска в среде Kaggle или Google Colab.

Python TensorFlow PyTorch Ray Scikit-learn Pandas NumPy Matplotlib Seaborn Jupyter Open in Colab Kaggle Keras TorchVision Apple Silicon Stars Forks

License: MIT

Features / Highlights

  • Ключевые технологии: TensorFlow/Keras для табличных данных и изображений, PyTorch для последовательностей и автоэнкодеров, Ray Tune для гиперпараметров.
  • Релевантные навыки: Transfer learning (MobileNetV2, YOLO-like), дообучение моделей (fine-tuning, PEFT-analog), CV (image classification, Grad-CAM), NLP (прогнозирование с LSTM), регрессия с регуляризацией (L2, Dropout), анализ латентного пространства.
  • Метрики успеха: Точность классификации до 80% (CIFAR-10), MSE в регрессии ~0.5 (California Housing), стабильное прогнозирование временных рядов (ETH-USD).
  • Визуалы: Графики обучения, confusion matrices, heatmaps (Grad-CAM), 3D-проекции латентного пространства.

Notebooks

Развернуть список ноутбуков
  • lab_1_multiclass_classification.ipynb:
    Multiclass Classification with MLP (TensorFlow/Keras) на датасете Breast Cancer Wisconsin.
    Детали: EDA, нормализация, базовая MLP с дообучением. Фокус на табличных данных.
    Метрики: Accuracy ~97%, F1-score ~0.96 (валидация).
    TensorFlow Scikit-learn

    Скриншоты

    Learning curves (train/val) for MLP on Breast Cancer Wisconsin; early stopping reduces overfitting Confusion matrix for MLP on Breast Cancer; F1≈0.96 ROC curves per class; AUC close to 1.0 for both classes Feature importance / coefficients overview for MLP baseline

  • lab_2_regression_overfitting.ipynb:
    Regression and Overfitting Control with Neural Networks (TensorFlow/Keras) на датасете California Housing.
    Детали: Базовая модель с демонстрацией переобучения, добавление Dropout/L2, сравнение оптимизаторов (SGD/Adam).
    Метрики: MSE ~0.5, MAE ~0.7 (валидация после регуляризации).
    TensorFlow Scikit-learn

    Скриншоты

    Predicted vs Actual median house value; regularization (Dropout/L2) reduces MSE to ~0.5

  • lab_3_image_classification_raytune.ipynb:
    Image Classification with Transfer Learning & Hyperparameter Tuning (Ray Tune + TensorFlow/Keras) на датасете CIFAR-10.
    Детали: Transfer learning с MobileNetV2, кастомный классификатор, тюнинг (dropout, dense units, LR) через Ray Tune/ASHA.
    Метрики: Accuracy ~80% (валидация после тюнинга).
    TensorFlow Ray

    Скриншоты

    Validation accuracy per trial (Ray Tune, ASHA) for MobileNetV2 on CIFAR-10 Grad-CAM heatmaps on CIFAR-10 samples after fine-tuning MobileNetV2

    Подробности гиперпараметрического тюнинга (Ray Tune)

    Инструмент: Ray Tune
    Метод оптимизации: Async HyperBand
    Объект настройки: MobileNetV2 (fine-tuning, CIFAR-10)
    Ключевой результат: Лучшая конфигурация (dense units=128, dropout=0.36, learning rate=0.00012) дала val_accuracy=0.7942 за ~46 минут (8 испытаний, 2/8 CPU).

    Использован early-stopping scheduler

  • lab_4_autoencoder_latent_space.ipynb:
    Autoencoder with Residual Blocks and Latent Space Analysis (PyTorch) на датасете MNIST.
    Детали: Encoder/Decoder с ResNet, BatchNorm, SiLU; тюнинг latent_dim; генерация из latent space.
    Метрики: MSE ~0.01-0.05 (зависит от latent_dim).
    PyTorch TorchVision

    Скриншоты

    Reconstruction grid: input vs autoencoder output on MNIST Latent space 2D projection (t-SNE) by class labels Loss curves across latent_dim variants; stability vs capacity trade-off Samples generated from latent space interpolation

  • lab_5_eth_lstm_forecasting.ipynb:
    LSTM Forecasting of ETH-USD Price Series (PyTorch) с классификацией фаз рынка.
    Детали: LSTM для прогнозирования (short/long-term), seq2seq, тюнинг с Ray Tune; классификация (бычий/медвежий/флет).
    Метрики: MAE ~50-200 USD (зависит от горизонта), accuracy фаз ~85%.
    PyTorch Ray

    Скриншоты

    ETH-USD forecast vs ground truth; short/long horizons comparison Phase classification (bull/bear/flat) confusion matrix MAE distribution over validation windows; sensitivity to horizon

Requirements

Для работы ноутбуков требуется Python 3.10+ и следующие библиотеки:

  • numpy, pandas, matplotlib, seaborn, scikit-learn, torch, torchvision, tensorflow, ray[tune]

About

A curated collection of machine learning and deep learning notebooks — classification, regression, CV, autoencoders, NLP, and time series forecasting with TensorFlow, PyTorch, and Ray Tune.

Topics

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published