Skip to content

Приложение на Streamlit и Ollama позволяющее получать сжатый текст при помощи открытых LLM моделей

License

Notifications You must be signed in to change notification settings

E7HYN3/sirius_ai2024

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

14 Commits
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

Приложение для сжатия текста

GitHub Open In Colab
Данное приложение на Streamlit и Ollama позволяет пользователю вводить текст, выбирать модель и уровень сжатия, а затем получать сжатый текст.

Реализовано в рамках дополнительного задания проектной задачи "Приложение для чтения книг с AI-ассистентом" программы Сириус ИИ


Запуск в Google Colab

GitHub.-.E7HYN3_sirius_ai2024_.Streamlit.Ollama.LLM.-.Google.Chrome.2024-11-03.14-50-59.mp4
Colab
Open In Colab

Локальная установка и запуск

lv_0_20241103145456.mp4

Установка Python и Ollama

Перед началом убедитесь, что Python и Ollama установлены на вашем устройстве.

Установка Python

  1. Linux (Ubuntu/Debian):

    sudo apt install -y python3 python3-venv python3-pip

    Linux (Febora):

    sudo dnf install python3 python3-virtualenv python3-pip

    Linux (Arch):

    sudo pacman -S python3 python-virtualenv python-pip
  2. macOS: Убедитесь, что установлен Homebrew:

    /bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"

    Затем установите Python:

    brew install python
  3. Windows:

Установка Ollama

  1. Linux: Ознакомьтесь с официальной документацией Ollama для конкретных шагов по установке вручную, так как поддержка разных дистрибутивов может отличаться.

    curl -fsSL https://ollama.com/install.sh | sh
  2. macOS: С использованием Homebrew:

    brew install ollama
  3. Windows:

    • Скачайте и установите Ollama с официального сайта Ollama. Убедитесь, что путь к ollama добавлен в системные переменные среды PATH.

Загрузка моделей

  • Для загрузки языковых моделей используйте ollama pull название_модели, полный список языковых моделей можно найти на сайте Ollama.
  • Мы рекомендуем использовать модель gemma2:9b. Для её загрузки воспользуйтесь следующей командой:
ollama pull gemma2:9b

Установка приложения

  1. Клонируйте репозиторий:

    git clone https://github.com/E7HYN3/sirius_ai2024.git
  2. Перейдите в каталог проекта:

    cd sirius_ai2024
  3. Создайте виртуальное окружение:

    python -m venv venv
  4. Активируйте виртуальное окружение:

    • Для Linux/macOS:
      source venv/bin/activate
    • Для Windows:
      venv\Scripts\activate.bat
  5. Установите зависимости:

    pip install -r requirements.txt

Запуск приложения

  1. Запустите приложение Streamlit:
    streamlit run app.py

Примечания

  • Убедитесь, что у вас установлен Python версии 3.7 или выше.
  • Проверьте, что Ollama успешно установлен и настроен для работы с локальными моделями.
  • Убедитесь, что все зависимости, указанные в requirements.txt, успешно установлены.

Теперь приложение готово к использованию.

About

Приложение на Streamlit и Ollama позволяющее получать сжатый текст при помощи открытых LLM моделей

Topics

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Contributors 3

  •  
  •  
  •