Данное приложение на Streamlit и Ollama позволяет пользователю вводить текст, выбирать модель и уровень сжатия, а затем получать сжатый текст.
Реализовано в рамках дополнительного задания проектной задачи "Приложение для чтения книг с AI-ассистентом" программы Сириус ИИ
GitHub.-.E7HYN3_sirius_ai2024_.Streamlit.Ollama.LLM.-.Google.Chrome.2024-11-03.14-50-59.mp4
Colab |
---|
lv_0_20241103145456.mp4
Перед началом убедитесь, что Python и Ollama установлены на вашем устройстве.
-
Linux (Ubuntu/Debian):
sudo apt install -y python3 python3-venv python3-pip
Linux (Febora):
sudo dnf install python3 python3-virtualenv python3-pip
Linux (Arch):
sudo pacman -S python3 python-virtualenv python-pip
-
macOS: Убедитесь, что установлен Homebrew:
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
Затем установите Python:
brew install python
-
Windows:
- Скачайте установочный файл Python с официального сайта Python и установите его, отметив опцию "Add Python to PATH".
-
Linux: Ознакомьтесь с официальной документацией Ollama для конкретных шагов по установке вручную, так как поддержка разных дистрибутивов может отличаться.
curl -fsSL https://ollama.com/install.sh | sh
-
macOS: С использованием Homebrew:
brew install ollama
-
Windows:
- Скачайте и установите Ollama с официального сайта Ollama. Убедитесь, что путь к
ollama
добавлен в системные переменные среды PATH.
- Скачайте и установите Ollama с официального сайта Ollama. Убедитесь, что путь к
- Для загрузки языковых моделей используйте
ollama pull название_модели
, полный список языковых моделей можно найти на сайте Ollama. - Мы рекомендуем использовать модель gemma2:9b. Для её загрузки воспользуйтесь следующей командой:
ollama pull gemma2:9b
-
Клонируйте репозиторий:
git clone https://github.com/E7HYN3/sirius_ai2024.git
-
Перейдите в каталог проекта:
cd sirius_ai2024
-
Создайте виртуальное окружение:
python -m venv venv
-
Активируйте виртуальное окружение:
- Для Linux/macOS:
source venv/bin/activate
- Для Windows:
venv\Scripts\activate.bat
- Для Linux/macOS:
-
Установите зависимости:
pip install -r requirements.txt
- Запустите приложение Streamlit:
streamlit run app.py
- Убедитесь, что у вас установлен Python версии 3.7 или выше.
- Проверьте, что Ollama успешно установлен и настроен для работы с локальными моделями.
- Убедитесь, что все зависимости, указанные в
requirements.txt
, успешно установлены.
Теперь приложение готово к использованию.