RAGFlow は、深い文書理解に基づいたオープンソースの RAG (Retrieval-Augmented Generation) エンジンである。LLM(大規模言語モデル)を組み合わせることで、様々な複雑なフォーマットのデータから根拠のある引用に裏打ちされた、信頼できる質問応答機能を実現し、あらゆる規模のビジネスに適した RAG ワークフローを提供します。
デモをお試しください:https://demo.ragflow.io。
- 2024-08-22 RAG を介して SQL ステートメントへのテキストをサポートします。
- 2024-08-02 graphrag からインスピレーションを得た GraphRAG とマインド マップをサポートします。
- 2024-07-23 音声ファイルの解析をサポートしました。
- 2024-07-21 より多くの LLM サプライヤー (LocalAI/OpenRouter/StepFun/Nvidia) をサポートします。
- 2024-07-18 グラフにコンポーネント(Wikipedia/PubMed/Baidu/Duckduckgo)を追加しました。
- 2024-07-08 Graph ベースのワークフローをサポート
- 2024-06-27 Q&A解析方式はMarkdownファイルとDocxファイルをサポートしています。
- 2024-06-27 Docxファイルからの画像の抽出をサポートします。
- 2024-06-27 Markdownファイルからテーブルを抽出することをサポートします。
- 2024-06-06 会話設定でデフォルトでチェックされている Self-RAG をサポートします。
- 2024-05-30 BCE 、BGE reranker を統合。
- 2024-05-23 より良いテキスト検索のために RAPTOR をサポート。
- 2024-05-15 OpenAI GPT-4oを統合しました。
- 複雑な形式の非構造化データからの深い文書理解ベースの知識抽出。
- 無限のトークンから"干し草の山の中の針"を見つける。
- 知的で解釈しやすい。
- テンプレートオプションが豊富。
- 可視化されたテキストチャンキング(text chunking)で人間の介入を可能にする。
- 重要な参考文献のクイックビューと、追跡可能な引用によって根拠ある答えをサポートする。
- Word、スライド、Excel、txt、画像、スキャンコピー、構造化データ、Web ページなどをサポート。
- 個人から大企業まで対応できる RAG オーケストレーション(orchestration)。
- カスタマイズ可能な LLM とエンベッディングモデル。
- 複数の想起と融合された再ランク付け。
- 直感的な API によってビジネスとの統合がシームレスに。
- CPU >= 4 cores
- RAM >= 16 GB
- Disk >= 50 GB
- Docker >= 24.0.0 & Docker Compose >= v2.26.1
ローカルマシン(Windows、Mac、または Linux)に Docker をインストールしていない場合は、Docker Engine のインストール を参照してください。
-
vm.max_map_count
>= 262144 であることを確認する:vm.max_map_count
の値をチェックするには:$ sysctl vm.max_map_count
vm.max_map_count
が 262144 より大きい値でなければリセットする。# In this case, we set it to 262144: $ sudo sysctl -w vm.max_map_count=262144
この変更はシステム再起動後にリセットされる。変更を恒久的なものにするには、/etc/sysctl.conf の
vm.max_map_count
値を適宜追加または更新する:vm.max_map_count=262144
-
リポジトリをクローンする:
$ git clone https://github.com/infiniflow/ragflow.git
-
ビルド済みの Docker イメージをビルドし、サーバーを起動する:
$ cd ragflow/docker $ chmod +x ./entrypoint.sh $ docker compose up -d
上記のコマンドを実行すると、RAGFlowの開発版dockerイメージが自動的にダウンロードされます。 特定のバージョンのDockerイメージをダウンロードして実行したい場合は、docker/.envファイルのRAGFLOW_VERSION変数を見つけて、対応するバージョンに変更してください。 例えば、RAGFLOW_VERSION=v0.10.0として、上記のコマンドを実行してください。
コアイメージのサイズは約 9 GB で、ロードに時間がかかる場合があります。
-
サーバーを立ち上げた後、サーバーの状態を確認する:
$ docker logs -f ragflow-server
以下の出力は、システムが正常に起動したことを確認するものです:
____ ______ __ / __ \ ____ _ ____ _ / ____// /____ _ __ / /_/ // __ `// __ `// /_ / // __ \| | /| / / / _, _// /_/ // /_/ // __/ / // /_/ /| |/ |/ / /_/ |_| \__,_/ \__, //_/ /_/ \____/ |__/|__/ /____/ * Running on all addresses (0.0.0.0) * Running on http://127.0.0.1:9380 * Running on http://x.x.x.x:9380 INFO:werkzeug:Press CTRL+C to quit
もし確認ステップをスキップして直接 RAGFlow にログインした場合、その時点で RAGFlow が完全に初期化されていない可能性があるため、ブラウザーがネットワーク異常エラーを表示するかもしれません。
-
ウェブブラウザで、プロンプトに従ってサーバーの IP アドレスを入力し、RAGFlow にログインします。
デフォルトの設定を使用する場合、デフォルトの HTTP サービングポート
80
は省略できるので、与えられたシナリオでは、http://IP_OF_YOUR_MACHINE
(ポート番号は省略)だけを入力すればよい。 -
service_conf.yaml で、
user_default_llm
で希望の LLM ファクトリを選択し、API_KEY
フィールドを対応する API キーで更新する。詳しくは llm_api_key_setup を参照してください。
これで初期設定完了!ショーの開幕です!
システムコンフィグに関しては、以下のファイルを管理する必要がある:
- .env:
SVR_HTTP_PORT
、MYSQL_PASSWORD
、MINIO_PASSWORD
などのシステムの基本設定を保持する。 - service_conf.yaml: バックエンドのサービスを設定します。
- docker-compose.yml: システムの起動は docker-compose.yml に依存している。
.env ファイルの変更が service_conf.yaml ファイルの内容と一致していることを確認する必要があります。
./docker/README ファイルは環境設定とサービスコンフィグの詳細な説明を提供し、./docker/README ファイルに記載されている全ての環境設定が service_conf.yaml ファイルの対応するコンフィグと一致していることを確認することが義務付けられています。
デフォルトの HTTP サービングポート(80)を更新するには、docker-compose.yml にアクセスして、80:80
を <YOUR_SERVING_PORT>:80
に変更します。
すべてのシステム設定のアップデートを有効にするには、システムの再起動が必要です:
$ docker-compose up -d
ソースからDockerイメージをビルドするには:
$ git clone https://github.com/infiniflow/ragflow.git
$ cd ragflow/
$ docker build -t infiniflow/ragflow:v0.10.0 .
$ cd ragflow/docker
$ chmod +x ./entrypoint.sh
$ docker compose up -d
ソースコードからサービスを起動する場合は、以下の手順に従ってください:
- リポジトリをクローンします
$ git clone https://github.com/infiniflow/ragflow.git
$ cd ragflow/
- 仮想環境を作成します(AnacondaまたはMinicondaがインストールされていることを確認してください)
$ conda create -n ragflow python=3.11.0
$ conda activate ragflow
$ pip install -r requirements.txt
CUDAのバージョンが12.0以上の場合、以下の追加コマンドを実行してください:
$ pip uninstall -y onnxruntime-gpu
$ pip install onnxruntime-gpu --extra-index-url https://aiinfra.pkgs.visualstudio.com/PublicPackages/_packaging/onnxruntime-cuda-12/pypi/simple/
- エントリースクリプトをコピーし、環境変数を設定します
$ cp docker/entrypoint.sh .
$ vi entrypoint.sh
以下のコマンドで Python のパスとragflowプロジェクトのパスを取得します:
$ which python
$ pwd
which python
の出力を PY
の値として、pwd
の出力を PYTHONPATH
の値として設定します。
LD_LIBRARY_PATH
が既に設定されている場合は、コメントアウトできます。
# 実際の状況に応じて設定を調整してください。以下の二つの export は新たに追加された設定です
PY=${PY}
export PYTHONPATH=${PYTHONPATH}
# オプション:Hugging Face ミラーを追加
export HF_ENDPOINT=https://hf-mirror.com
- 基本サービスを起動します
$ cd docker
$ docker compose -f docker-compose-base.yml up -d
-
設定ファイルを確認します docker/.env 内の設定がconf/service_conf.yaml内の設定と一致していることを確認してください。service_conf.yaml内の関連サービスのIPアドレスとポートは、ローカルマシンのIPアドレスとコンテナが公開するポートに変更する必要があります。
-
サービスを起動します
$ chmod +x ./entrypoint.sh
$ bash ./entrypoint.sh
RAGFlow はオープンソースのコラボレーションによって発展してきました。この精神に基づき、私たちはコミュニティからの多様なコントリビュートを受け入れています。 参加を希望される方は、まず コントリビューションガイドをご覧ください。