RAGFlow는 심층 문서 이해에 기반한 오픈소스 RAG (Retrieval-Augmented Generation) 엔진입니다. 이 엔진은 대규모 언어 모델(LLM)과 결합하여 정확한 질문 응답 기능을 제공하며, 다양한 복잡한 형식의 데이터에서 신뢰할 수 있는 출처를 바탕으로 한 인용을 통해 이를 뒷받침합니다. RAGFlow는 규모에 상관없이 모든 기업에 최적화된 RAG 워크플로우를 제공합니다.
데모를 https://demo.ragflow.io에서 실행해 보세요.
-
2024-08-22 RAG를 통해 SQL 문에 텍스트를 지원합니다.
-
2024-08-02: graphrag와 마인드맵에서 영감을 받은 GraphRAG를 지원합니다.
-
2024-07-23: 오디오 파일 분석을 지원합니다.
-
2024-07-21: 더 많은 LLMs(LocalAI, OpenRouter, StepFun, Nvidia)를 지원합니다.
-
2024-07-18: 그래프에 더 많은 구성요소(Wikipedia, PubMed, Baidu, Duckduckgo)를 추가합니다.
-
2024-07-08: Graph를 기반으로 한 워크플로우를 지원합니다.
-
2024-06-27: Q&A 분석 방법에서 Markdown과 Docx를 지원합니다.
-
2024-06-27: Docx 파일에서 이미지 추출을 지원합니다.
-
2024-06-27: Markdown 파일에서 표 추출을 지원합니다.
-
2024-06-06: 대화 설정에서 기본으로 Self-RAG를 지원합니다.
-
2024-05-23: 더 나은 텍스트 검색을 위해 RAPTOR를 지원합니다.
-
2024-05-15: OpenAI GPT-4o를 통합합니다.
- 심층 문서 이해를 기반으로 복잡한 형식의 비정형 데이터에서 지식을 추출합니다.
- 문자 그대로 무한한 토큰에서 "데이터 속의 바늘"을 찾아냅니다.
- 똑똑하고 설명 가능한 방식.
- 다양한 템플릿 옵션을 제공합니다.
- 텍스트 청킹을 시각화하여 사용자가 개입할 수 있도록 합니다.
- 중요한 참고 자료와 추적 가능한 인용을 빠르게 확인하여 신뢰할 수 있는 답변을 지원합니다.
- 워드, 슬라이드, 엑셀, 텍스트 파일, 이미지, 스캔본, 구조화된 데이터, 웹 페이지 등을 지원합니다.
- 개인 및 대규모 비즈니스에 맞춘 효율적인 RAG 오케스트레이션.
- 구성 가능한 LLM 및 임베딩 모델.
- 다중 검색과 결합된 re-ranking.
- 비즈니스와 원활하게 통합할 수 있는 직관적인 API.
- CPU >= 4 cores
- RAM >= 16 GB
- Disk >= 50 GB
- Docker >= 24.0.0 & Docker Compose >= v2.26.1
로컬 머신(Windows, Mac, Linux)에 Docker가 설치되지 않은 경우, Docker 엔진 설치를 참조하세요.
-
vm.max_map_count
가 262144 이상인지 확인하세요:vm.max_map_count
의 값을 아래 명령어를 통해 확인하세요:$ sysctl vm.max_map_count
만약
vm.max_map_count
이 262144 보다 작다면 값을 쟈설정하세요.# 이 경우에 262144로 설정했습니다.: $ sudo sysctl -w vm.max_map_count=262144
이 변경 사항은 시스템 재부팅 후에 초기화됩니다. 변경 사항을 영구적으로 적용하려면 /etc/sysctl.conf 파일에 vm.max_map_count 값을 추가하거나 업데이트하세요:
vm.max_map_count=262144
-
레포지토리를 클론하세요:
$ git clone https://github.com/infiniflow/ragflow.git
-
미리 빌드된 Docker 이미지를 생성하고 서버를 시작하세요:
다음 명령어를 실행하면 dev 버전의 RAGFlow Docker 이미지가 자동으로 다운로드됩니다. 특정 Docker 버전을 다운로드하고 실행하려면, docker/.env 파일에서
RAGFLOW_VERSION
을 원하는 버전으로 업데이트한 후, 예를 들어RAGFLOW_VERSION=v0.10.0
로 업데이트 한 뒤, 다음 명령어를 실행하세요.$ cd ragflow/docker $ chmod +x ./entrypoint.sh $ docker compose up -d
기본 이미지는 약 9GB 크기이며 로드하는 데 시간이 걸릴 수 있습니다.
-
서버가 시작된 후 서버 상태를 확인하세요:
$ docker logs -f ragflow-server
다음 출력 결과로 시스템이 성공적으로 시작되었음을 확인합니다:
____ ______ __ / __ \ ____ _ ____ _ / ____// /____ _ __ / /_/ // __ `// __ `// /_ / // __ \| | /| / / / _, _// /_/ // /_/ // __/ / // /_/ /| |/ |/ / /_/ |_| \__,_/ \__, //_/ /_/ \____/ |__/|__/ /____/ * Running on all addresses (0.0.0.0) * Running on http://127.0.0.1:9380 * Running on http://x.x.x.x:9380 INFO:werkzeug:Press CTRL+C to quit
만약 확인 단계를 건너뛰고 바로 RAGFlow에 로그인하면, RAGFlow가 완전히 초기화되지 않았기 때문에 브라우저에서
network anomaly
오류가 발생할 수 있습니다. -
웹 브라우저에 서버의 IP 주소를 입력하고 RAGFlow에 로그인하세요.
기본 설정을 사용할 경우,
http://IP_OF_YOUR_MACHINE
만 입력하면 됩니다 (포트 번호는 제외). 기본 HTTP 서비스 포트80
은 기본 구성으로 사용할 때 생략할 수 있습니다. -
service_conf.yaml 파일에서 원하는 LLM 팩토리를
user_default_llm
에 선택하고,API_KEY
필드를 해당 API 키로 업데이트하세요.자세한 내용은 llm_api_key_setup를 참조하세요.
이제 쇼가 시작됩니다!
시스템 설정과 관련하여 다음 파일들을 관리해야 합니다:
- .env:
SVR_HTTP_PORT
,MYSQL_PASSWORD
,MINIO_PASSWORD
와 같은 시스템의 기본 설정을 포함합니다. - service_conf.yaml: 백엔드 서비스를 구성합니다.
- docker-compose.yml: 시스템은 docker-compose.yml을 사용하여 시작됩니다.
.env 파일의 변경 사항이 service_conf.yaml 파일의 내용과 일치하도록 해야 합니다.
./docker/README 파일에는 환경 설정과 서비스 구성에 대한 자세한 설명이 있으며, ./docker/README 파일에 나열된 모든 환경 설정이 service_conf.yaml 파일의 해당 구성과 일치하도록 해야 합니다.
기본 HTTP 서비스 포트(80)를 업데이트하려면 docker-compose.yml 파일에서 80:80
을 <YOUR_SERVING_PORT>:80
으로 변경하세요.
모든 시스템 구성 업데이트는 적용되기 위해 시스템 재부팅이 필요합니다.
$ docker-compose up -d
Docker 이미지를 소스에서 빌드하려면:
$ git clone https://github.com/infiniflow/ragflow.git
$ cd ragflow/
$ docker build -t infiniflow/ragflow:dev .
$ cd ragflow/docker
$ chmod +x ./entrypoint.sh
$ docker compose up -d
서비스를 소스에서 시작하려면:
-
레포지토리를 클론하세요:
$ git clone https://github.com/infiniflow/ragflow.git $ cd ragflow/
-
가상 환경을 생성하고, Anaconda 또는 Miniconda가 설치되어 있는지 확인하세요:
$ conda create -n ragflow python=3.11.0 $ conda activate ragflow $ pip install -r requirements.txt
# CUDA 버전이 12.0보다 높은 경우, 다음 명령어를 추가로 실행하세요: $ pip uninstall -y onnxruntime-gpu $ pip install onnxruntime-gpu --extra-index-url https://aiinfra.pkgs.visualstudio.com/PublicPackages/_packaging/onnxruntime-cuda-12/pypi/simple/
-
진입 스크립트를 복사하고 환경 변수를 설정하세요:
# 파이썬 경로를 받아옵니다: $ which python # RAGFlow 프로젝트 경로를 받아옵니다: $ pwd
$ cp docker/entrypoint.sh . $ vi entrypoint.sh
# 실제 상황에 맞게 설정 조정하기 (다음 두 개의 export 명령어는 새로 추가되었습니다): # - `which python`의 결과를 `PY`에 할당합니다. # - `pwd`의 결과를 `PYTHONPATH`에 할당합니다. # - `LD_LIBRARY_PATH`가 설정되어 있는 경우 주석 처리합니다. # - 선택 사항: Hugging Face 미러 추가. PY=${PY} export PYTHONPATH=${PYTHONPATH} export HF_ENDPOINT=https://hf-mirror.com
-
다른 서비스(MinIO, Elasticsearch, Redis, MySQL)를 시작하세요:
$ cd docker $ docker compose -f docker-compose-base.yml up -d
-
설정 파일을 확인하여 다음 사항을 확인하세요:
- docker/.env의 설정이 conf/service_conf.yaml의 설정과 일치하는지 확인합니다.
- service_conf.yaml의 관련 서비스에 대한 IP 주소와 포트가 로컬 머신의 IP 주소와 컨테이너에서 노출된 포트와 일치하는지 확인합니다.
-
RAGFlow 백엔드 서비스를 시작합니다:
$ chmod +x ./entrypoint.sh $ bash ./entrypoint.sh
-
프론트엔드 서비스를 시작합니다:
$ cd web $ npm install --registry=https://registry.npmmirror.com --force $ vim .umirc.ts # proxy.target을 http://127.0.0.1:9380로 업데이트합니다. $ npm run dev
-
프론트엔드 서비스를 배포합니다:
$ cd web $ npm install --registry=https://registry.npmmirror.com --force $ umi build $ mkdir -p /ragflow/web $ cp -r dist /ragflow/web $ apt install nginx -y $ cp ../docker/nginx/proxy.conf /etc/nginx $ cp ../docker/nginx/nginx.conf /etc/nginx $ cp ../docker/nginx/ragflow.conf /etc/nginx/conf.d $ systemctl start nginx
RAGFlow 로드맵 2024을 확인하세요.
RAGFlow는 오픈소스 협업을 통해 발전합니다. 이러한 정신을 바탕으로, 우리는 커뮤니티의 다양한 기여를 환영합니다. 참여하고 싶으시다면, 먼저 가이드라인을 검토해 주세요.