Skip to content

Tencent-RTC/conversational-ai-cloudbase

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

6 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

LLM Services For Conversational AI CloudBase

实现了几个专门用于处理 LLM (Large Language Model) 请求的云函数2.0服务,帮助快速接入TRTC-AI对话,每个服务都有其特定的功能和用途。

服务概述

1. LLM Context Manager

基础的 LLM 对话服务 (cloudrunfunctions/llm-context-manager/index.mjs),提供以下核心功能:

  • 基本的对话上下文管理
  • 支持流式响应(SSE)
  • 对话历史记录的存储和清理
  • 可配置的上下文消息数量限制
  • 支持自定义系统提示词

2. LLM Fast Reply

快速响应服务 (cloudrunfunctions/llm-fast-reply/index.mjs),在标准 LLM 服务基础上增加了渐进式响应功能:

  • 支持小模型快速预响应
  • 使用较小的模型生成初步回复
  • 同时启动大模型生成完整回复
  • 可配置是否启用渐进式响应
  • 支持自定义小模型参数(温度、最大 token 等)

3. LLM Tools

集成了工具调用功能的 LLM 服务 (cloudrunfunctions/llm-tools/index.mjs):

  • 支持天气查询功能
  • 工具调用的自动处理和响应
  • 支持多轮对话中的工具使用
  • 工具调用结果的上下文整合

4. LLM RAG

实现了检索增强生成(RAG)功能的服务 (cloudrunfunctions/llm-rag/index.mjs):

  • 文档嵌入和存储
  • 相似度检索
  • 上下文增强
  • 支持文档引用和溯源
  • 可配置的相似度阈值和最大文档数

共同特性

所有服务都具备以下基础功能:

  • 支持流式输出(SSE)
  • 对话上下文管理
  • 可配置的模型参数
  • 错误处理和日志记录
  • 支持自定义 API 端点和密钥
  • 支持任务 ID 的会话隔离

配置项

主要配置参数包括:

  • LLM_BASE_URL: API 基础 URL
  • LLM_API_KEY: API 访问密钥
  • LLM_MODEL: 默认使用的模型
  • MAX_CONTEXT_MESSAGES: 上下文最大消息数
  • CONTEXT_EXPIRY_HOURS: 上下文过期时间

使用说明

每个服务都通过 HTTP 请求调用,支持以下参数:

  • messages: 对话消息数组
  • model: 可选的模型指定
  • taskId: 会话标识符
  • 特定服务的额外参数(如 RAG 的相似度阈值等)

响应通过 Server-Sent Events (SSE) 流式返回,客户端需要相应处理流式数据。

注意:运行服务前请确保已正确配置环境变量,特别是 LLM_API_KEYLLM_BASE_URL

About

LLM Services For Conversational AI CloudBase

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published