这是一个本地运行的小工具,用 LLM 把网文章节压缩成“说书版剧情”,并维护可滚动更新的系统日志(记忆)。适合快速回顾长篇剧情、续读或做二次创作参考。
本项目是 Vibe Coding 的产物,定位为个人本地工具,欢迎按需改造。
- TXT 章节自动切分,按批次生成“说书版剧情”
- 系统日志按模板维护,可回滚/编辑
- 历史批次可查看与再生成
- 支持 OpenAI-compatible 与 Google Gemini
- 可保存 API 方案(模型、Base URL、请求体)
- Python 3.10+
- 运行依赖见
requirements.txt - 前端使用 CDN:Tailwind、Marked、Highlight.js、DOMPurify、Google Fonts
创建并激活虚拟环境,在项目根目录执行:
pip install -r requirements.txt
uvicorn app.main:app --reload --port 8000浏览器打开:http://127.0.0.1:8000
- 上传 TXT(支持中文章节标题识别)。
- 选择起始章(1-based)。
- 填写 API Key、模型名、Provider(以及可选 Base URL)。
- 点击 “Start / Continue” 生成结果。
- 每次生成会写入历史批次,可点击历史条目查看与再生成。
- System Prompt / User Prompt:可自定义生成规则。
- User Prompt 支持
{{system_log}}和{{chapter_text}}占位符。 - 需要模型输出包含
---LOG_START---分隔符,否则会提示解析失败。
- User Prompt 支持
- Prompt 保存:支持保存 System Prompt / User Prompt,便于在多套提示词之间快速切换。
- 默认提示词仅供参考,我不太会写提示词;当前版本用 Gemini-3-Pro-Preview 测试效果最好,但仍不够理想,建议自行调整。
- OpenAI-compatible request body:可追加
max_tokens、top_p等参数(不支持 stream),思考深度需要自行在请求体中控制。 - API schemes:可保存一套模型、Base URL 和请求体(可选保存 API Key,仅保存在本地浏览器)。
生成数据默认存放在 data/ 目录:
data/sessions/:会话元数据data/uploads/:TXT 原文与章节切分data/history/:历史批次记录data/logs/:系统日志(会自动备份历史版本)
删除会话会移除对应的 TXT、历史记录与日志。
- 提示解析失败:模型输出未包含
---LOG_START---,会显示原始输出供手动处理。 - 章节切分不准:可调整 TXT 原文中的章节标题格式。
- API 报错:检查模型名、Base URL、API Key 是否匹配对应服务。
本项目默认不做用户隔离与鉴权,定位为本地个人工具使用。

