一组 OpenClaw Agent 技能(Skills),覆盖搜索、分析、内容提取、备份等场景。
按需安装,各 skill 独立运行,互不依赖(除非特别说明)。
| Skill | 干什么 | 依赖 |
|---|---|---|
| search-layer | 多源搜索引擎(v3.0)。Brave + Exa + Tavily + Grok 四源并行,意图感知评分,链式引用追踪 | requests + trafilatura + beautifulsoup4 + API Keys |
| content-extract | URL → 干净 Markdown。反爬站点(微信、知乎)自动降级到 MinerU | mineru-extract(可选) |
| mineru-extract | MinerU API 封装。PDF/Office/HTML → Markdown | requests + MinerU Token |
| github-explorer | GitHub 项目深度分析。多源采集 + 结构化研判报告 | search-layer, content-extract |
| dependency-tracker | 依赖健康检查。扫描 skills/npm/pip/CLI 版本漂移,生成报告 | requests |
| gitclaw-backup | GitHub 备份。将 OpenClaw 工作区同步到 GitHub 仓库 | git |
github-explorer(项目分析)
├── search-layer ──── 四源并行搜索 + 意图评分 + 链式追踪
├── content-extract ── 智能 URL → Markdown
│ └── mineru-extract ── MinerU API(反爬兜底)
└── OpenClaw 内置 ── web_search, web_fetch, browser
dependency-tracker(依赖检查)── 独立运行
gitclaw-backup(备份)── 独立运行
直接在对话里说:
帮我安装这个 skill:https://github.com/blessonism/openclaw-skills
OpenClaw 会自动 clone 并链接所有 skill。
# 1. Clone
mkdir -p ~/.openclaw/workspace/_repos
git clone https://github.com/blessonism/openclaw-skills.git \
~/.openclaw/workspace/_repos/openclaw-skills
# 2. 链接所有 skill
cd ~/.openclaw/workspace/skills
for skill in search-layer content-extract mineru-extract github-explorer dependency-tracker gitclaw-backup; do
ln -s ~/.openclaw/workspace/_repos/openclaw-skills/$skill $skill
done# Clone 一次
mkdir -p ~/.openclaw/workspace/_repos
git clone https://github.com/blessonism/openclaw-skills.git \
~/.openclaw/workspace/_repos/openclaw-skills
# 只链接你要的(比如只要搜索相关的)
cd ~/.openclaw/workspace/skills
ln -s ~/.openclaw/workspace/_repos/openclaw-skills/search-layer search-layer
ln -s ~/.openclaw/workspace/_repos/openclaw-skills/content-extract content-extract💡 skills 目录因安装方式不同可能不同,常见的是
~/.openclaw/workspace/skills/或~/.openclaw/skills/。
创建 ~/.openclaw/credentials/search.json:
{
"exa": "your-exa-key",
"tavily": "your-tavily-key",
"grok": {
"apiUrl": "https://api.x.ai/v1",
"apiKey": "your-grok-key",
"model": "grok-4.1-fast"
}
}💡 Grok 配置可选,缺失时自动降级为 Exa + Tavily 双源。Brave 由 OpenClaw 内置的
web_search管理,无需在此配置。
也支持环境变量方式(会覆盖 credentials 文件):
export EXA_API_KEY="your-exa-key"
export TAVILY_API_KEY="your-tavily-key"
export GROK_API_URL="https://api.x.ai/v1" # 可选
export GROK_API_KEY="your-grok-key" # 可选抓取微信/知乎/小红书等反爬站点时需要:
cp mineru-extract/.env.example mineru-extract/.env
# 编辑 .env,填入 MinerU token(https://mineru.net/apiManage)# 基础依赖
pip install requests
# search-layer v3.0 链式追踪新增依赖
pip install trafilatura beautifulsoup4 lxml每个 skill 目录下都有 SKILL.md,包含完整的使用说明和配置指南。
- 意图感知:7 种查询意图(factual / status / comparison / tutorial / exploratory / news / resource),自动调整搜索策略
- 四源并行:Brave + Exa + Tavily + Grok,任一源故障自动降级
- 意图评分:
score = w_keyword × keyword + w_freshness × freshness + w_authority × authority - 链式追踪(v3.0 新增):
fetch_thread.py结构化深抓 GitHub/HN/Reddit/V2EX/网页,chain_tracker.pyBFS 引用图遍历,relevance_gate.py相关性剪枝 - Thread Pulling(v3.0 新增):
--extract-refs搜索后自动提取结果 URL 的引用图,并行 fetch - 多查询并行:
--queries "q1" "q2" "q3"同时执行 - 完全向后兼容:不带新参数时行为与 v2.x 一致
- 自动定位 repo,抓 README、Stars、Forks 基础信息
- 翻 Issues 找高质量讨论(按评论数排序,挑 maintainer 参与的)
- 去知乎、微信公众号、V2EX、Twitter 搜社区评价
- 查 arXiv 关联论文、DeepWiki、zread 收录情况
- 找同赛道竞品做横向对比
- 输出结构化研判报告,附主观判断
- OpenClaw(agent 运行时)
- Python 3.10+
requests(基础依赖)trafilatura、beautifulsoup4、lxml(search-layer v3.0 链式追踪依赖)- API Keys:按需配置(见上方配置章节)
以下仓库的内容已合并到本仓库,不再单独维护:
- openclaw-search-skills → search-layer + content-extract + mineru-extract
- github-explorer-skill → github-explorer
MIT