中文 | English
全新AI大模型接口管理与API聚合分发系统,支持将多种大模型转换成统一的OpenAI兼容接口,Claude接口,Gemini接口,可供个人或者企业内部大模型API
统一管理和渠道分发使用(key管理与二次分发),支持国际国内所有主流大模型,gemini,claude,qwen3,kimi-k2,豆包等,提供单可执行文件,
docker镜像,一键部署,开箱即用,完全开源,自主可控!
- MixAPI基于New-API和One-API,整合了NewAPI,OneAPI所有重要功能及问题改进优化,内置众多第三方插件为一身,成为名副其实的全能六边形战士!
- 超高性能优化,用魔法打败魔法,对主要转发通路的代码用AI大模型进行多轮特别优化,写出了人类想象不出的高效代码,提高大流量高并发场景性能50%以上!
- MixAPI-PRO版本,专门针对公司企业客户,去掉收费,充值,用户注册等繁琐环节,聚焦公司内部大模型API统一管理,安全审计,隐私防泄漏,大模型调用次数限制,频率限制等企业内部管理核心问题,详情点这里 MixAPI-PRO(https://github.com/aiprodcoder/MixAPI-PRO)
MIXAPI提供了丰富的功能:
- 🎨 全新的UI界面
- 🌍 多语言支持
- 💰 支持在线充值功能(易支付)
- 🔍 支持用key查询使用额度(已经内置)
- 🔄 兼容原版One API的数据库
- 💵 支持模型按次数收费
- ⚖️ 支持渠道加权随机
- 📈 数据看板(控制台)
- 🔒 令牌分组、模型限制
- 🤖 支持更多授权登陆方式(LinuxDO,Telegram、OIDC)
- 🔄 支持Rerank模型(Cohere和Jina)
- ⚡ 支持OpenAI Realtime API(包括Azure渠道)
- ⚡ 支持Claude Messages 格式
- 💵 支持使用路由/chat2link进入聊天界面
- 🔄 针对用户的模型限流功能
- 💰 缓存计费支持,开启后可以在缓存命中时按照设定的比例计费:
- 🔄 新增对token令牌的控制,可控制分钟请求次数限制和日请求次数限制
- 📊 新增用量日统计
- 📊 新增用量月统计
- 📋 新增令牌管理显示该令牌的今日次数和总次数
- 📝 新增通过令牌请求的内容记录显示
- 📝 支持通过令牌直接查询余额,无需登录
-
📝 支持令牌中选择渠道组,设定该令牌只有渠道组下面的渠道可用,并结合选择渠道组,选择模型达到限制需求
-
📝 API令牌中增加控制使用总次数限制,当达到总次数限制时返回额度已用完
-
📝 增加在系统设置是否记录用户通过令牌请求api 开关控制
-
📝 优化用户输入只采集中文,过滤代码字符
-
📝 优化同一会话的多轮请求重复记录,只记录最后一次
-
📝 优化增加系统设置清理日志的时间范围
-
📝 调整默认配置不启用价格,采用token显示余额 (合规方向)
-
📝 调整git任务流程打包发布名称输出
-
📝 调整数据看板的Api默认配置
-
📝 增加渠道导出excel 和导入excel
详细部署指南请参考下面教程
- 本地数据库(默认):SQLite(Docker部署默认使用SQLite)
- 远程数据库:MySQL版本 >= 5.7.8,PgSQL版本 >= 9.6 (非必须)
windows对应下载release里面的.exe文件双击运行,下载好.exe程序, 双击运行,运行起来后通过浏览器访问
http://localhost:3000
下载本项目源码 安装好go环境, 然后在根目录运行命令 , 可用于本地开发测试
git clone https://github.com/aiprodcoder/MIXAPI
cd MIXAPI
go run main.go
#浏览器访问 http://localhost:3000 即可打开界面
下载本项目Dockerfile文件,自行构建docker镜像,容器运行,可用于测试和正式运行
wget -O Dockerfile https://raw.githubusercontent.com/aiprodcoder/MIXAPI/main/Dockerfile
docker build -t mixapi .
# 测试运行命令
mkdir mix-api #创建工作目录
cd mix-api #进入工作目录
docker run -it --rm -p 3000:3000 -v $PWD:/data mixapi:latest ($PWD为当前工作目录)
# 正式运行命令
docker run --name mixapi -d --restart always -p 3000:3000 -v $PWD:/data -e TZ=Asia/Shanghai mixapi:latest ($PWD为当前工作目录)
# 浏览器访问 http://localhost:3000 即可打开界面
渠道重试功能已经实现,可以在设置->运营设置->通用设置
设置重试次数,建议开启缓存功能。
REDIS_CONN_STRING
:设置Redis作为缓存MEMORY_CACHE_ENABLED
:启用内存缓存(设置了Redis则无需手动设置)
OpenAI格式chat: http://你的MixAPI服务器地址:3000/v1/chat/completions
Anthropic格式chat: http://你的MixAPI服务器地址:3000/v1/messages
Gemini格式chat: http://你的MixAPI服务器地址:3000/v1beta
嵌入OpenAI: http://你的MixAPI服务器地址:3000/v1/embeddings