mirror of
https://github.com/LLM-Red-Team/kimi-free-api.git
synced 2024-12-22 15:49:19 +08:00
🚀 KIMI AI 长文本大模型白嫖服务,支持高速流式输出、联网搜索、长文档解读、图像解析、多轮对话,零配置部署,多路token支持,自动清理会话痕迹。
configs/dev | ||
doc | ||
src | ||
.dockerignore | ||
.gitignore | ||
Dockerfile | ||
libs.d.ts | ||
package.json | ||
README.md | ||
tsconfig.json |
KIMI AI Free 服务
声明
仅限自用,禁止对外提供服务,否则风险自担!
仅限自用,禁止对外提供服务,否则风险自担!
仅限自用,禁止对外提供服务,否则风险自担!
在线体验
此链接仅临时测试功能,不可长期使用,长期使用请自行部署。
https://udify.app/chat/Po0F6BMJ15q5vu2P
接入准备
从 kimi.moonshot.cn 获取refresh_token:进入kimi随便发起一个对话,然后F12打开开发者工具,从Application > Local Storage中找到refresh_token的值,这将作为API_KEY。
安装
请先安装好Node.js环境并且配置好环境变量,确认node命令可用。
安装依赖
npm i
安装PM2进行进程守护
npm i -g pm2
编译构建,看到dist目录就是构建完成
npm run build
启动服务
pm2 start dist/index.js --name "kimi-free-api"
查看服务实时日志
pm2 logs kimi-free-api
重启服务
pm2 reload kimi-free-api
停止服务
pm2 stop kimi-free-api
发起请求
目前支持与openai兼容的 /v1/chat/completions
接口
POST /v1/chat/completions
header 需要设置 Authorization 头部:
Authorization: Bearer [refresh_token]
JSON数据:
{
"messages": [
{
"role": "user",
"content": "测试"
}
],
// 如果使用SSE流请设置为true
"stream": false
}
部署
请准备一台具有公网IP的服务器,按照安装步骤部署好服务并将8000端口开放。
自行使用与openai或其他兼容的客户端接入接口。
或者使用dify线上服务接入使用。