🚀 KIMI AI 长文本大模型白嫖服务,支持高速流式输出、联网搜索、长文档解读、图像解析、多轮对话,零配置部署,多路token支持,自动清理会话痕迹。
Go to file
2024-03-10 16:54:03 +08:00
configs/dev 移除配置 2024-03-10 15:36:26 +08:00
doc update README 2024-03-09 15:12:29 +08:00
src 移除配置 2024-03-10 15:36:26 +08:00
.dockerignore add Dockerfile 2024-03-10 16:16:08 +08:00
.gitignore first commit 2024-03-08 19:21:53 +08:00
Dockerfile 二阶段构建减少镜像体积 2024-03-10 16:42:07 +08:00
libs.d.ts first commit 2024-03-08 19:21:53 +08:00
package.json 修复url解析 2024-03-10 14:42:34 +08:00
README.md update README 2024-03-10 16:54:03 +08:00
tsconfig.json first commit 2024-03-08 19:21:53 +08:00

KIMI AI Free 服务

声明

仅限自用,禁止对外提供服务,否则风险自担!

仅限自用,禁止对外提供服务,否则风险自担!

仅限自用,禁止对外提供服务,否则风险自担!

在线体验

此链接仅临时测试功能,不可长期使用,长期使用请自行部署。

https://udify.app/chat/Po0F6BMJ15q5vu2P

example1 example2

接入准备

kimi.moonshot.cn 获取refresh_token进入kimi随便发起一个对话然后F12打开开发者工具从Application > Local Storage中找到refresh_token的值这将作为API_KEY。

Docker部署

拉取镜像

docker pull vinlic/kimi-free-api:latest

启动服务

docker run -it -d --init --name kimi-free-api -p 8000:8000 vinlic/kimi-free-api:latest

查看服务实时日志

docker logs -f kimi-free-api

重启服务

docker restart kimi-free-api

停止服务

docker stop kimi-free-api

原生部署

请先安装好Node.js环境并且配置好环境变量确认node命令可用。

安装依赖

npm i

安装PM2进行进程守护

npm i -g pm2

编译构建看到dist目录就是构建完成

npm run build

启动服务

pm2 start dist/index.js --name "kimi-free-api"

查看服务实时日志

pm2 logs kimi-free-api

重启服务

pm2 reload kimi-free-api

停止服务

pm2 stop kimi-free-api

发起请求

目前支持与openai兼容的 /v1/chat/completions 接口

POST /v1/chat/completions

header 需要设置 Authorization 头部:

Authorization: Bearer [refresh_token]

JSON数据

{
    "messages": [
        {
            "role": "user",
            "content": "测试"
        }
    ],
    // 如果使用SSE流请设置为true
    "stream": false
}

部署

请准备一台具有公网IP的服务器按照安装步骤部署好服务并将8000端口开放。

自行使用与openai或其他兼容的客户端接入接口。

或者使用dify线上服务接入使用。