部署要求
Docker环境:确保您的系统上已安装并配置好Docker应用。如果没有安装“Docker”应用,请前往“应用库>应用中心”,在“应用中心”中,查找并安装“Docker”应用。
网络配置:根据应用需求,需要开放特定端口以供外部访问或进行服务间通信。
存储:确认存储空间是否有足够的磁盘空间用于存放镜像及运行时数据。
下载Kimi-Free-API镜像
在Docker管理界面,选择
镜像>镜像仓库
。搜索
vinlic/kimi-free-api
,版本选择latest
。点击<确定>开始下载镜像,等待下载完成。。
创建并配置容器
下载完成后我们开始创建容器,在本地镜像列表中选择刚下载的
vinlic/kimi-free-api
镜像。- 点击
+
创建容器,配置容器参数。 容器名称:这里以
kimi-free-api
为例。端口映射:选择一个不冲突的本地端口,以确保外部访问端口与容器内部端口正确映射,便于后续访问。例如
-p 8011:8000
,将容器的8000端口映射到主机的8011端口。环境变量:根据Kimi AI助手的文档要求设置必要的环境变量,如
-e TZ=Asia/Shanghai
(时区,设为Asia/Shanghai)。确认配置无误后,点击<完成>创建容器。
如果您熟悉命令行安装,可以使用命令行拉取镜像并启动服务
docker run -it -d --init --name kimi-free-api -p 8011:8000 -e TZ=Asia/Shanghai vinlic/kimi-free-api:latest
这里,-d
标志表示以后台模式运行容器,-p
用于端口映射,-e
用于设置环境变量。-init
标志用于在容器内部启动一个 init 进程。
请注意,具体参数应根据vinlic/kimi-free-api
镜像的实际文档或说明进行调整。如果该镜像有特定的部署指南或要求,请参照其官方说明或README文件。
运行kimi-free-api容器
在浏览器中输入http://您的绿联云IP:8011
就能看到主界面,这里提示我们请通过LobeChat / NextChat / Dify等客户端或OpenAI SDK接入API。
获取 refresh_token
我们需要从 kimi官网 获取 refresh_token。
进入官网注册登录后随便发起一个对话,这里使用谷歌浏览器,按 F12 打开开发者工具,从Application > Local Storage
中找到 refresh_token的值复制保存,接下来会用到。
如果您使用的是edge浏览器,请按F12打开开发者工具,选择应用程序>本地存储
,在右侧密钥找到refresh_token,将token值复制保存。
多账号接入
目前 kimi 限制普通账号每 3 小时内只能进行 30 轮长文本的问答(短文本不限),您可以通过提供多个账号的 refresh_token 并使用,
拼接提供:
Authorization: Bearer TOKEN1,TOKEN2,TOKEN3
每次请求服务会从中挑选一个。
安装ChatGPT-Next-Web
运行kimi-free-api
后,我们需要通过LobeChat / NextChat / Dify等客户端或OpenAI SDK接入API。我们这里以ChatGPT-Next-Web
为例,如果您还没安装ChatGPT-Next-Web
,可以参照以下方法配置。
前往Docker的镜像仓库,搜索
yidadaa/chatgpt-next-web
,版本选择latest
。下载完成后我们开始创建容器,在本地镜像列表中选择刚下载的
yidadaa/chatgpt-next-web
镜像。- 点击
+
创建容器,配置容器参数。 容器名称:这里以
chatgpt-next-web
为例。端口映射:选择一个不冲突的本地端口,以确保外部访问端口与容器内部端口正确映射,便于后续访问。例如
-p 3011:3000
,将容器的3000端口映射到主机的3011端口。环境变量:设置以下几个变量
OPENAI_API_KEY
:设置为刚才获取的refresh_token
。BASE_URL
:填写kimi-free-api
服务的地址 + 端口,例如http://<您的绿联云IP
>:8011.CUSTOM_MODELS
:用来控制模型列表,使用+
增加一个模型,使用-
来隐藏一个模型,使用模型名=展示名
来自定义模型的展示名,用英文逗号隔开。这里用-all,+kimi
。将容器运行命令内的内容清空。
如果您已经安装过ChatGPT-Next-Web,仅需要修改三个环境变量参数即可
OPENAI_API_KEY:改为我们刚才复制的 refresh_token的值。
BASE_URL:填写 kimi-free-api 服务的地址 + 端口号。
CUSTOM_MODELS :从 -all,+gpt-3.5-turbo 改为 -all,+kimi。
确认配置无误后,点击<完成>创建容器。输入您的绿联云地址
http://您的绿联云IP:3011
访问ChatGPT-Next-Web,进入设置后可以看到模型已经被设置为kimi
。
开启聊天对话
通过上述步骤,您可以在绿联NAS上成功部署并运行镜像。如果在操作过程中遇到问题,请查阅Docker和NAS的官方文档,或在相关技术论坛寻求帮助。