首页 / 服务中心 / 教程中心 / Docker玩法 / 【Docker玩法】在绿联云NAS上搭建Kimi AI助手
【Docker玩法】在绿联云NAS上搭建Kimi AI助手
2024/06/28

部署要求

  1. Docker环境:确保您的系统上已安装并配置好Docker应用。如果没有安装“Docker”应用,请前往“应用库>应用中心”,在“应用中心”中,查找并安装“Docker”应用。

  2. 网络配置:根据应用需求,需要开放特定端口以供外部访问或进行服务间通信。

  3. 存储:确认存储空间是否有足够的磁盘空间用于存放镜像及运行时数据。


下载Kimi-Free-API镜像

  1. 在Docker管理界面,选择镜像>镜像仓库

  2. 搜索vinlic/kimi-free-api版本选择latest

  3. 点击<确定>开始下载镜像,等待下载完成。。


创建并配置容器

  1. 下载完成后我们开始创建容器,在本地镜像列表中选择刚下载的vinlic/kimi-free-api镜像。

  2. 点击+创建容器,配置容器参数。
    • 容器名称:这里以kimi-free-api为例。

    • 端口映射:选择一个不冲突的本地端口,以确保外部访问端口与容器内部端口正确映射,便于后续访问。例如 -p 8011:8000,将容器的8000端口映射到主机的8011端口。

    • 环境变量:根据Kimi AI助手的文档要求设置必要的环境变量,如-e TZ=Asia/Shanghai(时区,设为Asia/Shanghai)。

  3. 确认配置无误后,点击<完成>创建容器。


如果您熟悉命令行安装,可以使用命令行拉取镜像并启动服务

docker run -it -d --init --name kimi-free-api -p 8011:8000 -e TZ=Asia/Shanghai vinlic/kimi-free-api:latest

这里,-d标志表示以后台模式运行容器,-p用于端口映射,-e用于设置环境变量。-init 标志用于在容器内部启动一个 init 进程。

请注意,具体参数应根据vinlic/kimi-free-api镜像的实际文档或说明进行调整。如果该镜像有特定的部署指南或要求,请参照其官方说明或README文件。


运行kimi-free-api容器

在浏览器中输入http://您的绿联云IP:8011就能看到主界面,这里提示我们请通过LobeChat / NextChat / Dify等客户端或OpenAI SDK接入API。

获取 refresh_token

我们需要从 kimi官网 获取 refresh_token。

进入官网注册登录后随便发起一个对话,这里使用谷歌浏览器,按 F12 打开开发者工具,从Application > Local Storage 中找到 refresh_token的值复制保存,接下来会用到。

如果您使用的是edge浏览器,请按F12打开开发者工具,选择应用程序>本地存储,在右侧密钥找到refresh_token,将token值复制保存。


多账号接入

目前 kimi 限制普通账号每 3 小时内只能进行 30 轮长文本的问答(短文本不限),您可以通过提供多个账号的 refresh_token 并使用,拼接提供:

Authorization: Bearer TOKEN1,TOKEN2,TOKEN3

每次请求服务会从中挑选一个。

安装ChatGPT-Next-Web

运行kimi-free-api后,我们需要通过LobeChat / NextChat / Dify等客户端或OpenAI SDK接入API。我们这里以ChatGPT-Next-Web为例,如果您还没安装ChatGPT-Next-Web,可以参照以下方法配置。

  1. 前往Docker的镜像仓库,搜索yidadaa/chatgpt-next-web版本选择latest

  2. 下载完成后我们开始创建容器,在本地镜像列表中选择刚下载的yidadaa/chatgpt-next-web镜像。

  3. 点击 + 创建容器,配置容器参数。
    • 容器名称:这里以chatgpt-next-web为例。

    • 端口映射:选择一个不冲突的本地端口,以确保外部访问端口与容器内部端口正确映射,便于后续访问。例如 -p 3011:3000,将容器的3000端口映射到主机的3011端口。

    • 环境变量:设置以下几个变量

    • OPENAI_API_KEY:设置为刚才获取的refresh_token

    • BASE_URL:填写 kimi-free-api 服务的地址 + 端口,例如http://<您的绿联云IP>:8011.

    • CUSTOM_MODELS :用来控制模型列表,使用 + 增加一个模型,使用 - 来隐藏一个模型,使用 模型名=展示名 来自定义模型的展示名,用英文逗号隔开。这里用 -all,+kimi

  4. 将容器运行命令内的内容清空。


  1. 如果您已经安装过ChatGPT-Next-Web,仅需要修改三个环境变量参数即可

OPENAI_API_KEY:改为我们刚才复制的 refresh_token的值。

BASE_URL:填写 kimi-free-api 服务的地址 + 端口号。

CUSTOM_MODELS :从 -all,+gpt-3.5-turbo 改为 -all,+kimi。


  1. 确认配置无误后,点击<完成>创建容器。输入您的绿联云地址http://您的绿联云IP:3011访问ChatGPT-Next-Web,进入设置后可以看到模型已经被设置为 kimi

开启聊天对话

通过上述步骤,您可以在绿联NAS上成功部署并运行镜像。如果在操作过程中遇到问题,请查阅Docker和NAS的官方文档,或在相关技术论坛寻求帮助。


相关推荐
在线交流
关注微信公众号
服务热线:
0755-28066995
技术支持:
0755-21044617