OpenClaw 3元起养龙虾|小哆互联
OpenClaw 3元起养龙虾|小哆互联
2026-03-12 15:03
📡 养虾攻略:从零部署你的智能“虾塘”
这份攻略将您的每一步指令都视为搭建一个智能虾塘管理系统的重要环节。
第一步:搭建基础操作台 (安装 Python 并配置环境变量)
-
操作:从 Python 官方网站下载适合你操作系统(Windows/macOS/Linux)的 Python 3.8 或更高版本安装包。安装时,务必勾选“Add Python to PATH”(将 Python 添加到环境变量),这能让系统在任何位置识别 Python 命令。
-
注意事项:安装完成后,可以打开命令行工具(如 CMD 或终端),输入
python --version来验证是否安装成功。
第二步:引入核心控制系统 (使用指令安装 nanobot-ai)
-
操作:在命令行中输入您提供的指令:
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple nanobot-ai。这条指令使用了清华大学的镜像源来加速下载。 -
注意事项:确保网络畅通。如果提示
pip不是内部命令,可能需要重新检查第一步的环境变量配置。
第三步:初始化您的虾塘 (nanobot onboard)
-
操作:在命令行输入
nanobot onboard。这个命令通常会启动项目的初始化向导,可能会要求您创建管理员账号或生成基础配置文件。 -
注意事项:请留意屏幕上的提示信息,它可能会指导您进行后续操作或生成重要的访问地址和密钥。
第四步:安装智能监测器 (配置 钉钉/QQ/Email 连接器见附录)
-
目标:让您的虾塘系统能够通过不同的渠道发送通知。
-
通用思路:您需要找到项目的配置文件(可能是
config.yaml或通过nanobot config命令)。在这些配置中,您需要填入对应平台(钉钉、QQ、邮件服务商)提供的 API 密钥、机器人 Token 或邮箱密码/授权码。这些凭证通常在您注册对应的开发者账号或创建机器人后获得。
第五步:准备核心“虾粮” (配置龙虾养料 & 附录2 本地 Ollama)
-
目标:这一步是为系统配置“大脑”,即 AI 模型。
-
操作:
-
准备“粮仓”:根据您高性能服务器的步骤,先下载 Ollama 的可移植版本。
-
获取“配方”:使用
ollama.exe pull qwen3.5:0.8b命令下载一个轻量级的 AI 模型(这个模型就相当于一种基础“虾粮”配方)。 -
启动“粮仓”:运行 Ollama,让它作为后台服务。
-
连接“粮仓”到“虾塘”:修改
nanobot.config这个文件,在其中指定您刚刚启动的本地 Ollama 服务作为 AI 提供商(provider),并确保地址(如http://localhost:11434)正确。
-
第六步:开启自动化投喂与管理 (nanobot gateway)
-
操作:当所有配置完成后,在命令行输入
nanobot gateway。这通常会启动系统的主服务或网关,负责接收外部消息(通过您配置的钉钉等连接器)并调用 AI 模型进行处理。 -
注意事项:此命令执行后,命令行窗口通常会保持运行状态,显示服务日志。请不要关闭它,否则服务会停止。
第七步:将“虾塘”部署到云端 (选购 NAT 服务器)
-
目标:为了让您的系统 24/7 稳定运行,并可以从外网访问,需要将其部署到一台公网服务器上。
-
建议:选购一台配置合适的云服务器。NAT 服务器通常指具有公网 IP 的服务器,可以为您本地的服务提供公网访问能力。您需要将上述所有步骤在服务器上重新操作一遍。
- 打开 钉钉开放平台
- 进入 应用开发 → 企业内部开发 → 创建应用
- 添加 机器人 能力,消息接收模式选择 Stream 模式
- 发布应用,记录 AppKey 和 AppSecret
-
~/.nanobot/config.json
"dingtalk": {
"enabled": true,
"appId": "xxxxxxx",
"secret": "xxxxx",
"allowFrom": ["*"] 一定要加 *
}
- nanobot gateway 即可启动龙虾
- 打开 QQ机器人
- QQ账号登录 → 创建机器人 → 配置接入密钥
-
~/.nanobot/config.json
"qq": {
"enabled": true,
"appId": "xxxxxxx",
"secret": "xxxxx",
"allowFrom": ["*"] 一定要加 *
},
- nanobot gateway 即可启动龙虾