OpenClaw的一血体验

OpenClaw http://openclaw.ai/ 是一个基于 AI 的智能体平台,它可以帮助用户快速构建和部署智能体。最近火得一塌糊涂——一方面是开源,可以让人放心接入各类 LLM 使用;另一方面是因为它在部署之后几乎不需要用户有太多技术基础,很多能力和功能可以通过自己在解决问题的过程中,不断补全,成为一个越用越聪明(懂你)的助理。

简单记一下部署的坑和经验:

  1. 宿主机的 CPU 要求不高,但至少需要 4GB 内存,否则会报错 out of memory。因此许多小 VPS 都不适用(搬瓦工的 2c2g 和 1c1.5g 先后 oom)
  2. 不需要墙外环境,至少目前体验的 MiniMax M2.1/M2.5 用起来不会觉得傻。这其中应该有多轮自思考的原因。不过装基础设施依赖的时候,有加速梯子会畅快许多
  3. 最好在全新环境安装。虽然 js 应用一般不会有内核级的修改和依赖,但有时候一个 nginx 的配置就得折腾许久(特别是要使用 web UI 的话)
  4. 由于 OpenClaw 的用户交互主要基于成熟的 IM 工具,如 Whatsapp, Slack, Discord, Telegram 甚至飞书,因此它并不需要公网环境。只要 OpenClaw 的守护进程能和这些 IM 成功通信即可。当然为了保证交互的实时性,目前使用的 Slack 是通过 socket mode 实现的连接
  5. 为了能够异地维护,还顺便学了一下 Cloudflare 的 Zero Trust 功能。它可以帮助用户在没有公网 IP 的情况下,通过 Cloudflare 的服务器,实现对内部资源的访问。不得不说 Cloudflare 真是把网络结构和应用玩出了花,更可贵的是对于普通用量,它是免费的。

快速部署步骤:

  1. 去 MiniMax 开个账号,送 15 元,和一周 coding plan
  2. 把 IM 上需要的 token,权限搞定
  3. 找台机器,一键部署 curl -fsSL https://openclaw.ai/install.sh | bash
  4. 在 OC 上配好 MiniMax 和 IM 的 Oauth 或 Token
  5. 18789 端口上的 Web UI 需要带 token 访问,经常遇到问题,调试期还是 Terminal UI 方便(对于技术人员)
  6. 基本上配好后就可以只用 IM 和它对话了。Telegram 一直收不到短信验证码非常坑,Slack 体验不错(不能记录聊天记录有点坑)。可能之后试试 Discord 或飞书吧。
  7. 虽然 agent 已经很能解决问题,但把数据喂给它(尤其是大量数据的对接)在前期仍然比较麻烦。读完 markdown 的 AI 虽然牛,前提是得喂给它足够多的 markdown。不过 OC 可以自己通过各种方式读取数据,遇到账密等障碍也会直接提示,引导用户输入。对接过程中的不同接口类型的胶水代码完全不需要操心,它可以自己搞定。

惊讶点:

  1. ssh/webdav 等协议只需要告诉它 url,它就会连上后搜一圈下来,拿着答案问你下一步计划
  2. 如果是从博客系统读 markdown 文件,它甚至会顺便把源码撸一遍。Farbox 内配置好的 AWS SES,它会直接用来发邮件(太可怕了!!!)
  3. 读过一次 markdown 之后,再提问这些文档里提及的内容,它会很快回答,仿佛能记住内容

LLM 作为理解的基础和底座,Agent 使用它来理解用户的问题和指令,然后自动写代码形成工具,完成问题的解决,整个过程流畅而惬意。唯一的问题在于用户需要完全暴露自己的隐私,允许 agent 了解解决问题所需的尽可能多的信息——包括但不限于代码、文档、配置文件、数据库等。这在某种程度上是对用户隐私的侵犯,也是 agent 得以快速推广的最大限制。因此商业上的天然不信任感可能会成为 agent 快速拓荒的一大障碍,或许类似开源的 agent 会是一个长久存在的选项。
不过 AI 的行业聚集了太多聪明人和太多资本,发展得实在太快,谁也说不准下一个爆点是什么形态。从个人观点大概可以确定,卖算力(GPU)和模型 token 会成为一个类似能源的基础生意,而 agent 则会成为一个更加性感和具有爆发价值的新行业。

Comments
Write a Comment
'