玩龙虾,耽误读书

这个周一晚上下班回家,我在家里的 MacBook Pro 上经过尝试,成功部署了 OpenClaw,玩上了龙虾。其实上周休假之前的前一个周末,我就已经开始尝试部署了。只不过当时心中对在自己的电脑上安装一个自己不熟悉的应用心中有些抵触,想在虚拟机里先搞搞看看,凭空增添了麻烦,又因为配置方面不大熟练,最终没有成功。目前家中防置的这台 MacBook Pro 反倒不是我最要紧的电脑,于是我干脆在上面直接安装,摸索着进行配置,就搞成功了。总结起来,上次失败的问题恐怕也不在本地,而是我使用的 KIMI 模型,虽然有试用,但需要实名认证才能让 API 生效。我这次打算充值了,才提示我没有实名。等实名过后,也就可以工作了。

于是从周一开始,就一发不可收拾。因为周一晚上要看孩子,所以确切说是从周二开始,我开始进行尝试,并且因为 KIMI 的免费版本并发很低,充值 100 元后成为 Tier 2 级别的账户后,日常使用就基本没有障碍了。此外,我还研究怎么在 VPS 上部署,然后发现腾讯云的轻量应用服务器现在在举行推广,有折扣,于是就先给自己在用的 VPS 续费一年,之后买了一台新的服务器,专门部署 OpenClaw。腾讯云把过程弄得很傻瓜化了,我一次终端都没有进入,直接在 web 后台就完成了配置,且默认就可以用 QQ 来控制对话,想添加飞书等通道也无需手动配置权限,都是自动把机器人给配置好了完成发布,当中要做的就是扫码授权。

有了相对的基础,我在办公室的一台闲置主机上也进行了部署,进行一些本地化的实验,这次也是非常成功,相对轻松的就解决了大部分的问题。然后,到了昨天,KIMI 的账单更新,我发现一天时间,我就烧了近 20 元。不过也并非没有收获,当中我用龙虾也解决了一个工作上的问题,因为运算结果在本地,也省去了过去使用公共 AI 只能复制粘贴获取结果的不便。

不过,昨天下午,我又研究了一下本地的大模型。过去我对这方面兴趣不大,因为总感觉它离我很遥远,还涉及到独立显卡等我过去不愿意研究的硬件,所以一直对此敬而远之。现在借由 OpenClaw 的机会,对大模型多了一些了解,也是看了近期爱范儿对 M5 Max 顶配 MacBook Pro 评测的文章,想看看我的本地是否可以运行一个模型。当然,大模型不用想了,小一些的,看看有没有希望。于是继续询问 AI,告知了我的电脑配置。去年还是前年的时候,自己把主力在用的 ThinkPad 的内存配到了 96GB,也加了一块 1T 的 SSD。本来购买这台电脑时,因为要运行 Linux,特意选了核显的配置,结果现在反倒成了拖累。AI 告诉我,因为我电脑的内存够大,因此在本地跑个 7B、8B 的小模型还是相对比较流畅的。进一步询问,选择相对比较简单的 Ollama 来运行模型,尝试下载 DeepSeek-R1 7B 模型,一个蒸馏自 Qwen 3 的小模型。到了今天早上看,下载成功,尝试了一些本地操作,如果不联网搜索的情况下,平均 1 分钟可以获得答案。剩下的应用尚需要继续摸索。

今天下午,我的兴奋劲头有所平复,感觉这周花费了不少时间在这方面,着实消耗了不少时间。诚然我也获得了之前远离的知识,但这周随身带着的《认知觉醒》一页也没翻,原本我是打算这周了解一下这本书的大概呢。需要引以为戒了。