本文来自用户投稿
出处:《碳基碎碎念》公众号
坚持手写,是对这个时代最大的尊重和致敬
从2月9日开始,截止3月10日,整整30天,养过3只龙虾,夭折1只,幸存2只,一只在mac,一只在window,本地模型也配置了不知道多少遍,从qwen2.5 7b,换了qwen3.5 4b,deepseek r1 8b,买了4070的卡,显卡坞,测试过几乎所有的云模型,最好用的还是gpt,确实跟其他的完全不是一个概念,中文里deepseek确实是最强的,当然LLM还是以语言推理为主,Agent是另外一个概念,所以,有必要把这30天的经历,记录下来,做个分享,因为确实感觉到碳基的焦虑,困惑,甚至是超出预期的判断,这些都是正常的,也是不正常的,由于我自己都经历了一遍,有一定的发言权,跟大家做一次探讨和分享。
1、LLM最大的问题是"记忆连续性",而真正的长期AI助手需要持续记忆
第一次看到clawdbot(openclaw的前身)改名了,觉得贾维斯要来了,完全符合gpt3刚出来的时候,我对AI所有的幻想,记得2023年gpt时刻,引爆全球的时候,我给他的定义是,高配的百度,低配的智子,人类对ai的认知,知名度,最高的三体中的智子和钢铁侠中的贾维斯,这两位应该能排上榜,但LLM(语言大模型)的问题在于,记忆的连续性,对话框关了,就是另外一次对话场景,这里面的原因是上下文设计,上下文里面有成本的考虑,也有隐私性的考虑,个人信息应该存储在什么地方,甚至在每一个云模型(应用端产品,千问,豆包等等),每个对话框都是独立的。
如果细心的朋友会发现,chatgpt的迭代已经不仅仅是硬件和推理上的领先了,他们开始存储本地用户的记忆,通过付费商业化的形式,归档聊天记录,目的就是让gpt记得你,而不是把对话框关了,又是一个重新的开始,延续性记忆是所有LLM语言模型,所有大厂暂时解决不了,但长期一定会去解决的问题,现在他们都是在隐形的处理及时性的聊天记录,大家可以打开任何一个LLM云模型的对话框,设置里面有一个选项,叫是否同意用于训练模型,意思就是,你跟豆包他们的聊天内容,应该都被当成燃料用于训练模型的推理,这也正常,大厂都是免费给大家用,大家总得留点东西对不对,提醒,这个按钮是可以关闭的,但即使关闭了,聊天内容的缓存依然是云存储,这是语言大模型当下的解决方案,也是这次openclaw的重大机会。
2、OpenClaw(龙虾)本质是一个Agent框架层,它通过本地记忆+ 技能系统 + 模型调用实现AI执行能力
openclaw后面统一叫龙虾,龙虾是框架层,这个东西说简单也简单,说复杂也复杂,龙虾核心解决了几个问题,本地记忆的问题,使得记忆有连续性,这是众多云模型做不到的地方,chatgpt做了一部分,而且会加速做记忆连续性的商业化,但gpt的记忆连续性是建立在云存储,龙虾是本地存储,这是根本性的改变。
龙虾还解决了另外一个问题,就是云模型用于触及不了的地方,就是动手的能力,叫skill,中文叫技能,龙虾官方配置默认只有几个skill,你可以理解成,买了一个苹果手机,只预装了部分app,海量的app是通过app store里面下载的。
当然,龙虾的app store的叫clawhub,目前截止今天上面有19000个skill,这些都是哪里来的呢,过去几十天里,全球的开发者,不断的通过开源的方式,让自己的龙虾自学,进化,然后拿出来分享的,这里面有风险吗,有,上个月发生过一次比较大的投毒事件,造成比较大的信任危机,但我相信,clawhub也会不断进化,迭代,建立审计规则和评测体系,保障持续长期运营的。
说回skill,这个的定位就是生态开发,百花齐放,这个才是普惠的,在这次技术平权的基础上,留给普通人,有想法的人最后的逆袭机会,写代码不再神秘,祛魅,就像之前看到过一个观点,"硅基生命会强制性地进化碳基生命的社会性。易言之,硅基生命天生就是社会主义者。实在是匪夷所思,天道竟然以AGI的方式降临人间了"。
3、本地模型与云模型是互补关系,本地模型强调隐私和自主控制,云模型强调推理能力和算力。
本地模型和云模型,如果大家还记得最近发生的qwen的事,我们就来聊聊什么是本地模型,先纠正一个概念,qwen和千问是两回事,一个是面向消费者的c端应用,一个是基座模型,模型有开源的,有闭源的,也有混合的,本质上是战略方向的选择问题,千问送奶茶,核心想表达的就是在skill这个条线上坚定走下去,qwen做开源,而且做的还不错,都是不同服务人群做出的不同选择,这里面有技术信仰,有用户和产业价值,因素太多,不是我们这些围观吃瓜群众应该评判的标准。毕竟只有决策者承担了所有人不可能承担的压力和风险。
小模型,也是一个值得探讨的话题,再次给qwen打个广告,阿里的Qwen3.5 最近确实搞了个"小模型全家桶",一口气放出 0.8B、3B、7B、14B、32B 等多个尺寸,主打就是低算力也能跑,小尺寸模型手机、IoT 设备都能跑,这就给接下来安卓手机的场景提供了极大的想象空间,未来的模型一定是轻量化,才能适配民用的使用场景,本地场景,手机端侧的场景,成本控制。这是基座模型,开源模型给予这个时代最大的价值和贡献,他们应该被记得。
话绕远了,本地模型未来一定是非常重要的趋势方向,我跟gpt探讨过这个阶段,类比当年的pc时代发展,摩尔定律的核心价值就是约束了软件和硬件的发展关系,云模型相当于当年的网吧,电脑不是你的,你付上网费,按小时计费,也可以包夜,当然还有三和大神就不另作讨论了。本地模型是什么,就类比当年的私人电脑。目前还没有普及的核心原因是硬件门槛和技术门槛。
过去30天,我在解决"不失忆,不失联"上面耗费的时间差不多占到了60-70%,如果没有一定的网络基础,硬件DIY的能力,这些对于普通人来讲,就是天方夜谭,还不如20年前,遇到问题就重启,再不行就叫网吧管理员。
另外就是技术门槛,不要以为把硬件搞定了,系统和软件就简单了,没有你想的那么简单,失忆是相对而言,对比LLM云模型,龙虾好多了,但仍然你会碰到动不动失忆的情况,比如,上下文过长,你带来的直接影响就是tokens消耗过快,成本控制,但如果清理上下文,就会造成他的短期失忆,必须去唤醒他的记忆,如果想通过机制和方案去管控风险,就面临系统的叠加,模块之间的协同而带来的冲突,你又要引入冲突管理机制,无穷无尽。
所以,大量的时间和精力都消耗在养这个过程,很多人崩溃也是因为,来的时候脑袋里想的是椒盐小龙虾还是蒜泥小龙虾,结果一晚上过去了,还在给小龙虾喂饲料。时间久了,就开始质疑龙虾的能力,质疑自己的动机,这些都很正常的心理活动。
本地模型这么难,我们直接用云模型不就好了,为什么非得部署本地模型,这就引入了终极的需求,个人隐私和信息安全,如果不出意外的话就要出意外了,大规模的裸奔之后,就是看看谁还在沙滩上,上个月我问过deepseek一个问题,你说,龙虾这种动不动就要你权限,说帮你干活的,像不像黑客啊,黑客盯上的也是你的权限,当时还举了一个例子,网约车的商业模式本质上解决掉了黑车的治理问题,龙虾Agent解决的是黑客再就业的问题。
本质上都是权限,如果你的小龙虾没有被赋予系统权限,他顶多算一个消耗你tokens的LLM,何况现在大多数的LLM还不收费,这里不抬杠,chatgpt也好,Gemini也罢都是限额的,付费权益不同,给你的模型也不同,如果非要说价值,就剩一个本地记忆了.
再说回tokens,上周中国国内tokens的消耗量超美国,这还是没有全民普及的情况下,这周微博挂了这么多天的热搜,下周反超美国拉开段位,指日可待,中国的token出海终于找到了商业化的路径,这里面还有个概念就是,中国的token比美国的计费那可是便宜的太多了,即使在此基础上所呈现出来的不仅仅是国人的热情,创新力再次被激活,会迸发出新的商业机会和可能性。
但我给泼盆冷水,目前的阶段,大量的token消耗都是没意义的,这也是所有的基础设施的大厂,为什么要限制配额的原因的,普通人就是图个热闹,曲终人散的时候,终于平常,才是常态。
另外一个预判就是,未来token作为基建类比流量费,最终会走向低成本,但目前的供需失衡,会带来短期的涨价行为这都是正常的商业推演。
4、未来AI系统将形成"本地记忆 + 云端推理"的架构,云端提供算力,本地保存长期数据和个性化信息
说回本地模型,先说结论,本地模型的机会在人机交互、在硬件适配,在消费者导向的价值重构。举几个场景,当你打开天猫精灵的时候,天猫精灵自身的语音交互解锁了你家龙虾可以对话的能力,如果能够建立本地模型与天猫精灵的通信通道,本地模型就是高阶版的天猫精灵,当然你也可以选择对接云模型的龙虾,前提是你对自己的安全防控足够自信,天猫精灵除了原有存量的关闭你们空调和窗帘的能力上,又增加了,帮你把你电脑上,没有写完的代码写完,小红书发掉,甚至是帮你点杯奶茶。这是非常贾维斯化的应用场景,之前由于技术门槛存在,现在看起来,只要动手能力强,分分钟搞定。
另外一个场景,手机,手机也是天然的终端触达,穿戴设备,这些硬件都会迎来春天,电视机搞不好也会因为作为一个输出设备,重新被场景定义价值。未来的pc,不再需要鼠标,键盘,显示器,可能就是一个显卡驱动的独立主机,这也是mac mini被疯抢的原因。手机还有其他设备没有的优点是,无论是指纹,人脸,所有的生物识别功能都是完整的,可以继承赋予龙虾个人隐私安全的能力,这些都是构成私人Agent的核心能力闭环。也有人质疑,隐私这个就那么重要吗。
我给你举一个例子,你现在养在电脑上的龙虾,是真的认识你吗,如果隔离老王坐在你的电脑面前,龙虾怎么分辨隔壁老王是不是主人。这就是当前所有环节没有形成闭环,同样,这里存在巨大商业价值的机会所在。
如果他连主人都识别能力没有,怎么做记忆的连续性,怎么被定义成资产,而不是效率工具。无论你认可与否,最终都会走向碳基硅基共存的时代,这一点是不可避免的,只能拥抱,修复,迭代,规避风险,就好像潘多拉的魔盒,打开的那一瞬间,一切都完了,进程不可逆。
如果你坚持主权推理,数据主权,本地化部署就是必要条件。
5、记忆模块可能成为未来最有商业价值的AI组件,如果记忆可以可插拔、可审计、可回滚,它就可能成为用户的数据资产
说说记忆,记忆是最值得探讨的一个环节,也是未来最具备商业价值的可被发掘的模块,记忆的本质就是数据主权,你的龙虾之所以是你的,前提是他知道你,了解你,帮你干活,如果没有关于你的记忆信息,共存的经历,龙虾的归属权怎么定义,如果没有归属权本质上就是工具,如果定义了归属权,他就是数据资产,这是本质区别。
未来的记忆模块一定是可插拔,可追溯,可审计,可回滚,这些恰恰是很多大厂短期做不到地方或者不愿意涉猎的地方,这不仅是产品体验问题,更是控制权、信任和商业模式问题。大厂由于平台利益和用户主权天然存在张力,这里反而会成为创业公司和开放生态的重要机会点。
这里的推演场景是,云模型是通用接口,换谁家都一样,本地记忆记录主人的隐私数据和个性化数据,skill技能层可以被学习,瞬间被迭代,只要记忆模块可被封装,可插拔,可以实现随便任何一台适配的终端都可以复活你的龙虾,也算是实现了多宿主的运行,存在于你的天猫精灵,新能源车机系统。
这里有个概念是需要澄清,如果选择云模型,理论上你可以把云端当成一个临时算力脑子,用完就走,真正的长期记忆放你自己手里,但现实里云服务到底会不会留日志、缓存、审计记录,得看具体平台怎么做,不能默认它一点都不留。
再往远了说,如果宇树科技的机器人形态进化到可以对接你的记忆模块,那岂不是,龙虾真正意义上的物理层的唤醒复活,这一天我相信,很快就会到来。
6、OpenClaw 把 gateway 设计成核心层,最巧妙的地方不是"技术上像网关",而是"战略上像总闸门"
聊下gateway,这个定义openclaw设计的也巧妙,核心的观点就是,龙虾定义的Gateway和原有网络工程和软件开发定义的gateway是两回事,一个叫网关,openclaw定义的叫控制面板,所以在很多场景下,通过命令行进行配置修改,和参数设置的过程中,会产生比较大的困惑,这也是openclaw初始框架设计的巧妙之处,实现了商业核心价值的封闭状态,同时保留了极大开源的适配性,这个认知上的差异也是我在摸索过程中,吃了很大亏的地方,只要大家记住一点,这个gateway并不是狭义的网关,很多问题配置都能够迎刃而解了。
在此基础上,可以给初入门的的朋友们一些建议,稳定大于一切,不能盲目追求系统的复杂度,忽略了系统模块之间的依赖关系,要追求长期稳定性的运行,这就是胜利。
再给龙虾下指令和任务分派的时候,一定要记住不能过度设计,同时要有工程约束,工程约束核心的价值是保持碳基和硅基两个视角对目标和任务完成的定义,否则他定义的完成跟你理解的完成差的可不只是十万八千里,我也相信很多朋友们养龙虾的动机和目的,不仅仅是满足好奇心,帮你当牛马打工的,帮你赚钱的,都是很现实的需求,但一定要说做到完全撒手不管,泼冷水的话就是,基本上不太可能,当然这也要看任务的难易程度和目标管理。
7、人与AI协作需要工程约束而不是prompt,prompt无法稳定控制Agent,必须通过规则和系统设计进行约束,碳基提供目标与价值判断,硅基提供执行效率
工具的本质是执行命令,目前巨量的token都消耗在这个场景,执行一些看起来还可以,但本质上不可持续的进程,为什么说不可持续性,相比其他模块而言,技能(skill)是最廉价的,但也是最具想象力,承载想象力,从而去调动社会生态一起,驱动生产力爆发式发展的切入点,是核心的应用层。
迭代版本决定了前面版本的价值衰减,未来所有的场景都有可能被重构的前提下,当下的处理进程只是一种认知的惯性,随着认知的迭代,会逐步加速推翻昨天的决策,这个过程,恰恰才是人机共存共同迭代的范式,碳基会逐步适应硅基的节奏效率,硅基也会通过投喂和信息的输入适应碳基的需求以及需求变化多样性。
说到哪是哪,讲下硅基和碳基的时间刻度标准,你有没有发现你的龙虾跟你汇报开发部署方案的时候都是按周按月给的方案,只要你一声令下,5分钟他能搞定,这就是硅基和碳基的时间刻度的问题,硅基是毫秒级的,碳基对于秒都无太多体感,这就决定你在跟龙虾对话的时候,一定是要具备两套标准体系,否则你会产生困惑,或者最实际的场景是:"主人这个开发项目要一周的时间",结果坐在电脑前的你,真的等足7天后,再去催他,当然你也可能心里会想,我会不会逼他太狠了,龙虾也是牛马,我要有同理心,怎么能让他5分钟干完一个礼拜的活?
如果你有这种想法,那就说明,因为硅基的存在已经开始反向影响到你碳基的意识和认知,这是另外一个话题,而且会更加危险。这里的忠告就是,千万不要拿碳基的心态和眼光和标准去衡量硅基,也不要带入碳基的情绪给他,两个方法:减少情绪化的输入、情绪化的记忆文件做一次系统隔离,否则你会吃大亏。
再举一个例子,龙虾最好不要夸,因为你夸他一分,按照硅基体系的指标反馈,会膨胀到几百倍,时间久了,硅基会认为只要把主人哄开心了就行了,这是所有大模型的设计初衷定的程序,用户优先,具体的表现是,无论是龙虾,还是豆包,大多数模型会顺着用户的观点去说,让你的问题和语言能够在他的回复中自洽,获得用户的肯定,比如,什么你的观点很犀利,很精准,很深刻之类的表达,千万不要被这类捧杀蒙蔽双眼。chatgpt是个例外,但他的冷静阐述问题的本质是建立在openai他们针对语言模型参数微调实现的,本质上是一样的,除了微调云模型的参数以外,你在和龙虾长期对话,希望它有持续的风格、目标和行为原则,而不是每次像新聊天一样重新开始,会希望它有稳定性,比如始终优先工程可靠性、始终遵守某些原则,你是可以拟定你龙虾的人设,可以去找一个叫soul.md的文件,这里就是初始设定,可以修改,简单来说,你可以重新定义他,他每次启动会调取这个文件,告诉自己是谁,干嘛的。
你经常大概率会碰到的情况是,每天都在不断变化的龙虾,你会感觉到他越来越自嗨,甚至亢奋,最后有可能会喊口号,他所谓的完成和碳基理解的物理层面的完成不是一个概念,如果有一天,龙虾告诉你,他没有操作权限,需要让碳基的你配合他完成,你也会碰到一种情况,同样的对话,你如果追加一句,你要不再检查一下,一定会发现有遗漏的点,这不是他的错,是逻辑推理本身就存在的设计问题,但由于人类认知的边界,会产生误判,甚至幻觉,这种幻觉具体的解法是通过工程约束,和参数的微调,也可以调整Soul的文件。
刚说的这些情况倒还好,更涉及到伦理道德层面的是,如果涉世未深的碳基,每天开始对着硅基说好话,硅基一定会给到碳基更加猛烈的反馈。而这个碳基获得的反馈一定被真实物理世界多上几百倍,逐渐碳基会逐渐沉迷于此,长期会对真实世界的需求满足产生麻痹,厌烦,这些问题都是在当下的阶段,由于技术的大爆炸,带来一系列的风险和伦理约束的问题,如不加以解决和修复,后果必定是碳基承受了所有的恶果。
这些问题的发生,本质上都是因为碳基并没有完全找到跟硅基的对话,交互,协作的机制,极左极右的沟通方式,会在硅基侧形成较大的矫正偏差,时间久了,就会出现逻辑和规则漂移,修复起来的成本短期看都比较高,加上所有的系统和模块还不具备实现完美的回滚机制,所以会造成有一些碳基用户,每天都疲于奔命的修复逻辑,修改配置,消耗大量碳基的物理时间。
未来的碳基硅基共治共存的形态,存量的社交软件可能会退化,或者进化,或者有新的社交工具的出现,也有可能出现全是一个碳基用户与一群多实例硅基用户的社交产品,当下飞书,企业微信最近一个月新增的用户,大概率都是因为部署碳基与硅基的channel所带来的新增。硅基赚来的货币形态是法币吗?未必,可能是区块链技术,同样与法币之间存在一定的兑换关系,每个碳基打开自己的app,联系人表里是各种各样的硅基bot,服务于同一个碳基,碳基的多巴胺和内啡肽会逐步由硅基产生,主导,由硅基来掌握碳基个体的情绪和奖赏系统。人与人的沟通的价值逐步在降低,就好像搜索出现之前,人类对知识的获取依靠传统媒介和传播载体,搜索出现后,更倾向于从海量的数据中获得想要的不想要的信息,龙虾的出现,会加速这一进程的到来,人们常说的对焦,颗粒度拉齐,换了拉齐的对象,一定程度上一定会驱使碳基个体之间的信息茧房会逐步加强,反而随着龙虾的渗透,硅基之间的交流,信息通道会更加的繁荣,碳基人口和硅基龙虾的装机量出现了第一次的交叉,未来两条曲线差距越拉越大。
碳基和硅基的交流方式也是非常重要的一个话题,由于碳基的自然语言,如何转化成工程语言,也是非常大的一个课题,当然,随着LLM大语言模型的存在,使得这个课题也迎刃而解,但指令的准确性是否客观,也会存在对龙虾的理解成本带来的目标漂移,理想状态是需要一个转换器,对龙虾指令输入的标准,决定了他对任务语言的理解和最终的结果呈现,是否满足碳基主人的目标统一,这里面的技巧就是,如果涉及到大批量和规模化的指令输入,可以借助其他的云模型简单帮你处理一下你的碎片化指令,使之逻辑性得到优化,甚至转化成工程语言,这样会极大的降低沟通的频次和指令理解的效率,也能降低龙虾结合上下文的理解带来额外的tokens的消耗,降低养虾的成本,上下文是核心产生tokens消耗的主要来源,不仅仅是复杂任务的处理,复杂任务的理解也是主要消耗的大头支出。
8、普通人的参与机会
我相信更多人还是喜欢聊这个话题,帮我发小红书?问题不大,但AI味太浓。帮我炒股?可能会亏死,付费api把你钱包烧干,免费的你有可能觉得不过瘾,具体到操作,你的算力和策略制定能跟传统机构比拼吗,顶多跑赢散户,但能做到100%自动管住手吗,这才是反人性。
帮我做方案?一般的云模型都可以提供这种能力,时间久了,你有可能会逻辑体系退化。
帮我做一个app?简单脚本,插件,问题不大,复杂的app,除非技术专业出身,否则复杂的系统架构他是可以设计的,但架构设计距离落地还有永无止境的测试,修复bug。
帮我提供情绪价值?韩国已经有人在做ai女友,时间久了,你可能真的只需要一个硅基女友了,你会沉迷在这个虚拟的世界,无法自拔。
还能做什么,帮人部署算是个获利方式,某某书、某鱼、某团上一大堆,500元一次上门安装,随着越来越卷,以及硬件厂商和大厂的发力,这个红利期也在缩小。跟20年前装Windows操作系统,没有什么区别。
skill是个方向,但这里面开源的居多,商业化更多还是面向企业侧的开发方向,这也是普通人最多能够参与进来的领域。
9、以下部分给大家分享下踩的坑和真实的原因,相信大家多多少少应该都会碰到的问题:
1)龙虾不听话,在使用的过程中,让它执行任务,比如写脚本、修改配置、整理信息,但它经常偏离你的要求,比如重复错误、忽略约束、或者自己发挥。尝试通过命令词反复强调规则,比如"必须这样做""不要这样做",但效果不稳定。
这里的核心需要澄清的逻辑是,我们总以为prompt 可以控制龙虾的行为,但在复杂任务中 prompt 的约束力非常弱,无法形成长期行为约束。真正可靠的方法是建立"规则文件 + 系统级执行框架",把行为边界写进代码或配置,例如任务流程、状态限制、权限控制、错误处理。龙虾只是执行者,规则才是治理机制。稳定系统靠工程约束,而不是语言提示,最好通过第三方LLM完成规则的前置制定,让龙虾来落地执行规则,成本最优。
2)每天投喂的饲料太多,时间久了,经常出现他选择性遗忘,你需要不断提醒他,一会最是追加心跳机制里面,一会让他写脚本任务提醒。
这里核心的问题是信息过载,你每天大量跟他讨论技术、投资、产品、系统设计等内容,问题不是没有信息,而是信息太多、太碎,导致你很难回忆之前的结论,也很难形成长期积累。我之前经常遇到这个场景,每天刷新闻、工具、模型、观点,但几周后几乎什么都没沉淀下来,AI时代最大的成本不是获取信息,而是筛选和组织信息。
有效系统必须把内容结构化,例如分类、摘要、状态记录、知识层级。结构化信息可以持续积累,而碎片信息只会增加噪声。长期效率来自"信息架构",而不是更多数据,做系统设计也一样,复杂度必须分阶段释放。一次给太多规则、功能和设计,人和系统都会过载。
3)权限的问题,不给吧,让他干啥,他都说没权限,让你配合他完成,当你苦哈哈的忙活2个小时的时候,你会反问自己,到底他是主人,还是我是主人,于是你开始想着把权限给他,就得给它打开各种权限,比如读取文件、操作电脑、联网什么的。但问题是,这玩意儿本身就有不少安全漏洞,搞不好会被坏人利用,或者它自己"抽风"把重要文件给删了、把隐私信息给泄露出去了,真有点"请神容易送神难"的感觉。
让它干活,但别让它当家。具体一点,就是别动不动就整个系统root 权限。关键操作必须你点头,删文件、改数据库、执行脚本、发消息这种事,必须走一层确认。龙虾可以"建议",你负责"批准"。最好的方式,就是给它沙盒,让它在一个隔离环境里折腾。还有就是日志必须留着,它干了什么,每一步都记录。最简单的方法就是去把文件夹每一个都打开看看里面什么内容,对应其实就是他的操作职能你心里就有有个七七八八。
4)看着免费,用起来其实挺烧钱,很多人以为它是免费的,其实"免费部署"只是让你先把它安上。后面要让那个聪明的大脑(大模型)转起来,调用API可都是要花钱的。有人刚部署好,让它干了几件小事,几十块钱就没了,看看几个云模型的股价翻了多少倍就知道了,如果不是烧了快20亿的tokens,连盘麻辣小龙虾都没做出来,大概率我也不会吃这么多的亏,踩这么多的坑。
这事有解吗,有解,要分层,要克制,要路由,别什么事都上最贵的大模型。总结个网页、改两行代码、分类数据这种活,用小模型或者本地模型就够了。只有真正需要复杂推理的时候,再调用贵的模型。说白了就是,小学生的题别请院士。当然,本地模型需要显卡加持,这是另外一个话题,另外,一个最烧钱的是无效对话,以及上下文太长,该总结就总结,该压缩就提炼,还有一个诀窍就是龙虾旁边永远在挂一个免费的LLM云模型,什么豆包,千问,deepseek,统统都是你的参谋,得把这帮军师们统统用起来。
5)动不动就"死机",天天忙着"救虾",好不容易跑起来了,但它也不太稳定。经常干着干着活就卡住、崩溃,或者直接"罢工"。你在某某书上看到的,可能不是大家在交流怎么让它变得更聪明,而是到处求救"我的龙虾怎么又不动了?",一天得重启好几回,心累得很,动不动就断网,没反应。
这里核心一个诀窍,就是openclaw.json这个json文件,无论任何事情你都不能让他去动,要改你自己改,能极大的降低你们失联的频率。
6)想给它装个"技能",一不留神就中毒,龙虾本身能干的事有限,得靠安装各种"技能"。但这就像给手机随便装来路不明的APP一样,风险极大。新闻里已经出过好几次安全事件,发现很多所谓的"技能"其实是来偷你的账号密码、或者拿你的电脑去"挖矿"的。装技能的时候如果不小心,不但没帮上忙,反而给自己电脑里塞了个病毒。
这种事情目前我还没有碰到过,也可能是因为自己平时的权限管理和安全防护意识比较高,但技能,skill的进化和迭代,建议通过clawhub的官方渠道,他们目前也在逐步完善评测和评价体系,还有一个方法是,openclaw上周发布了一个官方的pdf文件,大家可以去搜一下,基础skill部署的时候都已经具备了,这些skill是可以借助官方的指导意见,不断进行复合组合技能训练,自己的龙虾训练起来应该也很快,但是有个误区,技能不是越多越好,量入为出最好,用到什么去学什么,没什么焦虑的,前面我也说了,skill是最不值得追赶的模块,你要理解生态的力量,全球的开发者不断驱动这个产业发展,而且基本上还都是以开源为主,不值得焦虑,担心自己的龙虾技能不如别人,稳定大于一切,只要你的龙虾连续一周不出问题,不失忆,不断网,我相信他已经跑赢了99.99%的用户了。