烧了快 20 亿的 Tokens,也没能做出一盘麻辣小龙虾🦞
本文来自用户投稿 出处:《碳基碎碎念》公众号 坚持手写,是对这个时代最大的尊重和致敬 从2月9日开始,截止3月10日,整整30天,养过3只龙虾,夭折1只,幸存2只,一只在mac,一只在window,本地模型也配置了不知道多少遍,从qwen2.5 7b,换了qwen3.5 4b,deepseek r1 8b,买了4070的卡,显卡坞,测试过几乎所有的云模型,最好用的还是gpt,确实跟其他的完全不是一个概念,中文里deepseek确实是最强的,当然LLM还是以语言推理为主,Agent是另外一个概念,所以,有必要把这30天的经历,记录下来,做个分享,因为确实感觉到碳基的焦虑,困惑,甚至是超出预期的判断,这些都是正常的,也是不正常的,由于我自己都经历了一遍,有一定的发言权,跟大家做一次探讨和分享。 1、LLM最大的问题是"记忆连续性",而真正的长期AI助手需要持续记忆 第一次看到clawdbot(openclaw的前身)改名了,觉得贾维斯要来了,完全符合gpt3刚出来的时候,我对AI所有的幻想,记得2023年gpt时刻,引爆全球的时候,我给他的定义是,高配的百度,低配的智子,人类对ai的认...