醒醒吧,不要再做自嗨式开源了!
最近某上市公司旗下的KubeSphere项目宣布停止对开源版本的支持,瞬间在开源社区里引起了强烈反响。从项目的流行度角度来讲,该项目是很成功的,在Github上有1.6万的Star。这次调整毫无征兆且生硬粗鲁,让社区的用户愤慨不止,纷纷到Github上吐槽抱怨。
过了几天,官方在他们的产品官网出了一个公告,但还是坚持这次的调整。 官方的声明如下:
对官方做出的这种调整,我表示理解,毕竟企业做商业化策略调整,无可厚非。但行事上欠考虑,过于生硬,完全可以采取更温和的措施,帮助众多用户完成过渡,寻求商业化策略调整和社区稳定的平衡点。
今天我不是来批评KubeSphere团队的,更想借这个事件,跟做开源的兄弟姐妹们说句掏心窝子的话:醒醒吧,不要再做自嗨式的开源了。KubeSphere背后是一家上市公司在维护,都会遇到各种挑战,更何况我们这些小团队维护的开源项目呢?
自嗨式开源这个说法会比较直接,可能会让有些朋友觉得不舒服。但确实是我的心里话,希望能够给到做开源的朋友们一些参考建议。
什么是自嗨式开源呢?主要是凭兴趣做一个开源项目,选择最宽松的授权协议,一个star就会让自己高兴半天,一次几块钱的打赏捐助就能让自己满血复活。这样状态的开源,就是自嗨式开源。
兴趣重要吗?重要,但兴趣是否等同于真实的用户场景呢?不一定。但我观察到还是有大量的开源软件作者凭兴趣出发,做了一个开源项目后,坚信一定会有人使用,并坚持不懈地完善软件。
我曾经批评过一位朋友,他要做一个数据库的管理软件。我说数据库管理软件已经有很多开源的项目了,为啥要重新做一个呢?后来就没有再聊过天。看开源软件群里面,他现在不做数据库管理软件了,改做UI框架了。是因为在做数据库管理软件时,他把技术栈从原来的C++换成了C#,但在用C#过程中发现没有好用的跨平台的UI,然后又开始做UI框架了。对这位朋友的技术和热情我是非常钦佩的,但做开源项目也不能这样豪横任性吧。:)
所以做开源,兴趣不等同于真实场景,方向的选择上还是要慎重。
再来说协议。很多开源软件的作者认为开源项目一定要用最宽松的协议,这样软件的开放性才是最纯粹的。我猜很多开源软件作者会把采用严格模式的协议当成一件羞耻的事情。做开源,怎么可以用GPL这类的协议呢?但大家看赚钱的开源项目,都是采用严格模式的协议,或者在宽松协议基础上加了很多的附加条件。比如最近比较火的智能体相关的项目,Dify、n8n都是如此。
所以做开源,一定要慎重选择协议。KuberSphere团队之所以停止对开源软件的支持,还不是因为有很多第三方的厂商拿着它去做项目嘛,从授权协议上来讲,你又禁止不了这种行为,这就尴尬了。
再来说说Star。很多开源软件的作者一直盯着Star,觉得这是一个证明自己项目成功的关键标志。Star是说明你的用户比较多,但用户多不一定会带来收益,带来的可能是更多的Issue、Feature,以及更多的要求和支持的需求。这个世界上不缺高Star的开源项目,有很多的高Star的开源项目最后不了了之,创始人甚至因为维护开源项目导致自己穷困潦倒。更有甚者,有的作者会采取一些手段来提高自己的Star,这不过是掩耳盗铃,自欺欺人而已。
所以做开源,Star数量不重要,重要的是有商业诉求的真实用户。
最后来说说捐助?很多开源软件作者开通了打赏通道,还会在项目的显著位置感谢这些打赏者。很多开源软件作者看到有人捐助,就开心鼓舞,又动力满满了。有人打赏是好事情,我们也需要为这些打赏的网友们点个赞。但话说回来,做开源不可能只指望这些打赏啊,还是要靠能跑通的商业模式。
所以做开源,不能靠捐助,一定要跑通商业化这条路。
这就是我想就KuberSphere这件事情跟做开源的兄弟姐们说的话,不要再苦哈哈地做自嗨式创业了。要认真思考自己的产品的方向,围绕用户的真实场景设计自己的商业模式,跑通开源商业化之路,这样才能够更好地支持社区的用户,形成一个正向的循环。
我之前有整理过系列的关于开源商业化的文章,大家可以参考:

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
-
上一篇
高达99.57%GPU利用率,Alluxio在MLPerf Storage v2.0基准测试中展现卓越性能
最新的 MLPerf Storage v2.0 测试结果显示,Alluxio 通过分布式缓存技术大幅加速了 AI 训练和 checkpointing 工作负载的 I/O 性能,在多种常见的由于 I/O 瓶颈导致 GPU 利用率不足的场景中,成功将 GPU 利用率提升至 99.57%。 虽然 GPU 本身算力极强,但其在 AI 训练中的实际效能取决于能否解决两个关键的 I/O 瓶颈问题:数据加载和Checkpointing(检查点保存)。我们曾在白皮书《Alluxio助力多GPU集群突破I/O瓶颈,高效释放AI算力》中提到,AI 训练基础设施的真正挑战并不在于算力,而在于如何避免因数据加载或模型 checkpointing 过慢而导致昂贵的 GPU 资源闲置。 I/O 加速至关重要,这是因为现代 AI 训练不但涉及在多个训练周期中反复读取海量数据集,还伴随着频繁保存百 GB 以上的模型状态。当 I/O 速度无法匹配 GPU 处理能力时,GPU 将处于空闲状态,不仅浪费每小时高达数千美元的计算资源,还会严重影响关键模型开发进度。因此,MLCommons 推出了 MLPerf Storage...
-
下一篇
用 LangGraph + MCP Server 打造 SpreadJS 智能助手:让 AI 真正懂你的表格需求
前言 差不多今年,"MCP""Agent"一直都是AI领域的热点, 尤其是manus的出现, 显得Agent好像无所不能, 极大的展现了AI的思考和执行决策的能力。 AI 不再只是单纯地回答问题,而是能够主动理解任务、规划步骤、调用工具,并最终完成目标。 但是在控件领域, 控件产品基本都有很多API, 有时候哪怕最熟练的开发者也很难清楚每个API的定义. 比如SpreadJS :它提供了超过 2000 个 API,功能非常灵活,能够覆盖各种复杂场景。但对于开发者来说,光靠人工翻阅文档或记忆这些API显然效率不高。 如果用LLM帮助生成SpreadJS API代码, 开发效率肯定会提高, 不过,目前市面上常见的LLM(ChatGPT、DeepSeek、Grok、Gemini ),在 SpreadJS 这种细分领域上能做的事情有限, 简单API调用没什么问题, 比如最基础的 setValue、getValue,但难度一上来它们很容易出现幻觉, 生成一些看起来正确实则跑不了的代码。 比如从数据库取数据并构建一个仪表盘这种要调用多个plugin而且要进行深度使用, 考虑API联合工作的结果的复...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Docker安装Oracle12C,快速搭建Oracle学习环境
- Hadoop3单机部署,实现最简伪集群
- Eclipse初始化配置,告别卡顿、闪退、编译时间过长
- Springboot2将连接池hikari替换为druid,体验最强大的数据库连接池
- SpringBoot2全家桶,快速入门学习开发网站教程
- Jdk安装(Linux,MacOS,Windows),包含三大操作系统的最全安装
- Windows10,CentOS7,CentOS8安装Nodejs环境
- CentOS7,8上快速安装Gitea,搭建Git服务器
- CentOS8编译安装MySQL8.0.19
- SpringBoot2整合MyBatis,连接MySql数据库做增删改查操作