AI 没有降低软件开发成本
独立开发者 Vincent Schmalbach 近日撰文指出,尽管人工智能工具显著提高了软件开发效率,但行业价格并未因此下降——AI 并没有让软件开发更便宜。
Schmalbach 以自身经验为例表示,使用 AI 后,一些任务的开发时间能从 4 小时缩短到 2 小时,但客户的预算与报价标准并未因此改变。市场定价仍由“惯例”和“期望”主导,而非开发者的实际工作效率。
他认为,AI 的真正影响体现在工作内容和期望的转变:同样的预算下,客户希望开发者能实现更多功能、更高质量。AI 并未减少项目量,反而扩大了项目范围。
也就是说,虽然成本没变,但在同一个预算之下,开发者/团队实际上在“能做的事情”上投入更多了。即原本预算可能只包含特性 A、B、C;而现在在同样预算下可能连 D、E、F 特性也能涵盖。换言之,客户对“能开发什么”期望变高了。
此外,AI 正在拉大开发者之间的差距。在 AI 时代,对有经验、懂得如何与 AI 工具协作的开发者来说,他们的效率/产出比以前提升很多。
Schmalbach 估计从“优秀 vs 弱”开发者之间的差距大约 5 倍,扩大到约 20 倍。而对经验较少、或尚未掌握 AI 工具有效使用方法的开发者来说,反而可能因为过度依赖 AI 建议、不能正确校验生成的代码、引入更多隐蔽 bug 而效率下降。
Schmalbach 总结称:“AI 让许多事情变得更容易,但也让其他事情更难。”常规任务的门槛降低,但复杂系统设计、架构和质量控制的要求更高。未来开发成本不太可能下降,但对优秀开发者的需求将更强烈。
来源:Vincent Schmalbach — Software Development Costs: Why AI Hasn’t Changed Prices
虽然 AI Coding 正在从 “炫技” 变成 “基础设施”。但真正的革命不是自动补全,而是让智能能力以工程方式融入团队的生产循环。当插件、IDE、CLI、云平台不再是孤立的工具,而成为同一个 “智能开发层” 的接口节点时,我们才算真正进入了 AI 编程的工程时代。
关于 “AI 如何真正工程化” 的五个问题 —— 智能协作、接口标准、平台闭环、信任边界与未来范式,都将成为 GOTC 2025 全球开源技术峰会的核心讨论议题。届时,来自 AI IDE 厂商、云平台、开源社区与一线开发团队的代表将共同登台,带来他们的见解,探讨 “AI 开发的工程化未来”。
访问 GOTC 官方报名通道报名参会:https://www.oschina.net/event/8598047
关注公众号
低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
-
上一篇
双11装机进行时,技嘉显卡带你纵横《战地6》
又到一年双11,恰逢《战地6》游戏新上市激战正酣,对于有需求装机或者升级电脑配置的小伙伴来说,现在就是购买显卡最佳时机。那么什么样的显卡才能满足《战地6》的游戏配置需求呢?下面就为大家推荐几款可以畅玩包括《战地6》在内的主流3A大作的显卡,叠加双11优惠入手更是超值。 根据实测不难发现,《战地6》对显卡的要求不高,RTX 5060即可在1080P下60FPS稳定运行;而2K选择RTX 5070还能保持144Hz的电竞高刷需求,4K亦可保持流畅;4K极限画质下则建议选择RTX 5080更具有性价比。 一、纯白迷你好装机、2千预算搞定1080P 相信对于绝大多数的玩家来说,2千元预算买显卡足矣。技嘉RTX 5060 EAGLE OC ICE 8G冰猎鹰显卡是一款专注于1080P分辨率游戏的高性价比选择。它纯白的外观加上双风扇迷你小巧的设计能够很好地融入当下流行的浅色主题装机方案,满足用户对美观的需求。 在性能方面,它的核心频率为2550 MHz,搭载了8GB GDDR7显存,在3DMARKTIME SPY的跑分约为14967,相比上一代产品性能提升超过30%,足以在1080P高画质下流畅...
-
下一篇
软件所提出基于信息论的大模型强化学习微调框架
中国科学院软件研究所天基综合信息系统全国重点实验室研究团队聚焦大语言模型(LLMs)在复杂推理任务中的优化问题,提出了一种基于信息论的强化微调框架Learning to Think (L2T),旨在平衡模型的推理效果和效率,为大语言模型在实际应用中的推理优化提供新的技术路径。 近日,相关成果论文Learning to Think: Information-Theoretic Reinforcement Fine-Tuning for LLMs在人工智能领域顶级会议NeurIPS 2025上发表,第一作者为博士生王婧瑶、副研究员强文文、博士生宋泽恩。 随着LLMs能力的不断提升,其应用场景已从基础自然语言处理任务扩展到需要多步逻辑推理的复杂问题。研究团队分析发现,对于复杂推理任务,现有LLMs大多依赖推理计算的最终结果作为奖励信号,缺乏对中间推理步骤的及时反馈,这会导致模型产生冗余计算,造成资源浪费,甚至可能降低推理效果。 针对上述问题,L2T框架首先进行了问题重构,将推理过程建模为多回合层次化对话,同时引入一种基于信息论的稠密过程奖励机制。该机制通过评估每一推理回合带来的信息增益,并采...
相关文章
文章评论
共有0条评论来说两句吧...



微信收款码
支付宝收款码