每日一博 | 大模型的规模扩展是否可持续?
作者 |Dwarkesh Patel OneFlow编译 翻译|杨婷、宛子琳 AGI何时会到来? 如果我们能不断扩展LLMs++的规模(并因此取得更好和更通用的性能),就有理由期望到2040年(或更早)出现强人工智能,它能够自动化大部分认知劳动并加速人工智能研究。然而,如果扩展(scaling)不起作用,那么实现AGI的道路则会变得更加漫长、棘手。 为全面探讨有关扩展的正反观点,我构造了两个虚构角色(正方和反方),以辩论的形式讨论问题。 (本文作者Dwarkesh Patel是Lunar Society Podcast主理人。以下内容由OneFlow编译发布,转载请联系授权:https://www.dwarkeshpatel.com/p/will-scaling-work) 1 数据是否会用尽? 反方: 我们将在明年耗尽高质量语言数据(https://epochai.org/blog/will-we-run-out-of-ml-data-evidence-from-projecting-dataset)。 即便我们认真对待那些扩展曲线所暗示的趋势,也意味着我们需要1e35次浮点运算(F...

