您现在的位置是:首页 > 文章详情

苹果将大语言模型部署到设备本地

日期:2023-12-23点击:233

苹果研究团队在预印本平台 arxiv 发表论文《LLM in a flash》,介绍了一项全新的闪存技术,让苹果可以在其内存有限的设备上部署大语言模型。

论文地址:https://arxiv.org/pdf/2312.11514.pdf

研究团队表示,他们通过将模型参数存储在闪存 (Flash Memory) 中——也就是储存应用和照片的地方,解决了有效运行大语言模型容量的挑战。与传统用于运行大语言模型的 RAM 相比,闪存在移动设备中容量要大得多。

论文指出,这项技术可以让 AI 模型的运行规模达到 iPhone 可用内存的两倍。在这项技术的加持之下,LLM 的推理速度在 Apple M1 Max CPU 上提高了 4-5 倍,在 GPU 上提高了 20-25 倍。


延伸阅读

原文链接:https://www.oschina.net/news/272282/apple-wants-ai-to-run-directly-on-its-hardware
关注公众号

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。

持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。

转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。

文章评论

共有0条评论来说两句吧...

文章二维码

扫描即可查看该文章

点击排行

推荐阅读

最新文章