开源中国携手顶尖高校和科研机构,共建开源生态获得北京市科学技术奖
北京市人民政府发布了关于2024年度北京市科学技术奖励的决定,对为科学技术进步、国际科技创新中心建设、首都经济社会发展作出创造性贡献的科技人员和组织给予奖励。
北京奥思研工智能科技有限公司(原深圳市奥思网络科技有限公司)作为参与单位,与北京大学、中国人民解放军国防科技大学、北京航空航天大学、中国电子技术标准化研究院、湖南智擎科技有限公司、北京理工大学携手合作完成的《开源生态成长式构建关键技术研发及大规模应用》项目获得了“科学技术进步奖”。
科学技术进步奖旨在奖励完成和应用推广创新性科技成果,为推动科技进步和经济社会发展作出突出贡献的个人和组织。这一荣誉不仅是对项目本身的高度认可,更是对参与单位科研实力和创新能力的有力证明。
开源中国・Gitee 作为北京奥思研工智能科技有限公司自主研发的 AI DevSecOps 研发效能平台,已汇聚 1350 万开发者,托管了 3600 万个代码仓库,服务了 36 万家企业级用户,以强劲的技术能力成为开源生态的基础设施,本次获奖实至荣归。
关于我们
开源中国
开源中国(OSCHINA)成立于 2008 年,是国内最具影响力的开源与 AI 技术社区之一。
目前有超过 1100 万专业开发者入驻,社区以技术交流和 AI 创新实践为核心,持续为开发者提供精准、高质量的技术资讯,丰富且完善的开源项目资源、专业化的 AI 创作平台,以及高效活跃的互动交流环境,形成了一个充满活力与创造力的开发者生态圈。
Gitee
Gitee 是开源中国运营的企业级 DevOps 研发管理平台,已经成为全球第二大的开发者平台,其中包含了代码管理、代码质量管理、持续交付、软件发布平台和项目协作管理等产品,并且支持公有云服务及私有化部署。
目前,Gitee 已经有超过 1350 万名开发者,累计托管超过 3600 万个代码仓库,是中国境内规模最大的代码托管平台。同时,旗下企业级 DevOps 研发效能管理平台 Gitee 企业版已服务超过 36 万家企业。
模力方舟(Gitee AI)
模力方舟(Gitee AI)是开源中国于 2023 年推出的一站式大模型服务平台,致力于做中国本土化的 AI 社区。
模力方舟(Gitee AI)旨在理解和解决 AI 落地和应用问题,满足中国用户和企业的需求。它提供开源模型、数据集和应用落地场景,提供地域化的服务,重视用户数据的隐私保护和数据安全,针对中国市场和用户需求,与本土的 AI 生态系统进行深度融合。

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
昆仑万维发布天工超级智能体:基于 deep research 的“AI 版 office”
昆仑万维宣布面向全球市场,同步发布天工超级智能体(Skywork Super Agents)。即日起,无需邀请码,海内外用户可直接注册使用。 “天工超级智能体(Skywork Super Agents)的问世,代表中国向全世界隆重宣告:传统的Office类软件已被颠覆,AI Office智能体时代已然到来!” 全球官网:https://skywork.ai 中国官网:https://tiangong.cn 根据介绍,这款产品采用了AI agent架构和deep research技术,能够一站式生成文档、PPT、表格(excel)、网页、播客和音视频多模态内容。它具有强大的deep research能力,在GAIA榜单上排名全球第一,超过了OpenAI Deep Research和Manus。 Skywork Super Agents 提供了5个专家级agents和1个通用agent,能大大提升专业级内容的生成效率和质量。 5个专家智能体,分别专注于专业文档(doc)、PPT、表格(excel)、播客和网页的生成:其中,文档、PPT、表格是办公人群最常用的需求,也是Microsoft O...
- 下一篇
大模型评估排障指南 | 关于推理
这是大模型评估排障指南系列文章的第一篇,敬请关注系列文章: 关于推理 关于 公式解析 关于可复现性 模型运行非常慢怎么办? 调整 batch size 如果你想要评估结果完全可复现 (在特定的输入 prompt 和硬件条件下),你可以把 batch size 可以设为 1。但如果增大 batch size (硬件条件允许的话) 将会加快推理速度。 数据并行 你可以将模型加载到多个 GPU 上,然后将数据集分为多个子集并分配给每个 GPU,最后汇总全部计算结果。 这意味着每个数据流是被并行同时处理的,从而将总执行时间缩短至 GPU 数分之一。尽量把 GPU 都放在一个节点上来避免跨节点传输瓶颈。 调整代码 不同的推理库由于代码优化的种种差异,推理速度不尽相同。你可能需要做一些对比试验来选出速度最快的库。如果模型层面你使用 pytorch 实现,建议可以参考这份 推理优化清单 。 https://pytorch.org/serve/performance_checklist.html 调整精度 你可以通过调整计算精度来减小模型大小,进而加快推理速度。虽然 float32 精度 (每个数字使...
相关文章
文章评论
共有0条评论来说两句吧...