开源日报:RISC-V 万兆开源交换机发售;npm 存在大量武林外传视频
欢迎阅读 OSCHINA 编辑部出品的开源日报,每天更新一期。
# 2024.1.30
今日要点
OpenSource Daily
RWKV-5-World 7B 模型开源 —— 最环保、最节能的 AI 模型
2024 年 1 月 28 日,RWKV 开源基金会宣布开源 RWKV-5-World 7B 模型。
据介绍,“RWKV-5-World 7B” 是 RWKV 第五代架构 7B 参数大模型,也是 RWKV 迄今为止多语言性能最强的开源大模型。根据性能评测数据显示,在 100% attention-free 和只训练 1.1T tokens 的前提下,RWKV-5 7B 模型的多语言性能超过 Mistral,英文性能看齐 LlaMa2。
Milk-V Vega: 全球首款 RISC-V 万兆开源交换机正式发售
MilkV 于去年 8 月亮相了 “全球首款开源万兆 RISC-V 网络交换机 Milk-V Vega”。时隔数月,该产品现已上架官方淘宝店开售,定价 799 元。
据介绍,Milk-V Vega 是 Milk-V 面向新一代网络架构开发的一款小体积、高密度盒式开源万兆网络交换机,为用户提供宽带、语音、视频、监控等多业务统一承载平台,多网融合覆盖全业务;搭载国产 RISC-V 高可靠网络交换芯片,帮助企业与用户大幅简化网络架构,降低能耗成本与运维成本。
Milk-V Vega 支持完备的二层网络协议处理功能,包括 L2 桥接,L2 组播和风暴抑制等;支持基于流、端口、协议、子网的 VLAN 功能;支持 STP,RSTP 和 QinQ 功能;支持防 DOS 攻击,黑白名单和协议包滤除功能;支持滤镜,链路聚合,OAM 报文发送和端口保护功能;支持入口及出口的 ACL 功能,还支持同步以太网,1588 功能。
Meta 发布全新代码生成大模型 Code Llama 70B
Meta 今天发布了全新的代码生成大模型 Code Llama 70B。据称其 HumanEval 评分达到 67.8,达到 GPT-4 水准,是目前评分最高的开源大模型。
Code Llama 70B 是此前 Code Llama 的升级版本,包括三个模型:
- CodeLlama-70B
- CodeLlama-70B-Python
- CodeLlama-70B-Instruct
开源地址:https://huggingface.co/codellama/CodeLlama-70b-hf
用户观点
媒体观点
每日项目榜
GitHub 榜单:
在线阅读完整日报内容,访问:开源日报第 005 期:npm 存在大量武林外传视频
往期回顾

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
Python HTTP 库 urllib3 支持直接在浏览器运行
Python HTTP 库 urllib3 最新版本 2.2.0 新增了一项重磅特性——可直接在浏览器运行。 根据介绍,从 2.2.0 开始,urllib3 支持在 Pyodide 运行时中使用 JavaScript fetch API,或者在 fetch API 不可用时(例如当跨源隔离未激活时)返回 XMLHttpRequest。这意味着开发者可以使用该库直接从浏览器发出 HTTP 请求。 由于 urllib3 的 Emscripten 支持与 API 兼容,这意味着依赖于 urllib3 的库现在也可以在 Emscripten 和 Pyodide 环境中使用。 此外,urllib3 已初步支持 HTTP/2,与此同时其团队正在筹集更多资金(大约 4 万美元)来完成该功能。他们表示这笔资金能确保项目在 2023 年财务支持急剧下降后获得长期可持续维护。 https://sethmlarson.dev/urllib3-is-fundraising-for-http2-support 详情查看 Release Notes。
- 下一篇
简单一招竟把 nginx 服务器性能提升 50 倍
需求背景 接到重点业务需求要分轮次展示数据,预估最高承接 9w 的 QPS,作为后端工程师下意识的就是把接口写好,分级缓存、机器扩容、线程拉满等等一系列连招准备,再因为数据更新频次两只手都数得过来,我们采取了最稳妥的处理方式,直接生成静态文件拿 CDN 抗量 架构流程大致如下所示: 数据更新后会重新生成新一轮次的文件,刷新 CDN 的时候会触发大量回源请求,应用服务器极端情况得 hold 住这 9w 的 QPS 第一次压测 双机房一共 40 台 4C 的机器,25KB 数据文件,5w 的 QPS 直接把 CPU 打到 90% 这明显不符合业务需求啊,咋办?先无脑加机器试试呗 就在这时测试同学反馈压测的数据不对,最后一轮文件最大会有 125KB,雪上加霜 于是乎文件替换,机器数量整体翻一倍扩到 80 台,服务端 CPU 依然是瓶颈,QPS 加不上去了 到底是哪里在消耗 CPU 资源呢,整体架构已经简单到不能再简单了 这时候我们注意到为了节省网络带宽 nginx 开启了 gzip 压缩,是不是这小子搞的鬼 server { listen 80; gzip on; gzip_disable ...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Windows10,CentOS7,CentOS8安装MongoDB4.0.16
- SpringBoot2全家桶,快速入门学习开发网站教程
- Springboot2将连接池hikari替换为druid,体验最强大的数据库连接池
- Eclipse初始化配置,告别卡顿、闪退、编译时间过长
- Docker快速安装Oracle11G,搭建oracle11g学习环境
- 2048小游戏-低调大师作品
- SpringBoot2更换Tomcat为Jetty,小型站点的福音
- CentOS8,CentOS7,CentOS6编译安装Redis5.0.7
- CentOS7,8上快速安装Gitea,搭建Git服务器
- CentOS6,CentOS7官方镜像安装Oracle11G