您现在的位置是:首页 > 文章详情

开源日报 | Chrome禁用uBO;英特尔回应安全漏洞问题;李彦宏谈AI泡沫;医生看病跟程序员改bug一样;Meta重新变成酷公司

日期:2024-10-17点击:150

欢迎阅读 OSCHINA 编辑部出品的开源日报,每天更新一期。

# 2024.10.17

今日要闻

Chrome 自动禁用广告屏蔽扩展 uBlock Origin

uBlock Origin 开发者 Raymond Hill 近日在社交媒体转发一张截图,显示 Chrome 以 “不再受支持” 的理由自动禁用了 uBlock Origin。uBlock Origin 是基于 Manifest V2 的扩展,Google 正在淘汰 Manifest V2 强推限制更多的 Manifest V3,Raymond Hill 已经开发了基于 V3 的精简版本 Ublock Origin lite(uBOL),因 V3 的限制 uBOL 在功能上弱于 uBlock Origin。

via https://x.com/gorhill/status/1846185858744869245

Mistral 发布 Ministral 3B / 8B

Mistral 近日发布两款模型 Ministral 3B 和 Ministral 8B。官方表示,这两款模型可以提高笔记本电脑和智能手机等设备的本地化 AI 体验。

据悉,Ministral 3B 和 Ministral 8B可在没有互联网接入的情况下,执行翻译服务、本地分析和机器人等多项服务。其上下文窗口均为 128K,相当于一次可以处理 50 页文档。Ministral 8B 的价格为每百万个 tokens 售价 0.1 美元,而 3B 版本则为 0.04 美元,适合小规模操作或初创开发者。

被点名“安全漏洞问题频发”,英特尔回应

10 月 16 日,中国网络空间安全协会在官方微信平台发表文章《漏洞频发、故障率高 应系统排查英特尔产品网络安全风险》。其中提到英特尔四项安全问题:安全漏洞问题频发;可靠性差,漠视用户投诉;假借远程管理之名,行监控用户之实;暗设后门,危害网络和信息安全。

对此,英特尔今日在官微发布公告回应称:

作为一家在华经营近 40 年的跨国公司,英特尔严格遵守业务所在地适用的法律和法规。

英特尔始终将产品安全和质量放在首位,一直积极与客户和业界密切合作,确保产品的安全和质量。我们将与相关部门保持沟通,澄清相关疑问,并表明我们对产品安全和质量的坚定承诺。

阿里发布国际 Marco 翻译大模型

阿里国际最新研发的翻译大模型 Marco 于今日正式上线,支持中、英、日、韩、西、法等 15 种全球主流语种。

据阿里国际表示,Marco基于目前广泛使用的开源评测数据集 Flores,Marco 翻译大模型在 BLEU 自动评测指标上,领先于市面上的标杆翻译产品,如 Google 翻译、DeepL、GPT-4 等。Marco 能够根据上下文提供高质量的翻译和良好的可读性,甚至支持不同的翻译风格,满足多样化的翻译需求。

Python 3.14.0 Alpha 1

Python 3.14.0 Alpha 1 现已发布。Python 3.14 仍在开发中,此版本是计划中的七个 alpha 版本中的第一个。

公告指出,Alpha 版本旨在让测试新功能和错误修复的当前状态以及测试发布过程变得更加容易。在 alpha 阶段,可能会添加功能,直到 beta 阶段开始(2025-05-06),如果需要,可能会修改或删除功能,直到发布候选阶段(2025-07-22)。

预计 Python 3.14.0 将有四个 beta 版本,以及两个候选版本。如果一切按计划进行,Python 3.14.0 将于明年十月初正式发布。


今日观察

社交观察

李彦宏谈AI泡沫:不可避免,但泡沫后将有1%的企业脱颖而出

百度创始人李彦宏在《HBR Live:商业未来》与哈佛商业评论英文版总编辑殷阿笛(Adi Ignatius)对谈时表示,正如历史上的所有技术浪潮,在经历过最初的兴奋期之后,泡沫难以避免,但泡沫过后,会有1%的企业脱颖而出,为社会创造巨大价值。

在与Adi Ignatius对谈中,李彦宏谈及AI近期发展趋势、是否存在泡沫、AI与人类关系等多项AI相关的热点话题。他认为,过去18个月,大模型领域的最大变化是回答问题的准确性,此前,人们总是担心大模型的幻觉,但现在这一问题已基本被解决。他还指出,未来5-10年,每个人都将拥有程序员的能力。

同时,李彦宏再次提及中国AI的发展特色。他表示,尽管在中国市场上有数百种基础模型,但人们更关心的是应用产品与市场的契合度(Product Market Fit),关注哪些基于模型的应用将产生最大价值。

- 品玩

给一个CUDA算子,估计其带来的浮点数误差

CUDA编程里,常常涉及浮点运算。其中,比较底层的计算会做成算子,比如矩阵计算,2D卷积。精确的浮点运算是保证计算结果准确性的关键。实际上,浮点数是用来表示实数的近似值,但是由于浮点数的有限精度,难以避免存在误差问题,而且这些误差在连续计算过程中会累积。

除了算法的设计,数据结构的选择,要实现精确浮点运算还需要合理选择GPU硬件。所以,CUDA中实现浮点运算是一个综合多个因素的问题。

既然误差会存在,一个核心问题是,给一个CUDA算子,估计其带来的浮点数误差。貌似还没有看到很成熟的方案。

- 微博 蔡少伟

医生看病跟程序员改bug一样

医生看病跟程序员改bug一样的,出了bug(身体不适),一般程序员:try catch(头疼医头,脚疼医脚),不报错,好的程序员,排查根因彻底解决(查找诱因,解决后续隐患) ​​​。

- 微博 RememberAutumn

25年前,英伟达发布了世界上第一款GPU - GeForce 256

25年前,英伟达发布了世界上第一款GPU - GeForce 256。我现在工作中有一台Linux机器装备了2022年发布的 GeForce RTX 4090,是我开发在Kubernetes平台上支持和优化GPU的主力机器。

和GeForce 256比较,GeForce RTX 4090在性能、内存容量以及功能方面都实现了巨大飞跃。

- 制程工艺:220nm vs. 5nm
- 晶体管数量:1700万 vs. 760亿
- CUDA核心:无 vs. 16,384个
- 性能:960 MFLOPS vs. 82.58 TFLOPS(单精度),加速超过8万倍!
- 内存:32MB (64MB) vs. 24GB
- 内存带宽:1.144 GB/s vs. 1,008 GB/s
- 无光线追踪和AI功能 vs. 硬件加速光线追踪
……
GPU的应用已经从简单的固定功能图形处理器,成为今天的多功能和加速计算的核心。GPU不仅改变了游戏领域,更是AI的推进器和发动机,正在持续推动未来AI和计算的发展。

- 微博 硅谷陈源博士

一本开源书:《机器学习系统:设计和实现》

《机器学习系统:设计和实现》“做世界上第一本全面讲述机器学习系统知识的开源书籍”http://t.cn/A6XPYApN

- 微博 蔡少伟

媒体观察

专家解读诺奖:AI目前还仍未真正影响到物理学,短期看AI是一种“泡沫”

“Hinton 2006 年利用 RBM 做 DNN 自监督预训练,成功训练深度神经网络,可以说是这轮 AI 革命的先声,Hopfield 网络为 RBM 奠定了基础。”张宏江称,两个人其实跟物理有非常紧密的联系。另外,非常重要的是,诺奖给到网络机器学习领域,实际上是对于以神经网络为基础的 AI 或者机器学习的重要性的一个认可和期待。

- 钛媒体

左手AI右手AR,Meta如何重新变成酷公司?

Meta面临的挑战之一是没有与谷歌在安卓生态上达成合作。这意味着如果XR设备成为通用设备,用户可能需要在不同的生态系统之间切换,这与苹果生态提供的无缝体验形成鲜明对比。例如,使用Apple Vision Pro并登录Apple ID后,用户的微信等应用会自动准备好,可以直接使用。这对Meta来说是一个重大挑战。

- 36氪

字节豆包直面AI视频降本难题,压力给到了谁?

对于目前AI视频产品的“爆发”,北京市社会科学院副研究员王鹏表示,国内AI视频产品正处于快速发展和不断迭代的阶段,主要因为市场需求旺盛、应用场景广泛和商业化模式多样等。

- 每日经济新闻

中国工程院院士凌文:开源鸿蒙意义在于打造底层数字基座

中国工程院院士、山东省科协主席、上海交通大学讲习教授凌文在大会期间接受记者采访时表示,开源鸿蒙的意义在于“开天辟地”,成为许多科学、技术、工程的底层数字基座,只有建好这样坚实的底层数字基座,才能在此基座上更好地打造各种应用层、逻辑层、数据层。

- 新华财经

对话李开复:零一万物融的钱够做预训练,我做toB不会亏钱

“零一万物的toB做法是做有利润的解决方案,不只是卖模型不只是项目制。”李开复表示。他进一步称,由于基因问题,一家大模型公司同时做B端和C端非常辛苦,需要多元化的管理方式,也需要差异化的衡量方法。“零一万物选择把toB放在国内做,找破局空间,比如用数字人做零售,做餐饮,会形成完整解决方案,找本地供应商。”

- 硅星人

光明牵手华为,打造“AI之城 算力名片”!

双方将围绕“一集群一园两中心”开展长期合作,共同打造算力集群、国产软件联合创新中心、光明人工智能应用服务中心、开源鸿蒙产业生态园。华为将充分发挥其在技术、人才和生态资源等方面的独特优势,为光明区夯实数字基础设施,加速产业集聚发展,推动光明区数智化转型升级,打造全域智慧城市的标杆示范区。

- 人才光明


今日推荐

开源项目

armin/czkawka

https://github.com/qarmin/czkawka

Czkawka 是一个用 Rust 编写的、简单、快速且易于使用的应用程序,用于从计算机中删除不必要的文件。

每日一博

供应链 PC 实操落地实践

本文主要介绍实操发货交互模式的实现、实操环境的检测及自动修复 ,文章最后也介绍了实操效率指标的定义。

image.png


开源之声

用户观点

Rust编译后的二进制文件,比C++还大,这波输了?

  • 观点 1:最近在研究stm32跑rust 感觉编译出来的bin体积和c差不多啊, 体积大 可能是debug模式编译的 或者 优化没有开启
    • 观点 2:有些代码体积膨胀可能是宏展开造成的,嵌入式的开发,尤其是低成本的MCU上,Rust还是要有多地方需要完善
  • 观点 3:最小可以做到8kb,通常策略下可以做到30kb。这个对于一个性能语言已经足够。甚至芯片里面也一点压力也没有。当然,要求5kb以内的嵌入式程序怎么办??就这么点逻辑,还需要用rust吗?干嘛不直接用c?这是该纠结的问题吗。很多人小问题其实是给自己不想学习的的借口。
  • 观点 4:无论如何: Rust 的二进制文件确实会大一些,大概多出几十 K。 就这个情况,MCU上面就别想了,所以,Rust Embedded努力的方向到底对没有?
  • 观点 5:大的可能不是 rust 本身语言和库,有可能是 rust 编译器需要的代码和库,因为 rust 编译器(主要是llvm)是用c/c++写的。
    • 观点 6:我感觉 rust 和 java编译器其实没什么区别,主要是rust更安全。
  • 观点 7:R门教徒:我们在二进制中添加了libuniverse,可以让你的Rust程序掌控宇宙,R门
  • 观点 8:懂个毛,大不大看怎么写,怎么我就能写只有一百多字节(不是kb)的rust程序你不能
    • 观点 9:你说的是源文件吧,编译文件一个helloworld,我都没见过小于kb
  • 观点 10:取代c语言还为时过早
  • 观点 11:rust是用来人与AI进行编程渠道沟通的语言么?规矩那么的多。
  • 观点 12:判断写的比cxx多
  • 观点 13:别说十几k甚至几十k的体力差了,很多时候做ota升级包,差一点塞不进都只能拼命想方法。做嵌入式还是C最实用。

闭眼选CentOS的时代一去不复返,如何解决Linux发行版“选择困难症”?

  • 观点 1:有没有支持slackware的
  • 观点 2:最常选的还是个人用 Ubuntu server,商用 debian
  • 观点 3:Freebsd
  • 观点 4:我是小白,所以我用deepin,图个方便省事
  • 观点 5:没事还有一大堆人会装个CentOS7,甚至6、5,越老越稳定嘛
  • 观点 6:现在个人玩家基本都是洗发水家族,个人生产力基本都是ubuntu,服务器要么cent继续用要么升级rocky……其他都是邪路
  • 观点 7:服务器环境我选SLES或者openSUSE,个人用桌面发行版我选Pop!_OS和NixOS,渗透与取证选Athena OS
  • 观点 8:漏掉了欧拉没说,它也是centos衍生版
  • 观点 9:我一切都是Arch,从家庭服务器到pc。Arch做服务器1年没遇到过任何问题。
    • 观点 10:真好,但是我用不惯pacman
  • 观点 11:Archlinux是真的方便。
    • 观点 12:不了解不理解,能具体说点吗?
      • 观点 13:因为默认是一个最小的基本系统,所以常用于docker基础镜像
  • 观点 14:实际上redhat也免费的,还不错,主要是需要注册账号,然后没有镜像站
  • 观点 15:Fedora激进的更新方式可以躲避漏扫,只要我跑得快

---END---

 

原文链接:https://www.oschina.net/news/316569
关注公众号

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。

持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。

转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。

文章评论

共有0条评论来说两句吧...

文章二维码

扫描即可查看该文章

点击排行

推荐阅读

最新文章