Google Reader 被“代码屎山”杀死
Google Reader的关停主要是出于技术原因,基础设施变化太大,代码无法继续更新。关闭工作主要由SRE团队负责,但执行时间可能延后。
所有订阅数据将交给苏黎世的Feeds团队归档。关闭决定后,内部沟通出现问题,最终宣布关闭的博客文章提前发布,但并未达到预期效果。
关闭时间主要是技术上的。基础设施发生了足够多的变化,导致Reader的代码库已经腐化,无法再推送到生产环境。听起来好像已经有大约6个月没有进行推送了。我相当确定我在离开之前不久(2012年10月)进行了推送,所以代码如此快速地腐化有点令人惊讶。
关停主要由SRE团队负责(Alan实际上将在7月1日前两周度假)。实际上听起来他们将在7月1日取消GFE规则,然后花时间关闭任何服务器,因为这实际上涉及了理解事物的工作原理及相互之间的依赖关系。FRBE团队肯定会运行更长一段时间,因为其他Google服务依赖于它们。
所有的订阅数据将交给苏黎世的Feeds团队(他们还继承了PubSubHubbub中心,甚至可能还有AJAX Feed API)。他们将希望对其进行归档。Matt Cutts一直是试图尽可能合理处理关闭工作的阴谋的一部分。
他说政治实际上并没有起到什么作用。如果是政治因素的话,最简单的做法就是什么都不做,让服务一直运行下去。Wipeout(Reader不符合要求,已删除Gaia账户的数据仍然存在)是一个轻微的因素,但如果这是唯一的原因,让它继续运行会更容易。
一旦关闭决定已经做出,他们就需要在博客文章上写上某人的名字(Google Blog,Reader Blog)。Alan说他愿意他的名字出现在Reader Blog上,因为他是最后一个工程师了。然而,这个名字(作为一个随机工程师)出现在宣布关闭几个服务的Google Blog文章上是没有意义的。更合理的是一个副总裁,或至少是一个主管。公关询问了几个主管和副总裁(包括Alan Noble,悉尼站点主管),他们都推脱了,称他们接下来几周将会见到(外部)人员,如果他们的名字出现在博客文章上,他们将会受到很多关于关闭Reader的批评。公关后来询问了Alan,经过考虑,他拒绝了。公关感谢他认真考虑了这个问题,然后去找Alan的经理并要求他去找Alan。Alan再次拒绝了。公关让他的经理再次询问他,Alan说只有在他们提升他为主管的情况下才会同意,这也是他最后听到的消息。最后Urs表示他愿意放他的名字上面。Alan对Urs的看法似乎相当不错;在所有副总裁中,他似乎是最愿意真诚地谈论Reader的人。
公关还给了Alan一份文件,让他发到reader-discuss@和内部Google+。显然这份文件很糟糕,但至少他被允许重写它。总的来说,公关现在似乎非常参与内部沟通;Alan对此显得相当愤世嫉俗。
宣布关闭的博客文章提前了一天。这个想法是利用新教皇的宣布和安迪·鲁宾被换掉的机会,以便Reader的新闻可能会被淹没。公关显然没有意识到关心其他两个事件的人(特别是教皇)不是关心Reader的人,所以它没有起作用。
这也搞乱了内部公告计划。最初的想法是在周二宣布管理层重组,周三上午举行一个全员大会讨论,然后在周三下午宣布关闭Reader,留下TGIF(现在是周四)作为讨论的场所。由于一切都发生在周二,全员大会最终被Reader的问题主导了。在TGIF上继续讨论,直到谢尔盖举起一个麦克风电缆说:“如果我咬下去,痛苦会停止吗?” Urs是唯一一个对Reader问题有合理回答的副总裁(特别是Matt Cutts辩护Reader的时间比较长)。大约一个月后,他们举办了一次“带父母上班日”,在那里他们在Shoreline Amphitheatre举行了一个特别的TGIF。显然,鼓励父母提问,第一个父母提到了Reader的关闭,这引起了所有Google员工的笑声。
本文转载自 煎蛋,译者:BALI
英文原文:persistent

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
Kubean 入选 CNCF Sandbox
继 2023 年 7 月下旬入选 CNCF Landscape 之后,集群生命周期管理工具 Kubean 于 2024 年 4 月 15 日经过 CNCF TAG 委员会投票,成功入选 CNCF Sandbox。 根据介绍,Kubean 本质上是一个 Operator,为容器化集群提供 CR 资源,能够以 Job 的形式完成集群部署等操作。就像传说中撒豆成兵的仙界将帅一样,只要你有一个集群打底,就可以通过 Kubean 用多种方式在各种环境下部署一个又一个的新生集群。 支持 Operator 和 Helm Chart 方式声明式方式从零部署集群,支持 D1、D2 高效运维集群(扩容、升级、卸载等) 支持在裸金属、虚拟机、云平台等各种环境上部署 Kubernetes 集群 支持几乎所有 Linux 发行版 支持日志追溯,方便集群运维(升级、扩展、卸载),也方便将集群回滚到某个作业状态 支持 Kubespray 等引擎 支持离线安装和升级 整体架构图: Kubean 需要运行在一个已存在的 Kubernetes 集群上,通过标准 CRD 资源和 Kubernetes 内建资源来控制和管理集...
- 下一篇
本地环境运行 Llama 3 大型模型
简介: Llama 是由 Meta(前身为 Facebook)的人工智能研究团队开发并开源的大型语言模型(LLM),它对商业用途开放,对整个人工智能领域产生了深远的影响。继之前发布的、支持4096个上下文的Llama 2模型之后,Meta 进一步推出了性能更卓越的 Meta Llama 3系列语言模型,包括一个8B(80亿参数)模型和一个70B(700亿参数)模型。Llama 3 70B 的性能媲美 Gemini 1.5 Pro,全面超越 Claude 大杯,而 400B+ 的模型则有望与 Claude 超大杯和新版 GPT-4 Turbo 掰手腕 在各种测试基准中,Llama 3系列模型展现了其卓越的性能,它们在实用性和安全性评估方面与市场上其他流行的闭源模型相媲美,甚至在某些方面有所超越。Meta Llama 3系列的发布,不仅巩固了其在大型语言模型领域的竞争地位,而且为研究人员、开发者和企业提供了强大的工具,以推动语言理解和生成技术的进一步发展。 项目地址: https://github.com/meta-llama/llama3 llama2和llama3的差异 llama3和...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- CentOS7安装Docker,走上虚拟化容器引擎之路
- SpringBoot2整合Thymeleaf,官方推荐html解决方案
- CentOS7设置SWAP分区,小内存服务器的救世主
- Hadoop3单机部署,实现最简伪集群
- CentOS8安装Docker,最新的服务器搭配容器使用
- CentOS8安装MyCat,轻松搞定数据库的读写分离、垂直分库、水平分库
- CentOS7编译安装Gcc9.2.0,解决mysql等软件编译问题
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- CentOS7,8上快速安装Gitea,搭建Git服务器
- CentOS7编译安装Cmake3.16.3,解决mysql等软件编译问题