美国对 12 名卡巴斯基高管实施制裁
在拜登政府宣布全面禁售卡巴斯基软件之后,美国财政部外国资产控制办公室(OFAC)又对 12 名卡巴斯基实验室高管实施了制裁,原因是他们被指认在俄罗斯联邦经济的技术部门工作。
此外,美国商务部还将俄罗斯卡巴斯基实验室、卡巴斯基集团和英国卡巴斯基实验室有限公司列入实体名单,禁止任何美国企业与它们开展业务。原因是它们与俄罗斯军方和情报部门合作,支持俄罗斯政府的网络情报目标。
美国财政部负责恐怖主义和金融情报的副部长 Brian E. Nelson 称:“今天针对卡巴斯基实验室领导层的行动凸显了我们确保网络领域完整性和保护公民免受恶意网络威胁的承诺。美国将在必要时采取行动,追究那些试图协助或以其他方式促成这些活动的人的责任。”
受制裁的 12 名卡巴斯基高管具体信息如下:
- Andrei Gennadyevich Tikhonov(Tikhonov)—— 卡巴斯基董事会成员兼首席财务官。
- Daniil Sergeyevich Borshchev(Borshchev) —— 卡巴斯基董事会成员兼战略与经济部副首席执行官
- Andrei Anatolyevich Efremov (Efremov) —— 卡巴斯基董事会成员兼首席业务发展官 (CBDO)
- Igor Gennadyevich Chekunov(Chekunov)—— 卡巴斯基董事会成员兼首席法律官(CLO)。
- Andrey Petrovich Dukhvalov(Dukhvalov)—— 卡巴斯基副总裁兼未来技术总监。
- Andrei Anatolyevich Suvorov(Suvorov)——卡巴斯基操作系统业务部负责人
- Denis Vladimirovich Zenkin(Zenkin)—— 卡巴斯基企业传播主管
- Marina Mikhaylovna Alekseeva(Alekseeva)—— 卡巴斯基首席人力资源官(CHRO)
- Mikhail Yuryevich Gerber(Gerber)—— 卡巴斯基消费者业务执行副总裁
- 安东·米哈伊洛维奇·伊万诺夫(Ivanov)—— 卡巴斯基首席技术官(CTO)
- Kirill Aleksandrovich Astrakhan(阿斯特拉罕)—— 卡巴斯基企业业务执行副总裁
- Anna Vladimirovna Kulashova(Kulashova)—— 卡巴斯基实验室俄罗斯和独立国家联合体(CIS)董事总经理
在受到制裁之后,上述人员在美国的资产将被冻结,且在制裁解除之前无法再使用这些资产。虽然其中许多成员直接向首席执行官 Eugene Kaspersky 汇报,但 OFAC 表示,他们尚未对卡巴斯基实验室、其母公司或子公司或其首席执行官进行制裁。
相关阅读:

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
OpenAI 收购 Rockset 以增强其检索能力
OpenAI 宣布完成对数据库分析公司 Rockset 的收购,但具体财务条款尚未披露。此举是 OpenAI 继去年收购 AI 设计公司 Global Illumination 之后公开宣布的第二次重大收购。 OpenAI 在其官方博客上发表的一篇公告中表示,他们将整合 Rockset 的技术来“为其所有产品的基础设施提供支持”。Rockset 团队的成员将加入 OpenAI,而 Rockset 的现有客户也将“逐步”离开 Rockset 平台。 OpenAI 首席运营官 Brad Lightcap 称,“Rockset 的基础设施使公司能够将其数据转化为可操作的情报。我们很高兴通过将 Rockset 的基础集成到 OpenAI 产品中,为我们的客户带来这些好处。” Rockset 由前 Facebook 工程师 Venkat Venkataramani 和 Tudor Bosman 以及数据库架构师 Dhruba Borthakur 于 2016 年共同创立,其创建的工具可让公司自动从数据库和公共云存储服务中提取数据,然后为搜索和分析应用程序索引这些数据。 数据显示,在被收购之前, ...
- 下一篇
万亿参数时代:大模型与小模型的竞合之路
大模型的发展已经进入了万亿级参数时代。DeepMind联合创始人穆斯塔法·苏莱曼(Mustafa Suleyman)预测, 仅在未来三年内,大模型规模以惊人的速度继续扩张,将增长1000倍。 一方面,模型的参数量与其能够处理和学习的复杂性直接相关。模型容量越大,往往意味着性能越好。随着模型容量增加到数万亿个参数,大模型可以捕捉更复杂的模式,从而在自然语言处理、计算机视觉和其他任务上表现更好,具备更像人类的能力。 另一方面,随着计算能力的大幅提升,特别是GPU和专用AI芯片(如TPU)的发展,使得训练更大规模的模型成为可能;新的模型架构和训练技术的出现,如Transformer架构和预训练技术,使得模型能够更有效地扩展到更大的规模。 此外,模型的大小往往被视为技术创新和研发实力的一种体现。因此,研究和商业机构之间存在一种竞争,推动着模型规模不断扩大,直到推上万亿级参数量的巅峰。 GPT-2 :2019年发布的GPT-2模型拥有15亿参数,是当时重要的大型语言模型之一。 Megatron-Turing NLP :由微软和NVIDIA合作开发的Megatron-Turing NLP模型,是一...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- MySQL8.0.19开启GTID主从同步CentOS8
- SpringBoot2配置默认Tomcat设置,开启更多高级功能
- Windows10,CentOS7,CentOS8安装MongoDB4.0.16
- Red5直播服务器,属于Java语言的直播服务器
- Linux系统CentOS6、CentOS7手动修改IP地址
- Springboot2将连接池hikari替换为druid,体验最强大的数据库连接池
- SpringBoot2整合MyBatis,连接MySql数据库做增删改查操作
- Jdk安装(Linux,MacOS,Windows),包含三大操作系统的最全安装
- SpringBoot2全家桶,快速入门学习开发网站教程
- Eclipse初始化配置,告别卡顿、闪退、编译时间过长