华擎发布 AI QuickSet WSL,在 Windows 下执行 Linux AI Apps
华擎(ASRock)宣布推出AI QuickSet安装小帮手的第二代版本——AI QuickSet WSL,旨在助力用户在Windows系统中便捷搭建功能完备的WSL(适用于Linux的Windows子系统)环境,并部署一系列基于Linux系统的AI应用程序。
华擎表示,在Windows上构建合适的AI开发环境,步骤繁琐且耗时久,而众多前沿AI应用多在Linux环境开发运行,这给想在Windows使用Linux AI应用的初学者带来挑战。
AI QuickSet WSL基于AMD ROCm平台打造,可自动化整个工作流程,确保WSL环境针对华擎AMD Radeon RX 9000系列显卡完成加速预先配置。
该工具内置为ROCm优化的PyTorch等基础框架,还提供多款“开箱即用”的AI应用工具,包含:可根据文字描述生成全新音乐的Audiocraft、用于图片与漫画翻译的Image/Manga Translator、可将人像转换为卡通风格的PixtoonLab,以及能轻松去除或替换影片背景的Video Background Remover & Changer。

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
-
上一篇
谷歌 DeepMind 发布差分隐私语言模型 VaultGemma
谷歌DeepMind近日推出了一款名为VaultGemma的新型语言模型,专注于保护用户隐私。这是目前规模最大的具备差分隐私能力的开源模型,拥有10亿参数。 大语言模型通常存在一个隐患:它们可能在训练过程中记住了部分数据,包括姓名、地址甚至完整文档等敏感信息。而差分隐私技术通过在训练过程中引入可控的随机噪声,有效防止模型将输出与特定训练样本关联起来。 这意味着,即使VaultGemma曾接触过机密文件,从统计上也无法将其内容还原。谷歌表示,初步测试已验证该模型不会泄露或复现训练数据。 在架构上,VaultGemma是基于Google Gemma 2架构的仅解码器Transformer模型,具有26层并使用多查询注意力机制。研究人员表示,关键设计选择之一是将序列长度限制为1024个Token,这有助于管理私有训练的密集计算需求。开发过程由一套新颖的"差分隐私缩放定律"指导,为平衡计算能力、隐私预算和模型效用之间的权衡提供框架。 VaultGemma的性能大致相当于五年前的普通语言模型,在生成能力上略显保守,但为隐私安全提供了更强保障。 谷歌研究人员表示,他们正在Hugging Face和...
-
下一篇
Kimi K2 官方高速版 API 开启限时 5 折特惠
Kimi K2 官方高速版 API 宣布开启为期一个月的 5 折特惠。活动有效期为:2025 年 09 月 16 日(含)到 10 月 15 日(含),10 月 16 日 0 时起恢复原价。 kimi-k2-turbo-preview 是 Kimi K2 模型的高速版,模型参数与 kimi-k2-0905 一致,已提升至 256K 上下文。Kimi K2 高速版的输出速度达 60~100 Token/s,是普通版的 6 倍左右。 公告称,“我们已开启为期一个月的 5 折特惠,希望每个开发者都有机会体验到更畅快、快、快、快、快、快的 Coding 体验。此外,Kimi K2 官方 API 支持自动上下文缓存,可为你节省更多输入 Tokens。”
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Eclipse初始化配置,告别卡顿、闪退、编译时间过长
- Springboot2将连接池hikari替换为druid,体验最强大的数据库连接池
- SpringBoot2编写第一个Controller,响应你的http请求并返回结果
- CentOS关闭SELinux安全模块
- SpringBoot2全家桶,快速入门学习开发网站教程
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- Docker快速安装Oracle11G,搭建oracle11g学习环境
- CentOS8编译安装MySQL8.0.19
- SpringBoot2配置默认Tomcat设置,开启更多高级功能
- MySQL数据库在高并发下的优化方案