31.4K Star! 五分钟搭建!一款开源专属密码管理工具-Vaultwarden
随着我们生活中账户数量的增加,记住多个不一样的密码着实困难,同时保持这些密码的安全性更是至关重要。密码管理工具的出现恰到好处地解决了这一问题,不仅能安全地存储和管理我们的密码,还提供了额外的安全功能,如二次验证和密码生成器等,下面为大家推荐一款密码管理工具—Vaultwarden。
应用简览
Vaultwarden 是一个开源的密码管理工具,以其轻量级和高效性著称,为个人和团队提供了一个安全可靠的方式来存储和管理密码。作为 Bitwarden 的非官方 Rust 实现,它特别适合那些寻求在资源受限的环境下运行密码管理解决方案的用户。Vaultwarden 通过强大的安全功能,如端到端加密和二次验证,确保了用户数据的安全,同时它的自托管能力让用户拥有对自己数据的完全控制。
主要功能
-
端到端加密:Vaultwarden 使用端到端加密技术确保您的密码和敏感信息在服务器上存储时保持加密状态,只有用户可以解密其数据。
-
跨平台同步:支持在多个设备和平台之间同步密码和数据,以及主流浏览器的扩展插件。
-
自托管能力:与依赖第三方云服务不同,Vaultwarden 允许用户自行托管服务器,给予用户对数据存储和传输的完全控制。
-
用户和组管理:支持多用户使用,包括组织账户管理,使得团队可以方便地共享和管理密码。
-
二次验证(2FA):增加安全层次,支持多种二次验证方法,如TOTP、U2F等,为账户安全添加额外保护。
-
安全密码生成器:内置密码生成器,帮助用户创建复杂且难以猜测的密码,以提高账户安全性。
-
安全笔记和文件存储:除了密码,用户还可以安全地存储敏感笔记和文件,确保所有敏感信息都受到保护。
-
数据导入/导出功能:允许用户从其他密码管理器轻松迁移数据,或者备份自己的数据。
应用特色
一、多类型密码分类
Vaultwarden 允许用户将存储的信息进行多种分类,如网站密码、安全笔记、银行账户信息等,帮助用户高效管理各类数据。这种分类方式不仅使得查找和更新信息变得更加容易,而且提高了整体的组织效率。
二、双重登录验证
为了提升账户安全性,Vaultwarden 支持双重登录验证(2FA),包括时间基于的一次性密码(TOTP)、短信验证码和物理安全密钥等多种验证方式。这一层额外的安全措施确保了即便密码被泄露,账户信息也能得到保护。
三、密码生成
Vaultwarden 配备了一个强大的密码生成工具,能够根据用户设定的参数(如长度和字符类型)生成难以猜测的密码。这项功能对于创建高安全性的新密码或更新旧密码至关重要,帮助用户避免使用简单或重复的密码,增强账户安全。
四、导入导出
Vaultwarden 提供了数据的导入和导出功能,使用户能够从其他密码管理工具方便地迁移数据,或者为了备份目的导出自己的数据。这种灵活性让用户可以无缝地在不同服务间转移数据,同时确保了数据的持久性和可访问性。
安装指南
-
进入云原生应用市场
-
搜索 Vaultwarden
-
进入详情,选择包类型(本应用支持,docker安装,ram安装)
-
点击安装,执行相应命令即可。如有疑问可参阅使用文档或加入社区
关于云原生应用市场
云原生应用市场是一个汇聚了各类开源软件的应用市场,不仅可以作为你自己的 Helm Chart 仓库,提供丰富多样的Helm应用,还有 Docker 应用、Rainbond 应用模板、信创应用等多种选择。
微信群:关注 云原生应用市场 公众号加入技术交流群

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
大语言模型推理提速,TensorRT-LLM 高性能推理实践
1.TensorRT-LLM 如何提升 LLM 模型推理效率 大型语言模型(Large language models,LLM)是基于大量数据进行预训练的超大型深度学习模型。底层转换器是一组神经网络,这些神经网络由具有 self-attention 的编码器和解码器组成。编码器和解码器从一系列文本中提取含义,并理解其中的单词和短语之间的关系。 当前 LLM 模型推理的主要瓶颈是 GPU 显存资源不足。因此,各类加速框架主要集中于降低 GPU 显存峰值和提高 GPU 使用率两大目标。 TensorRT-LLM[1]是 NVIDIA 推出的大语言模型(LLM)推理优化框架。它提供了一组 Python API 用于定义 LLMs,并且使用最新的优化技术将 LLM 模型转换为 TensorRT Engines,推理时直接使用优化后的 TensorRT Engines。 TensorRT-LLM 主要利用以下四项优化技术提升 LLM 模型推理效率。 1.1 量化 模型量化技术是通过降低原始模型的精度来减少模型推理时的 GPU 显存使用。 TensorRT 支持多种模型的多种精度,以下列举了部分主...
- 下一篇
记一次 Rust 内存泄漏排查之旅 | 经验总结篇
在某次持续压测过程中,我们发现 GreptimeDB 的 Frontend 节点内存即使在请求量平稳的阶段也在持续上涨,直至被 OOM kill。我们判断 Frontend 应该是有内存泄漏了,于是开启了排查内存泄漏之旅。 Heap Profiling 大型项目几乎不可能只通过看代码就能找到内存泄漏的地方。所以我们首先要对程序的内存用量做统计分析。幸运的是,GreptimeDB 使用的 jemalloc 自带 heap profiling,我们也支持了导出 jemalloc 的 profile dump 文件。于是我们在 GreptimeDB 的 Frontend 节点内存达到 300MB 和 800MB 时,分别 dump 出了其内存 profile 文件,再用 jemalloc 自带的 jeprof 分析两者内存差异(--base 参数),最后用火焰图显示出来: 显然图片中间那一大长块就是不断增长的 500MB 内存占用了。仔细观察,居然有 thread 相关的 stack trace。难道是创建了太多线程?简单用 ps -T -p 命令看了几次 Frontend 节点的进程,线程...
相关文章
文章评论
共有0条评论来说两句吧...