近 80k star,这个强大的 Open WebUI 自托管 AI 项目不能错过
Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 AI 平台,完全支持离线运行。它支持多种 LLM(大型语言模型)运行器,如 Ollama 和 OpenAI 兼容 API,并内置了用于 RAG 的推理引擎,使其成为一个强大的 AI 部署解决方案。
更多信息,请查看我们的Open WebUI 文档。
Open WebUI 的关键特性⭐
-
🚀轻松设置:使用 Docker 或 Kubernetes(kubectl、kustomize 或 helm)无缝安装,支持
:ollama
和:cuda
标签的镜像,体验无忧。 -
🤝Ollama/OpenAI API 集成:轻松集成 OpenAI 兼容 API,与 Ollama 模型一起进行多样化的对话。自定义 OpenAI API URL,连接到LMStudio、GroqCloud、Mistral、OpenRouter 等。
-
🛡️细粒度权限和用户组:管理员可以创建详细的用户角色和权限,确保安全的用户环境。这种细粒度的控制不仅增强了安全性,还能为用户带来定制化的体验,培养用户的归属感和责任感。
-
📱响应式设计:在桌面电脑、笔记本电脑和移动设备上享受无缝体验。
-
📱移动设备上的渐进式 Web 应用(PWA):通过我们的 PWA 在移动设备上享受类似原生应用的体验,提供离线访问 localhost 和无缝用户界面。
-
✒️🔢完整支持 Markdown 和 LaTeX:通过全面支持 Markdown 和 LaTeX,提升你的 LLM 体验,实现更丰富的交互。
-
🎤📹免提语音/视频通话:通过集成的免提语音和视频通话功能,体验无缝沟通,让聊天环境更加动态和互动。
-
🛠️模型构建器:通过 Web UI 轻松创建 Ollama 模型。通过Open WebUI 社区集成,创建和添加自定义角色/代理、自定义聊天元素以及轻松导入模型。
-
🐍原生 Python 函数调用工具:通过在工具工作区中内置代码编辑器支持,增强你的 LLM。通过添加纯 Python 函数,实现与 LLM 的无缝集成。
-
📚本地 RAG 集成:借助开创性的检索增强生成(RAG)支持,开启聊天互动的未来。你可以直接在聊天中加载文档,或通过
#
命令在查询前访问文档库中的文件。 -
🔍RAG 的网络搜索:使用
SearXNG
、Google PSE
、Brave Search
、serpstack
、serper
、Serply
、DuckDuckGo
、TavilySearch
、SearchApi
和Bing
等提供商进行网络搜索,并将结果直接注入到聊天体验中。 -
🌐网络浏览功能:通过在
#
命令后跟上 URL,将网站无缝集成到聊天体验中。此功能允许你将网络内容直接融入对话中,提升互动的丰富度和深度。 -
🎨图像生成集成:通过使用 AUTOMATIC1111 API 或 ComfyUI(本地)以及 OpenAI 的 DALL-E(外部)等选项,无缝融入图像生成能力,为你的聊天体验增添动态视觉内容。
-
⚙️多模型对话:轻松与多种模型同时互动,发挥它们的独特优势,获得最佳响应。通过并行使用多种模型,提升你的体验。
-
🔐基于角色的访问控制(RBAC):通过限制权限确保安全访问;只有授权人员可以访问你的 Ollama,模型创建/拉取权限仅限管理员。
-
🌐🌍**多语言支持*/:通过我们的国际化(i18n)支持,用你偏好的语言体验 Open WebUI。加入我们,共同扩展支持的语言!我们正在积极寻找贡献者!
-
🧩管道、Open WebUI 插件支持:通过Pipelines 插件框架,将自定义逻辑和 Python 库无缝集成到 Open WebUI 中。启动你的 Pipelines 实例,将 OpenAI URL 设置为 Pipelines URL,探索无限可能。示例包括函数调用、用户速率限制以控制访问、使用 Langfuse 等工具进行使用情况监控、通过 LibreTranslate 进行实时翻译以支持多语言、有毒信息过滤等。
-
🌟持续更新:我们致力于通过定期更新、修复和新功能来改进 Open WebUI。
想了解更多关于 Open WebUI 的特性吗?请查看我们的Open WebUI 文档,获取全面的概述!
🔗还要查看 Open WebUI 社区!
别忘了探索我们的姊妹项目Open WebUI 社区,在这里你可以发现、下载和探索定制化的 Modelfiles。Open WebUI 社区为通过 Open WebUI 增强你的聊天互动提供了广泛的可能性!🚀

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
第四范式推出大模型推理端侧解决方案 ModelHub AIoT
第四范式宣布推出大模型推理端侧解决方案ModelHub AIoT,用户在端侧可轻松部署如DeepSeek R1、Qwen 2.5、Llama 2/3系列等小尺寸蒸馏模型,离线运行,并可灵活在多个模型之间切换,兼顾了模型压缩、推理性能,解决了部署与优化的复杂性。 公告称,该方案不仅能够满足用户对隐私和实时性的需求,还极大降低了AI大模型推理成本。 1) 无需联网,端侧低延时运行 优秀的端侧推理框架在端侧算力的支持下,展现出卓越的性能与适配性。模型在本地即时处理请求,提供流畅的用户体验。在网络不稳定或离线环境下,端侧模型仍能正常运行,确保服务的连续性。 2) 数据隐私与安全性提升 在端侧部署模型,数据无需上传至云端,所有计算和处理都在本地设备上完成,避免了云端传输和存储过程中的潜在泄露风险,降低了数据被黑客攻击或滥用的可能性。 3) 成本效率与资源优化 端侧部署有效降低对云端资源的依赖,本地处理减少了云端计算和存储的需求,降低了服务器成本和API调用成本,无需频繁上传大量数据,节省了网络带宽资源。
- 下一篇
谷歌发布免费版 AI 编程工具 Gemini Code Assist
Google DeepMind 昨天宣布面向全球开发者推出 AI 编程工具 Gemini Code Assist: 每月提供高达 18 万次的代码补全配额(相当于免费) 128K tokens 上下文窗口 支持公有领域的所有编程语言 Gemini Code Assist 背后的模型为 Google Gemini 2.0 针对编程开发微调的版本,更适合用于编程开发领域,开发者可以通过插件形式在 Microsoft Visual Studio Code 和 JetBrains IDE 等流行的集成开发环境中使用,开发者可在聊天对话中上传大型文件,以帮助 AI 更好地理解代码库整体结构。 Visual Studio Code:https://marketplace.visualstudio.com/items?itemName=Google.geminicodeassist JetBrains IDE:https://plugins.jetbrains.com/plugin/24198-gemini-code-assist GitHub:http://github.com/apps/gemi...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- SpringBoot2全家桶,快速入门学习开发网站教程
- CentOS8,CentOS7,CentOS6编译安装Redis5.0.7
- MySQL8.0.19开启GTID主从同步CentOS8
- CentOS8编译安装MySQL8.0.19
- CentOS7,CentOS8安装Elasticsearch6.8.6
- SpringBoot2整合MyBatis,连接MySql数据库做增删改查操作
- Springboot2将连接池hikari替换为druid,体验最强大的数据库连接池
- 设置Eclipse缩进为4个空格,增强代码规范
- SpringBoot2整合Thymeleaf,官方推荐html解决方案
- Windows10,CentOS7,CentOS8安装MongoDB4.0.16