Ollama 发布 v0.7.0,增强多模态能力并引入多项优化
Ollama v0.7.0 已发布,带来了显著的功能增强和性能优化,引入了新引擎支持多模态模型,并支持 WebP 图像作为输入。 Meta Llama 4 Google Gemma 3 Qwen 2.5 VL Mistral Small 3.1 以及更多视觉模型 其他更新内容包括: 修复 Windows 上运行模型出现的空白终端窗口 修复NVIDIA GPU运行Llama 4的错误 优化ollama run发送图片时去除引号 提升ollama create导入safetensors模型性能 提升Qwen3 MoE在macOS上的提示处理速度 修复结构化输出请求中大型JSON模式导致错误 API 对不允许方法返回405错误码 以及修复模型卸载后进程持续运行的问题 Ollama 是一个开源的本地大语言模型运行框架,简化了利用 llama.cpp 后端运行各种 LLM 以及与其他桌面软件方便集成的过程,为普通用户提供简单易用的大语言模型(LLM)的本地部署和管理。 它支持多种先进的模型,如 LLaMA、DeepSeek、Mistral 等,并提供简单易用的界面和 API。Ollama 的特点...


