Ollama 发布 v0.7.0,增强多模态能力并引入多项优化
Ollama v0.7.0 已发布,带来了显著的功能增强和性能优化,引入了新引擎支持多模态模型,并支持 WebP 图像作为输入。
其他更新内容包括:
- 修复 Windows 上运行模型出现的空白终端窗口
- 修复
NVIDIA GPU运行Llama 4的错误 - 优化
ollama run发送图片时去除引号 - 提升
ollama create导入safetensors模型性能 - 提升
Qwen3 MoE在macOS上的提示处理速度 - 修复结构化输出请求中大型
JSON模式导致错误 - API 对不允许方法返回
405错误码 - 以及修复模型卸载后进程持续运行的问题
Ollama 是一个开源的本地大语言模型运行框架,简化了利用 llama.cpp 后端运行各种 LLM 以及与其他桌面软件方便集成的过程,为普通用户提供简单易用的大语言模型(LLM)的本地部署和管理。
它支持多种先进的模型,如 LLaMA、DeepSeek、Mistral 等,并提供简单易用的界面和 API。Ollama 的特点包括轻量级设计、跨平台支持(Windows、Linux、macOS)、模型微调与自定义功能,以及高效的推理性能。
由于其便捷性和开源特性,Ollama 获得了大量用户的青睐,被广泛用于本地部署 DeepSeek 等大模型。

