Ollama 上线 “Web search” API,为 LLM 集成实时网络搜索能力
Ollama 宣布推出 “Web search” API,让大语言模型能够实时访问互联网信息,提升回答的准确性并减少幻觉。
该功能支持 REST API,并已集成到 Ollama 的 Python 与 JavaScript 库中,开发者可以在应用中快速调用。同时,Ollama 还提供 web fetch 接口,用于获取指定网页的完整内容(标题、正文和链接)。
开发者可以基于 web search 与 web fetch 构建智能搜索代理,让模型在对话中自动调用外部信息。此外还支持在 MCP(Model Context Protocol) 环境下配置该功能,并支持集成到 Cline、Codex 等客户端中。
Ollama 为用户提供了免费试用额度,若需更高吞吐量则需升级到付费方案。官方建议在模型上下文长度较大的情况下使用(如 32k tokens),以便更好地处理检索结果。
这意味着 Ollama 的模型将能结合实时网络搜索,提供更准确、最新的回答,为开发者构建 AI 应用带来更强的工具支持。


