Solon AI 开发学习 - 2chat - Hello World
1、部署本地大语言模型(llm) 借用 ollama 部署 llama3.2 模式(这个比较小,1G大小左右) ollama run llama3.2 # 或 deepseek-r1:7b 具体可参考:ollama 部署本地环境 2、开始新建项目(通过 solon-ai 使用 llm) 可以用Solon Initializr生成一个模板项目。新建项目之后,添加依赖: <dependency> <groupId>org.noear</groupId> <artifactId>solon-ai</artifactId> </dependency> 3、添加应用配置 在app.yml应用配置文件里,添加如下内容: solon.ai.chat: demo: apiUrl: "http://127.0.0.1:11434/api/chat" # 使用完整地址(而不是 api_base) provider: "ollama" # 使用 ollama 服务时,需要配置 provider model...
