🔥 Java 的 LLM 框架,Agents-Flex v1.0.9 发布
Agents-Flex: 一个基于 Java 的 LLM 应用开发及编排框架。
经过近 1 年的开发和迭代,Agents-Flex 发布了 30+ 个版本,终于迎来了 v1.0.0 正式版本。
与此同时,基于 Agents-flex 开发的对标 Dify Coze 等产品的 AIFlowy 也正式对外开源,开源地址: https://gitee.com/aiflowy/aiflowy
Agents-Flex 的基本能力
- LLM 的访问能力
 - Prompt、Prompt Template 定义加载的能力
 - Function Calling 定义、调用和执行等能力
 - 记忆的能力(Memory)
 - Embedding
 - Vector Store
 - 文档处理 
  
- 加载器(Loader) 
    
- Http
 - FileSystem
 
 - 分割器(Splitter)
 - 解析器(Parser) 
    
- PoiParser
 - PdfBoxParser
 
 
 - 加载器(Loader) 
    
 - Chain 执行链 
  
- SequentialChain 顺序执行链
 - ParallelChain 并发(并行)执行链
 - LoopChain 循环执行连
 - ChainNode
 
 
简单对话
使用 OpenAi 大语言模型:
 @Test
public void testChat() {
    OpenAiLlmConfig config = new OpenAiLlmConfig();
    config.setApiKey("sk-rts5NF6n*******");
    Llm llm = new OpenAiLlm(config);
    String response = llm.chat("请问你叫什么名字");
    System.out.println(response);
}
使用 “通义千问” 大语言模型:
@Test
public void testChat() {
    QwenLlmConfig config = new QwenLlmConfig();
    config.setApiKey("sk-28a6be3236****");
    config.setModel("qwen-turbo");
    Llm llm = new QwenLlm(config);
    String response = llm.chat("请问你叫什么名字");
    System.out.println(response);
}
使用 “讯飞星火” 大语言模型:
@Test
public void testChat() {
    SparkLlmConfig config = new SparkLlmConfig();
    config.setAppId("****");
    config.setApiKey("****");
    config.setApiSecret("****");
    Llm llm = new SparkLlm(config);
    String response = llm.chat("请问你叫什么名字");
    System.out.println(response);
}
历史对话示例
public static void main(String[] args) {
    SparkLlmConfig config = new SparkLlmConfig();
    config.setAppId("****");
    config.setApiKey("****");
    config.setApiSecret("****");
    Llm llm = new SparkLlm(config);
    HistoriesPrompt prompt = new HistoriesPrompt();
    System.out.println("您想问什么?");
    Scanner scanner = new Scanner(System.in);
    String userInput = scanner.nextLine();
    while (userInput != null) {
        prompt.addMessage(new HumanMessage(userInput));
        llm.chatStream(prompt, (context, response) -> {
            System.out.println(">>>> " + response.getMessage().getContent());
        });
        userInput = scanner.nextLine();
    }
}
Function Calling
- 第一步:通过注解定义本地方法
 
public class WeatherUtil {
    @FunctionDef(name = "get_the_weather_info", description = "get the weather info")
    public static String getWeatherInfo(
        @FunctionParam(name = "city", description = "the city name") String name
    ) {
        //在这里,我们应该通过第三方接口调用 api 信息
        return name + "的天气是阴转多云。 ";
    }
}
- 第二步:通过 Prompt、Functions 传入给大模型,然后得到结果
 
 public static void main(String[] args) {
    OpenAiLlmConfig config = new OpenAiLlmConfig();
    config.setApiKey("sk-rts5NF6n*******");
    OpenAiLlm llm = new OpenAiLlm(config);
    FunctionPrompt prompt = new FunctionPrompt("今天北京的天气怎么样", WeatherUtil.class);
    FunctionResultResponse response = llm.chat(prompt);
    Object result = response.getFunctionResult();
    System.out.println(result);
    //"北京的天气是阴转多云。 "
}
Agents-Flex v1.0.0~1.0.9 更新记录:
- 新增: Chain 添加 reset 方法,使之调用后可以执行多次
 - 新增: 添加 Milvus 的相识度返回
 - 新增: Chain.getParameterValues 添加对固定数据格式填充的能力
 - 新增: 增加 qdrant 向量数据库支持
 - 新增: 允许通过 ChatOptions 在运行时动态替换模型名称
 - 新增:增加是否开启思考模式参数,适用于 Qwen3 模型
 - 新增:Document 增加文档标题
 - 新增:增强知识库查询条件
 - 新增:优化 Chain 的 get 逻辑,支持获取对象的属性内容
 - 新增: 为 VectorData 添加 score 属性,统一文档 score 字段
 - 新增: deepseek-r1 推理过程增量输出改为完整输出和内容的输出保持一致,感谢 @liutf
 - 新增: 增加 QwenChatOptions,让通义千问支持更多的参数,感谢 @liutf
 - 新增:新增 ChainHolder,用于序列化 ChainNode,以支持分布式执行
 - 新增:添加 JavascriptStringCondition 条件
 - 优化:移动 "description" 属性到 ChainNode
 - 优化:优化 Chain,在暂停时抛出异常
 - 优化:重构 Chain 的异步执行逻辑
 - 优化: 重构 TextPromptTemplate,使其支持更多的语法
 - 优化: 优化 pom 管理
 - 优化: Parameter 添加 dataType 默认数据
 - 优化: TextPromptTemplate.create 添加缓存以提高性能
 - 优化:不允许设置默认 EmbeddingOptions 配置的 encodingFormat
 - 优化:修改模型思考过程的设置,让 content 和 reasoningContent 输出内容一致,感谢 @Alex
 - 优化:优化 elasticSearch 用户自定义集合名称就用用户自定义集合,没有传就用默认集合名称
 - 优化:从命名 TextPromptTemplate.create 方法名称为 TextPromptTemplate.of,更加符合 “缓存” 的特征
 - 修复:修复 openSearch 存储报错问题
 - 修复:修复 LlmNode 当配置 outType 时,不能返回正确结果的问题
 - 修复:TextPromptTemplate 无法可以解析 的问题
 - 测试:添加 milvus 向量存储用法示例测试类,感谢 @lyg
 - 测试:添加通过 OpenAI 的 API 调用 Gitee 进行图片识别
 - 测试:添加 chain 的数据获取测试
 - 测试:添加 ChainConditionStringTest 测试
 - 文档:添加提示词相关文档
 - 文档:添加 “模板缓存” 的相关文档
 
源码下载
关注公众号
					低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 
							
								
								    上一篇
								    
								
								MCMS 5.4.5 已经发布,铭飞内容管理系统
MCMS 5.4.5 已经发布,铭飞内容管理系统 此版本更新内容包括: 【优化】优化单篇类型无文章静态化提示 【优化】优化自定义业务保存更新错误提示 【优化】优化单篇类型无文章静态化提示 【优化】优化自定义业务保存更新错误提示 【修复】修复栏目和文章id精度丢失问题 【修复】修复自定义模型验证码校验值未正常回显 【修复】具体参考开源中国与GitHub的ISSUES https://gitee.com/mingSoft/MCMS/issues 详情查看:https://gitee.com/mingSoft/MCMS/releases/5.4.5
 - 
							
								
								    下一篇
								    
								
								国产免费工作流引擎 star 6.5k,Warm-Flow 升级 1.7.2(新增案例和修复缺陷)
主要更新内容 [feat] 开启流程实例,新增流程定义是否存在校验 [feat] 新增合同签订流程案例 [feat] 新增企业采购流程案例 [update] mybatis-plus逻辑删除,删除值和未删除值强制设置为0和1 [update] 合并流程变量方法改成public修饰 [update] 如果没有网关,是驳回跳转线,跳转条件会默认加上undefined@@| [fix] 修复办理人列表中只有一个办理人时,删除按钮消失的问题 [fix] 修复设计器办理人默认为“用户”问题 [fix] 修复办理人列表名称回显报错问题 合同签订流程案例 企业采购流程案例 项目介绍 Dromara Warm-Flow国产工作流引擎,其特点简洁轻量,五脏俱全,灵活扩展性强,是一个可通过jar引入设计器的工作流。 支持常见审批功能、监听器与流程变量、条件表达式、办理人表达式 自带流程图、流程设计器、节点扩展属性 支持常见的orm框架 支持不同的数据库 生态丰富可扩展,文档全面 功能思维导图 设计器 流程图 演示地址 http://www.hhzai.top 账号密码:admin/admin123 官网 ...
 
相关文章
文章评论
共有0条评论来说两句吧...

			
				
				
				
				
				
				
				
微信收款码
支付宝收款码