首页 文章 精选 留言 我的
优秀的个人博客,低调大师

微信关注我们

原文链接:https://www.oschina.net/news/343356

转载内容版权归作者及来源网站所有!

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。

🔥 无耳 Solon Ai MCP,发布工具服务,使用工具服务。效果预览!

solon-ai-mcp 是 solon-ai 的扩展特性。提供 mcp 协议的支持。通过它,可以方便的发布 Tool Service,方便的使用 Tool Service。 引入依赖包 <dependency> <groupId>org.noear</groupId> <artifactId>solon-ai-mcp</artifactId> <version>3.1.3-SNAPSHOT</version> </dependency> 服务端演示(发布工具服务) 引入依赖包后,服务端默认不会启用,需要通过配置启用。 solon.ai.mcp.server: enabled: true sseEndpoint: "/mcp/sse" 启用 mcp server 后,所有组件的@FunctionMapping方法,会自动成为 mcp server 的 tool 服务。 @Component public class McpServerTool { @Fu...

Mozilla 发布 LocalScore:简化本地 AI 模型基准测试的新工具

Mozilla 最近通过其 Mozilla Builders 计划推出了一款名为 LocalScore 的工具,旨在为本地大型语言模型(LLM)提供便捷的基准测试。 该工具兼容 Windows 和 Linux 系统,目前处于早期开发阶段。 LocalScore 是基于上周发布的 Llamafile0.9.2版本开发的,这一更新使得 LocalScore 成为一款实用的基准测试工具,能够在 CPU 和 GPU 上进行大型语言模型的性能评估。通过这一工具,用户可以轻松测量 LLM 系统的性能,获取快速且可靠的结果。 用户可以选择直接从 Llamafile 包中调用 LocalScore,或者使用适用于 Windows 和 Linux 的独立 LocalScore 二进制文件,方便进行 AI 基准测试。值得一提的是,LocalScore.ai 作为一个可选的存储库,专门用于存储 CPU 和 GPU 基准测试的结果,这些结果基于 Meta Llama3.1模型的官方模型进行计算。用户通过 LocalScore.ai 能够轻松运行基准测试,过程简单明了。

相关文章

发表评论

资源下载

更多资源
Mario

Mario

马里奥是站在游戏界顶峰的超人气多面角色。马里奥靠吃蘑菇成长,特征是大鼻子、头戴帽子、身穿背带裤,还留着胡子。与他的双胞胎兄弟路易基一起,长年担任任天堂的招牌角色。

Nacos

Nacos

Nacos /nɑ:kəʊs/ 是 Dynamic Naming and Configuration Service 的首字母简称,一个易于构建 AI Agent 应用的动态服务发现、配置管理和AI智能体管理平台。Nacos 致力于帮助您发现、配置和管理微服务及AI智能体应用。Nacos 提供了一组简单易用的特性集,帮助您快速实现动态服务发现、服务配置、服务元数据、流量管理。Nacos 帮助您更敏捷和容易地构建、交付和管理微服务平台。

Spring

Spring

Spring框架(Spring Framework)是由Rod Johnson于2002年提出的开源Java企业级应用框架,旨在通过使用JavaBean替代传统EJB实现方式降低企业级编程开发的复杂性。该框架基于简单性、可测试性和松耦合性设计理念,提供核心容器、应用上下文、数据访问集成等模块,支持整合Hibernate、Struts等第三方框架,其适用范围不仅限于服务器端开发,绝大多数Java应用均可从中受益。

Rocky Linux

Rocky Linux

Rocky Linux(中文名:洛基)是由Gregory Kurtzer于2020年12月发起的企业级Linux发行版,作为CentOS稳定版停止维护后与RHEL(Red Hat Enterprise Linux)完全兼容的开源替代方案,由社区拥有并管理,支持x86_64、aarch64等架构。其通过重新编译RHEL源代码提供长期稳定性,采用模块化包装和SELinux安全架构,默认包含GNOME桌面环境及XFS文件系统,支持十年生命周期更新。

用户登录
用户注册