敢自称 Java 版 PyTorch,EasyAi 到底有几斤几两?
EasyAi 颇为高调。在其 Gitee 主页介绍一栏,写着“国内人气最高的 Java人工智能算法框架”,是“Java 版的 PyTorch”。
Java 在企业级开发中一直占据统治地位,但是在 Ai 领域却一直薄弱。在很多 Java 项目中,许多 AI 功能依赖调用 Python 库来实现。有了 Java 原生 的 EasyAi 之后,只需用 Maven 工具就能将它一键引入到 Java 项目,无需任何额外的环境配置与依赖,做到了开箱即用,很适合用来开发适合自家业务的小微模型。
在Gitee 上超过 5K 个 Star
此外,EasyAi 包含了一些已经封装好的图像目标检测及人工智能客服的模块,同时提供各种深度学习、机器学习、强化学习、启发式学习、矩阵运算、求导函数、求偏导函数等底层算法工具。
EasyAi 的作者李大鹏,网名“唯一解”,他的经历也颇为传奇:大专毕业后写小说,曾经短暂地做过平面设计,后来自学转码农。先是搞前端开发,接着又从 Java 业务开发到游戏开发,最后做算法研发。到现在已经有十二年码龄了。这期间,李大鹏还做过销售,写过小说,当过牛马,也创过业。
李大鹏说,想走一条不一样的路——专注底层算法,尽管他自称是“公司常年最低学历保持者”。
“当我第一次看到社区的小伙伴用 Easyai——而不是靠调用,靠自身的技术能力开发出一套人脸检测模块在公司线上服务器运行时,当我第一次看到有小伙伴使用 Easyai 开发出一套智能客服以极低的成本完成公司知识体构建时,我知道,我初步的设想逻辑成功了。”
事实上,李大鹏对于 EasyAi 的定位很明确,也知道它与 PyTorch 二者之间的差距。“ 在人工智能主流领域,EasyAi 目前不可能是 PyTorch 的对手,但它有独特优势:支持 JDK 1.6 及以上版本,采用原生 Java 构建,通过一次 Maven 引入,可以无缝集成到任何由 Java 构建的企业级服务中。凭借非常低廉的使用成本,在中小企业内的ai模块开发中撬开了一席之地。”
EasyAi 并不是对主流算法 Java 的无差别重新实现,而是根据应用场景对主流算法进行优化与魔改,保证普通服务器或个人电脑 CPU 下依然达到可用性能的流畅运行。 “easy”并不是只是指的简单,而是对算法进行了廉价,低成本方向的优化。"如果我没有办法对某种算法做到廉价,我也不会放入 EasyAI 里面。"
对于 EasyAi 的未来,李大鹏的愿望很朴素:将 AI 模型开发技术作为 Java 程序员未来全栈能力之一,让 AI 开发就跟普通业务开发一样,给 Java 程序员带来新的饭碗。
直播亮点:
-
自学转码农、搞算法,EasyAi 是怎么来的?
-
敢自称 “Java 版 的 PyTorch”,EasyAi 有何厉害之处?
-
如何开发自然语言&图像自定义业务模型?
-
实操演示:训练符合自身业务的智能客服微模型
-
大模型时代下,EasyAi 未来发展路线
预约直播
另外,我们还建了一个交流群,一起聊聊自己喜欢的开源项目~~当然啦,如果你有什么特别棒的开源项目,可以推荐过来呀~
另外,本次直播得到了诸多社区或组织的大力支持,在此特别表示感谢:
Gitee
Gitee(码云)是开源中国于 2013 年推出的基于 Git 的代码托管平台、企业级研发效能平台,提供中国本土化的代码托管服务。
目前,Gitee 已经有超过 1350 万名开发者,累计托管超过 3600 万个代码仓库,是中国境内规模最大的代码托管平台。同时,旗下企业级 DevOps 研发效能管理平台 Gitee 企业版已服务超过 36 万家企业。
Dromara 社区
Dromara 社区是一个自组织的开源社区,由顶级开源项目维护者创立。社区目前拥有 10 多个顶级开源项目和 30 多个优秀开源项目,涵盖热门工具、分布式事务日志、企业级鉴权、运维监控、调度编排等。这些开源项目服务于数百万个人和中小企业。
官网:https://dromara.org/
“开源项目老牌与新秀” 是开源中国 OSCHINA 推出的一档直播栏目,旨在为开源项目提供一个展示平台,每周五晚上开播。栏目邀请开源项目的作者、核心团队成员或资深用户作为嘉宾,通过路演式直播分享项目的亮点和经验,有助于提高项目的知名度,吸引更多的用户和开发者关注。
如果你手上也有好的开源项目,想要跟同行交流分享,欢迎联系我,栏目随时开放~

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
从大模型性能优化到DeepSeek部署|得物技术
一、背景 Deepseek-r1模型的爆火标志着本地部署大模型的需求日益增长。本文主要探讨如何优化本地部署大模型的性能,并结合我们的实践进行评测分析,文章最后我们将分享如何在本地高效部署满血版Deepseek-r1大模型。 在生产环境中,我们已部署专用的大模型推理集群,并对其性能进行了全面优化。对于大模型推理来说,性能优化主要聚焦于两个关键指标:吞吐量与响应时间(RT)。 1.吞吐量 传统上,我们用每秒请求数(QPS)来衡量吞吐量,即系统每秒能够处理多少请求。但对于大模型而言,还有一个重要指标------每秒Token数(token/s),它反映了系统每秒能处理的输入或输出Token数量。 2.响应时间(RT) 这是指系统处理每个请求所需的时间。对于支持流式输出的大模型,还需要关注另外一个指标------首个Token到达时间(TTFT: Time To First Token),即从开始处理请求到输出第一个Token所需的时间 接下来文章将介绍部署高性能大模型推理服务的方法与思路,这些方法主要围绕提升吞吐量与响应时间这两个关键指标展开。 二、高性能、易扩展的大模型推理框架是什么样的 ...
- 下一篇
你用过哪些 NebulaGraph 的 AI 助手?
摘要: 知识如同璀璨星辰,却是散落在互联网的各个角落。 对于像 NebulaGraph 这样的技术社区而言,海量的知识内容既是宝贵的财富,于开发者和用户而言,也带来了管理与利用的挑战。你是否曾为找一篇关键的技术文章而用时良久?是否曾在项目开发中因技术难题无解而阻塞进度?是否渴望有一个懂得 NebulaGraph 的智能助手,能帮你快速整理和获取知识?让我们看看 NebulaGraph 社区已经有了哪些 AI 助手吧~ ▌一、ChatGPT 上的 NebulaGraph 技术顾问 为了帮助开发者与用户更快掌握 NebulaGraph 的使用技巧,开发者基于 NebulaGraph 官方文档与最佳实践,构建了 “NebulaGraph 图数据库专家” 智能助手,并在 ChatGPT 平台上线。该助手能够精准回答从安装部署、数据导入导出,到查询优化、性能调优等各类问题,为开发者提供即时的技术支持。 核心功能: 实时解答:涵盖 nGQL 语法、索引管理、查询优化 等关键知识点。 实践指南:提供 Docker 部署、集群管理、数据迁移 等详细操作教程。 智能推荐:结合用户查询场景,提供优化策略,...
相关文章
文章评论
共有0条评论来说两句吧...