Arthas 发布 3.5.5 版本,支持 macOS ARM64 架构,改进易用性
Arthas
是Alibaba开源的Java诊断工具,深受开发者喜爱。
-
Github:https://github.com/alibaba/arthas
-
文档:https://arthas.aliyun.com/doc/
Arthas 最新发布了 3.5.5 版本,主要支持macOS ARM64架构,以及改进易用性。
vmtool 命令支持macOS ARM64架构
目前vmtool
的动态库文件是由github action构建的。但github action还不支持mac M1环境,所以vmtool
命令之前没支持mac M1机器。
但通过交叉编译的方式,在使用clang编译时指定多个arch就可以生成所谓的Fat Library
,即在一个文件里同时支持多种架构。
-arch x86_64 -arch arm64
使用file
命令可以查看vmtool
使用的dylib
已经同时支持x86_64
和arm64
:
$ file lib/libArthasJniLibrary.dylib lib/libArthasJniLibrary.dylib: Mach-O universal binary with 2 architectures: [x86_64:Mach-O 64-bit dynamically linked shared library x86_64] [arm64:Mach-O 64-bit dynamically linked shared library arm64] lib/libArthasJniLibrary.dylib (for architecture x86_64): Mach-O 64-bit dynamically linked shared library x86_64 lib/libArthasJniLibrary.dylib (for architecture arm64): Mach-O 64-bit dynamically linked shared library arm64
async-profiler 升级到2.5版本,生成html结果支持查找,支持macOS ARM64架构
升级到2.5版本后,profiler
命令只支持生成html
格式结果,不再支持svg
格式了。html
格式可以更好的查找过滤。
比如在查找File
关键字之后,可以看到紫色
的高亮结果:
WebConsole支持配置向上回滚行数
目前WebConsole默认只支持向上回滚1000行,但有的命令输出结果很长,之前的结果就会被覆盖掉。因此增加scrollback
参数,用户可以自定义配置。比如
-
http://localhost:8563/?scrollback=2000
改进低版本JDK attach高版本JDK支持
在使用低版本JDK attach高版本JDK 进程时,可能会抛出异常IOException: Non-numeric value found - int expected
,但实际上已经attach成功。这对用户会造成困扰。
因此改进为打印提示,但仍然会成功连接,用户可以直接诊断。
总结
-
profiler wiki: https://arthas.aliyun.com/doc/jad.html
-
Release 日志: https://github.com/alibaba/arthas/releases/tag/arthas-all-3.5.5

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
TLv8 IDE v2.2.1 已经发布,基于 Eclipse 的快速开发工具
TLv8 IDE v2.2.1 已经发布,此版本更新内容包括: 1、解决报表设计器(ureport)兼容问题: Windows系统下使用Edge浏览器内核在win10以下系统不支持,改为chromium存在无法初始化的问题; Linux和macOS下使用swt自带的浏览器。 2、优化页面设计器右键菜单方法; 3、基础插件的jdk兼容到1.6; 4、解决流程设计器model类型转换问题; 5、添加js编辑器功能部件【可选】; 6、解决页面设计器在低版本的Linux系统下无法显示的问题; 7、修改移动版页面设计器资源引用及屏幕适应问题; 8、插件和功能部件重新梳理,按照用途重新组装; 9、修改项目结构,集成了平台必要的插件(tern和chromium-swt); 10、添加【数据库】功能部件描述,数据库插件可以单独安装; 11、补充了各个插件的说明; 12、补充了插件的汉化文件。 ---测试完善v2.2.0修改的内容---
- 下一篇
开源 | dl_inference 更新:增加 TensorRT、MKL 集成,提高深度学习模型推理速度
01背 景 dl_inference是58同城推出的通用深度学习推理服务,可在生产环境中快速上线由TensorFlow、PyTorch、Caffe等框架训练出来的深度学习模型。dl_inference于2020年3月26号发布,可参见《开源|dl_inference:通用深度学习推理服务》。 我们在2021年11月对dl_inference再次进行更新,从发布至今新增如下Features: 1、集成TensorRT加速深度学习推理,支持将TensorFlow-SavedModel模型、PyTorch-Pth模型进行自动优化,转换为TensorRT模型后部署,提高模型在GPU上的推理速度。 2、集成Intel Math Kernel Library库的TensorFlow Serving推理框架,加速TensorFlow模型CPU上推理。 3、支持Caffe模型推理,提供丰富的模型应用示例。 02使用TensorRT加速深度学习推理 深度学习模型推理阶段对算力和时延具有很高的要求,如果将训练好的神经网络直接部署到推理端,很有可能出现算力不足无法运行或者推理时间较长等问题,因此我们需要对训...
相关文章
文章评论
共有0条评论来说两句吧...