初步推测是 OOM ,然后查看系统日志确实是 OOM 进程被杀掉了
dmesg -T | egrep -i 'killed proces
[Mon Sep 25 03:15:33 2023] Killed process 31231 (java) total -vm: 21198476kB, anon-rss: 1920426kB, file-rss: OkB, shmem-rss:0k
1
gogo789 2023-09-25 11:31:41 +08:00 1
你如果要分析为什么 oom ,主要靠日志,HeapDumpOnOutOfMemoryError 。把 hprof 的文件拉到本地,用 JvisualVM 或者 mat 分析引用链。
|
2
shalk 2023-09-25 11:38:28 +08:00 1
1.上面只是虚拟内存,不一定代表是 OOM 之后被 kill 的。要看看 dmesg
2. 可以给 JVM 开 heap OOM dump |
3
crsmk01 2023-09-25 11:49:19 +08:00 4
大家常说的 OOM = OOME = HeapDumpOnOutOfMemoryError, 你这遇到是 oom-killer ,你先搞清楚这两个异常的区别以及触发条件....
还有你这 Linux 操作系统的 free -m 贴一下,上面跑了多少个 java 进程、jvm 堆/元数据区/部分非堆内存怎么设置的、发生 oom-killer 的时候会打出来一堆进程的内存使用率、oom_score 等信息,这些信息全没得... |
4
imokkkk 2023-09-25 21:55:04 +08:00
OOM 分析:Eclipse MemoryAnalyzer
在线网站 https://heaphero.io/ |
5
imokkkk 2023-09-25 21:58:38 +08:00
@imokkkk #4 你这个是操作系统的日志 像是操作系统的 OOM killer 可以监控下 服务器的内存占用 不太好确定就是这个 Java 进程的原因
|
6
hangszhang 2023-09-25 23:24:30 +08:00
你这个是进程被操作系统杀掉了,不是 Java 里面的 OOM ,Java 里面的 OOM 是线程挂了
|
7
notwaste 2023-09-27 00:40:14 +08:00
站内搜 OOM killer 案例很多,Java OOM 跟 OOM killer 是两码事
|