命令:free [参数 ]
命令参数:
-b 以Byte为单位显示内存使用情况。
-k 以KB为单位显示内存使用情况。
-m 以MB为单位显示内存使用情况。
-g 以GB为单位显示内存使用情况。
-o 不显示缓冲区调节列。
-s<间隔秒数> 持续观察内存使用状况。
-t 显示内存总和列。
-V 显示版本信息。
结果说明:
![](https://img-blog.csdnimg.cn/20210607204823345.png)
![](https://img-blog.csdnimg.cn/20210607204823338.png)
还有一个free -h命令,输出的结果会有好很多(目前的理解是根据内存大小搭配合适的单位):
![](https://img-blog.csdnimg.cn/20210607204823321.png)
mem:表示物理内存统计
swap:表示硬盘上交换分区的使用情况
当Linux的物理内存快要被耗尽时,系统会把一些进程占用的内存转移到 swap 区,当物理内存被释放一部分时,swap 区的一些内存占用又慢慢回到 mem 区,但是 mem 区却不再是之前的满负荷状态,而是有一部分 free 的内存!
total:总计物理内存的大小。
used:已使用的空间。
free:可用的空间。
Shared:多个进程共享的内存总额。
buff/cache:磁盘缓存的大小。
buff/cache:表示物理内存的缓存统计
buff/cache主要干啥来的?
Linux具有先进的缓存机制,这里的buffer指Linux内存的:Buffer cache。这里的cache指Linux内存中的:Page cache。翻译成中文可以叫做缓冲区缓存和页面缓存。Buffer cache主要是设计用来在系统对块设备进行读写的时候,对块进行数据缓存的系统来使用。Page cache主要用来作为文件系统上的文件数据的缓存来用,尤其是针对当进程对文件有read/write操作的时候。事实上page cache也负责了大部分的块设备文件的缓存工作。但是在进行了大量文件操作之后,缓存会把内存资源基本用完,虽然文件读取效率提高了,但是物理内存会被逐渐用完。
原来是因为系统进行了频繁的文件读写操作,但是为什么操作系统不会主动回收呢,原来是因为drop_caches 的默认参数设置的就是不释放。
drop_caches 的值可以是 0-3 之间的数字,代表不同的含义:
0:不释放(系统默认值)
1:释放页缓存
2:释放dentries和inode
3:释放所有缓存
修改:# echo 1 > /proc/sys/vm/drop_caches
Linux内核会在内存将要耗尽的时候,触发内存回收的工作,以便释放出内存给急需内存的进程使用。一般情况下,这个操作中主要的内存释放都来自于对buffer/cache的释放。尤其是被使用更多的cache空间。既然它主要用来做缓存,只是在内存够用的时候加快进程对文件的读写速度,那么在内存压力较大的情况下,当然有必要清空释放cache,作为free空间分给相关进程使用。
available:真正剩余的可被程序应用的内存数
看起来,free和available表达的是同一个意思,都是可用的空间,他们什么区别呢?
free 是真正尚未被使用的物理内存数量。
available 是应用程序认为可用内存数量,Linux 内核为了提升磁盘操作的性能,会消耗一部分内存去缓存磁盘数据,就是我们介绍的 buffer 和 cache。所以对于内核来说,buffer 和 cache 都属于已经被使用的内存。当应用程序需要内存时,如果没有足够的 free 内存可以用,内核就会从 buffer 和 cache 中回收内存来满足应用程序的请求。从应用程序的角度来说,available = free + buffer + cache。请注意,这只是一个很理想的计算方式,实际中的数据往往有较大的误差。
总结:
1)当物理内存快被耗尽时,系统并没有崩溃,而是拿 swap 做临时内存,当两者都耗尽,系统 OutofMemory
2)物理内存达到峰值,系统中一些不常用的进程内存占用被提到 swap 区
3)当 Men 区的资源进行释放时,被挪到 swap 的内存并不会全部回来,随着系统或者程序的唤醒才会慢慢回到 men 区
4)swap 是内存不够时,磁盘虚拟出来的内存,磁盘主要是 I/O 级别的操作,并不是系统内核级别的操作,处理速度跟 mem 区不是一个等级
除了free命令以外,还有很方式也可以查看资源使用情况
1.命令:
$cat /proc/meminfo
MemTotal: 1882308 kB
MemFree: 660832 kB
MemAvailable: 1256708 kB
Buffers: 0 kB
Cached: 736252 kB
SwapCached: 4 kB
Active: 679104 kB
Inactive: 394796 kB
Active(anon): 281284 kB
Inactive(anon): 86380 kB
Active(file): 397820 kB
Inactive(file): 308416 kB
Unevictable: 0 kB
Mlocked: 0 kB
SwapTotal: 1679356 kB
SwapFree: 1675508 kB
Dirty: 8 kB
Writeback: 0 kB
AnonPages: 337696 kB
Mapped: 27028 kB
Shmem: 30016 kB
Slab: 75816 kB
SReclaimable: 41604 kB
SUnreclaim: 34212 kB
KernelStack: 3456 kB
PageTables: 5328 kB
NFS_Unstable: 0 kB
Bounce: 0 kB
WritebackTmp: 0 kB
CommitLimit: 2620508 kB
Committed_AS: 605360 kB
VmallocTotal: 34359738367 kB
VmallocUsed: 147136 kB
VmallocChunk: 34359341052 kB
HardwareCorrupted: 0 kB
AnonHugePages: 147456 kB
CmaTotal: 0 kB
CmaFree: 0 kB
HugePages_Total: 0
HugePages_Free: 0
HugePages_Rsvd: 0
HugePages_Surp: 0
Hugepagesize: 2048 kB
DirectMap4k: 73664 kB
DirectMap2M: 2023424 kB
MemTotal:总计物理内存的大小
MemFree: 系统尚未使用的内存
MemAvailable:应用程序认为可用内存数量
关于特定进程的内存信息也可以通过“/proc/<pid>/statm”和“/proc/<pid>/status”来获取。
2.命令:
$ps aux --sort -rss
ps命令能够实时展示每个进程的内存使用状况。内存使用报告里包括了 %MEM (物理内存使用百分比), VSZ (虚拟内存使用总量), 和 RSS (物理内存使用总量)。你可以使用“--sort”选项来对进程列表排序。例如,按照RSS降序排序:
USER PID %CPU %MEM VSZ RSS TTY STAT START TIME COMMAND
admin 27585 0.1 14.7 2696320 277452 ? Sl 01:07 2:05 java -Xms128m -Xmx128m -jar /home/admin/apps/lpm-backend-2.8.0-RELEASE.jar
root 849 0.0 1.3 358852 25880 ? Ssl Mar14 0:07 /usr/bin/python2 -Es /usr/sbin/firewalld --nofork --nopid
polkitd 784 0.0 0.8 716712 15444 ? Ssl Mar14 0:09 /usr/lib/polkit-1/polkitd --no-debug
root 1198 0.0 0.7 574308 14572 ? Ssl Mar14 18:39 /usr/bin/python2 -Es /usr/sbin/tuned -l -P
root 18706 0.0 0.3 158928 5668 ? Ss 20:00 0:00 sshd: admin [priv]
root 1200 0.0 0.2 241000 5608 ? Ssl Mar14 8:20 /usr/sbin/rsyslogd -n
root 1 0.0 0.2 128060 5444 ? Ss Mar14 41:34 /usr/lib/systemd/systemd --switched-root --system --deserialize 22
root 863 0.0 0.2 476424 5216 ? Ssl Mar14 2:51 /usr/sbin/NetworkManager --no-daemon
root 1197 0.0 0.2 112924 4348 ? Ss Mar14 0:02 /usr/sbin/sshd -D
postfix 17358 0.0 0.2 89812 4056 ? S 19:33 0:00 pickup -l -t unix -u
root 645 0.0 0.2 48492 3892 ? Ss Mar14 0:01 /usr/lib/systemd/systemd-udevd
root 615 0.0 0.1 39084 3748 ? Ss Mar14 0:36 /usr/lib/systemd/systemd-journald
root 787 0.0 0.1 99692 3692 ? Ss Mar14 0:00 /usr/bin/VGAuthService -s
postfix 1392 0.0 0.1 89880 3284 ? S Mar14 0:13 qmgr -l -t unix -u
root 1989 0.0 0.1 48248 2648 ? Ss Jun01 0:00 nginx: master process ./nginx
admin 18713 0.0 0.1 158928 2480 ? S 20:00 0:00 sshd: admin@pts/0,pts/1
root 639 0.0 0.1 201100 2468 ? Ss Mar14 0:00 /usr/sbin/lvmetad -f
dbus 792 0.0 0.1 66476 2356 ? Ssl Mar14 0:41 /usr/bin/dbus-daemon --system --address=systemd: --nofork --nopidfile --systemd-activat
admin 5294 0.0 0.1 48692 2356 ? S 15:28 0:00 nginx: worker process
admin 5295 0.0 0.1 48692 2352 ? S 15:28 0:00 nginx: worker process
admin 20351 0.3 0.1 162124 2288 pts/0 S+ 20:33 0:00 top
admin 18714 0.0 0.1 115684 2144 pts/0 Ss 20:00 0:00 -bash
admin 20367 0.0 0.1 115684 2140 pts/1 Ss 20:33 0:00 -bash
root 1386 0.0 0.1 89708 2120 ? Ss Mar14 1:22 /usr/libexec/postfix/master -w
admin 20442 0.0 0.1 155612 2008 pts/1 R+ 20:34 0:00 ps aux --sort -rss
chrony 794 0.0 0.0 117808 1756 ? S Mar14 0:24 /usr/sbin/chronyd
root 786 0.0 0.0 26380 1660 ? Ss Mar14 0:44 /usr/lib/systemd/systemd-logind
root 816 0.0 0.0 126388 1624 ? Ss Mar14 0:31 /usr/sbin/crond -n
root 782 0.0 0.0 21680 1168 ? Ss Mar14 7:26 /usr/sbin/irqbalance --foreground
root 760 0.0 0.0 55532 1040 ? S<sl Mar14 0:17 /sbin/auditd
root 822 0.0 0.0 110208 800 tty1 Ss+ Mar14 0:00 /sbin/agetty --noclear tty1 linux
root 2 0.0 0.0 0 0 ? S Mar14 0:02 [kthreadd]
root 4 0.0 0.0 0 0 ? S< Mar14 0:00 [kworker/0:0H]
root 6 0.0 0.0 0 0 ? S Mar14 0:21 [ksoftirqd/0]
root 7 0.0 0.0 0 0 ? S Mar14 0:00 [migration/0]
root 8 0.0 0.0 0 0 ? S Mar14 0:00 [rcu_bh]
root 9 0.0 0.0 0 0 ? S Mar14 9:21 [rcu_sched]
root 10 0.0 0.0 0 0 ? S< Mar14 0:00 [lru-add-drain]
root 11 0.0 0.0 0 0 ? S Mar14 0:40 [watchdog/0]
root 12 0.0 0.0 0 0 ? S Mar14 0:29 [watchdog/1]
root 13 0.0 0.0 0 0 ? S Mar14 0:00 [migration/1]
root 14 0.0 0.0 0 0 ? S Mar14 0:19 [ksoftirqd/1]
root 16 0.0 0.0 0 0 ? S< Mar14 0:00 [kworker/1:0H]
root 18 0.0 0.0 0 0 ? S Mar14 0:00 [kdevtmpfs]
root 19 0.0 0.0 0 0 ? S< Mar14 0:00 [netns]
root 20 0.0 0.0 0 0 ? S Mar14 0:19 [khungtaskd]
root 21 0.0 0.0 0 0 ? S< Mar14 0:00 [writeback]
root 22 0.0 0.0 0 0 ? S< Mar14 0:00 [kintegrityd]
root 23 0.0 0.0 0 0 ? S< Mar14 0:00 [bioset]
root 24 0.0 0.0 0 0 ? S< Mar14 0:00 [bioset]
root 25 0.0 0.0 0 0 ? S< Mar14 0:00 [bioset]
root 26 0.0 0.0 0 0 ? S< Mar14 0:00 [kblockd]
root 27 0.0 0.0 0 0 ? S< Mar14 0:00 [md]
root 28 0.0 0.0 0 0 ? S< Mar14 0:00 [edac-poller]
root 29 0.0 0.0 0 0 ? S< Mar14 0:00 [watchdogd]
root 35 0.0 0.0 0 0 ? S Mar14 0:00 [kswapd0]
root 36 0.0 0.0 0 0 ? SN Mar14 0:00 [ksmd]
root 37 0.0 0.0 0 0 ? SN Mar14 1:27 [khugepaged]
root 38 0.0 0.0 0 0 ? S< Mar14 0:00 [crypto]
root 46 0.0 0.0 0 0 ? S< Mar14 0:00 [kthrotld]
root 48 0.0 0.0 0 0 ? S< Mar14 0:00 [kmpath_rdacd]
root 49 0.0 0.0 0 0 ? S< Mar14 0:00 [kaluad]
root 51 0.0 0.0 0 0 ? S< Mar14 0:00 [kpsmoused]
root 53 0.0 0.0 0 0 ? S< Mar14 0:00 [ipv6_addrconf]
root 66 0.0 0.0 0 0 ? S< Mar14 0:00 [deferwq]
root 103 0.0 0.0 0 0 ? S Mar14 0:00 [kauditd]
root 283 0.0 0.0 0 0 ? S Mar14 0:00 [scsi_eh_0]
root 284 0.0 0.0 0 0 ? S< Mar14 0:00 [scsi_tmf_0]
root 285 0.0 0.0 0 0 ? S< Mar14 0:00 [vmw_pvscsi_wq_0]
root 287 0.0 0.0 0 0 ? S< Mar14 0:00 [nfit]
root 307 0.0 0.0 0 0 ? S< Mar14 0:00 [ata_sff]
root 322 0.0 0.0 0 0 ? S Mar14 0:00 [scsi_eh_1]
root 323 0.0 0.0 0 0 ? S< Mar14 0:00 [scsi_tmf_1]
root 324 0.0 0.0 0 0 ? S Mar14 0:00 [scsi_eh_2]
root 327 0.0 0.0 0 0 ? S< Mar14 0:00 [scsi_tmf_2]
root 333 0.0 0.0 0 0 ? S Mar14 0:00 [scsi_eh_3]
root 334 0.0 0.0 0 0 ? S< Mar14 0:00 [scsi_tmf_3]
root 335 0.0 0.0 0 0 ? S Mar14 0:00 [scsi_eh_4]
root 336 0.0 0.0 0 0 ? S< Mar14 0:00 [scsi_tmf_4]
root 337 0.0 0.0 0 0 ? S Mar14 0:00 [scsi_eh_5]
root 338 0.0 0.0 0 0 ? S< Mar14 0:00 [scsi_tmf_5]
root 339 0.0 0.0 0 0 ? S Mar14 0:00 [scsi_eh_6]
root 340 0.0 0.0 0 0 ? S< Mar14 0:00 [scsi_tmf_6]
root 341 0.0 0.0 0 0 ? S Mar14 0:00 [scsi_eh_7]
root 342 0.0 0.0 0 0 ? S< Mar14 0:00 [scsi_tmf_7]
root 343 0.0 0.0 0 0 ? S Mar14 0:00 [scsi_eh_8]
root 344 0.0 0.0 0 0 ? S< Mar14 0:00 [scsi_tmf_8]
root 345 0.0 0.0 0 0 ? S Mar14 0:00 [scsi_eh_9]
root 346 0.0 0.0 0 0 ? S< Mar14 0:00 [scsi_tmf_9]
root 347 0.0 0.0 0 0 ? S Mar14 0:00 [scsi_eh_10]
root 348 0.0 0.0 0 0 ? S< Mar14 0:00 [scsi_tmf_10]
root 349 0.0 0.0 0 0 ? S Mar14 0:00 [scsi_eh_11]
root 350 0.0 0.0 0 0 ? S< Mar14 0:00 [scsi_tmf_11]
root 351 0.0 0.0 0 0 ? S Mar14 0:00 [scsi_eh_12]
root 352 0.0 0.0 0 0 ? S< Mar14 0:00 [scsi_tmf_12]
root 353 0.0 0.0 0 0 ? S Mar14 0:00 [scsi_eh_13]
root 354 0.0 0.0 0 0 ? S< Mar14 0:00 [scsi_tmf_13]
root 355 0.0 0.0 0 0 ? S Mar14 0:00 [scsi_eh_14]
root 356 0.0 0.0 0 0 ? S< Mar14 0:00 [scsi_tmf_14]
root 357 0.0 0.0 0 0 ? S Mar14 0:00 [scsi_eh_15]
root 358 0.0 0.0 0 0 ? S< Mar14 0:00 [scsi_tmf_15]
root 359 0.0 0.0 0 0 ? S Mar14 0:00 [scsi_eh_16]
root 360 0.0 0.0 0 0 ? S< Mar14 0:00 [scsi_tmf_16]
root 361 0.0 0.0 0 0 ? S Mar14 0:00 [scsi_eh_17]
root 362 0.0 0.0 0 0 ? S< Mar14 0:00 [scsi_tmf_17]
root 363 0.0 0.0 0 0 ? S Mar14 0:00 [scsi_eh_18]
root 364 0.0 0.0 0 0 ? S< Mar14 0:00 [scsi_tmf_18]
root 365 0.0 0.0 0 0 ? S Mar14 0:00 [scsi_eh_19]
root 366 0.0 0.0 0 0 ? S< Mar14 0:00 [scsi_tmf_19]
root 367 0.0 0.0 0 0 ? S Mar14 0:00 [scsi_eh_20]
root 368 0.0 0.0 0 0 ? S< Mar14 0:00 [scsi_tmf_20]
root 369 0.0 0.0 0 0 ? S Mar14 0:00 [scsi_eh_21]
root 370 0.0 0.0 0 0 ? S< Mar14 0:00 [scsi_tmf_21]
root 371 0.0 0.0 0 0 ? S Mar14 0:00 [scsi_eh_22]
root 372 0.0 0.0 0 0 ? S< Mar14 0:00 [scsi_tmf_22]
root 373 0.0 0.0 0 0 ? S Mar14 0:00 [scsi_eh_23]
root 374 0.0 0.0 0 0 ? S< Mar14 0:00 [scsi_tmf_23]
root 375 0.0 0.0 0 0 ? S Mar14 0:00 [scsi_eh_24]
root 376 0.0 0.0 0 0 ? S< Mar14 0:00 [scsi_tmf_24]
root 377 0.0 0.0 0 0 ? S Mar14 0:00 [scsi_eh_25]
root 378 0.0 0.0 0 0 ? S< Mar14 0:00 [scsi_tmf_25]
root 379 0.0 0.0 0 0 ? S Mar14 0:00 [scsi_eh_26]
root 380 0.0 0.0 0 0 ? S< Mar14 0:00 [scsi_tmf_26]
root 381 0.0 0.0 0 0 ? S Mar14 0:00 [scsi_eh_27]
root 382 0.0 0.0 0 0 ? S< Mar14 0:00 [scsi_tmf_27]
root 383 0.0 0.0 0 0 ? S Mar14 0:00 [scsi_eh_28]
root 384 0.0 0.0 0 0 ? S< Mar14 0:00 [scsi_tmf_28]
root 385 0.0 0.0 0 0 ? S Mar14 0:00 [scsi_eh_29]
root 386 0.0 0.0 0 0 ? S< Mar14 0:00 [scsi_tmf_29]
root 387 0.0 0.0 0 0 ? S Mar14 0:00 [scsi_eh_30]
root 388 0.0 0.0 0 0 ? S< Mar14 0:00 [scsi_tmf_30]
root 389 0.0 0.0 0 0 ? S Mar14 0:00 [scsi_eh_31]
root 390 0.0 0.0 0 0 ? S< Mar14 0:00 [scsi_tmf_31]
root 391 0.0 0.0 0 0 ? S Mar14 0:00 [scsi_eh_32]
root 392 0.0 0.0 0 0 ? S< Mar14 0:00 [scsi_tmf_32]
root 419 0.0 0.0 0 0 ? S Mar14 1:03 [kworker/u4:30]
root 420 0.0 0.0 0 0 ? S Mar14 1:00 [kworker/u4:31]
root 426 0.0 0.0 0 0 ? S Mar14 0:00 [irq/16-vmwgfx]
root 427 0.0 0.0 0 0 ? S< Mar14 0:00 [ttm_swap]
root 438 0.0 0.0 0 0 ? S< Mar14 0:16 [kworker/1:1H]
root 499 0.0 0.0 0 0 ? S< Mar14 0:00 [kdmflush]
root 500 0.0 0.0 0 0 ? S< Mar14 0:00 [bioset]
root 511 0.0 0.0 0 0 ? S< Mar14 0:00 [kdmflush]
root 512 0.0 0.0 0 0 ? S< Mar14 0:00 [bioset]
root 524 0.0 0.0 0 0 ? S< Mar14 0:00 [bioset]
root 525 0.0 0.0 0 0 ? S< Mar14 0:00 [xfsalloc]
root 526 0.0 0.0 0 0 ? S< Mar14 0:00 [xfs_mru_cache]
root 527 0.0 0.0 0 0 ? S< Mar14 0:00 [xfs-buf/dm-0]
root 528 0.0 0.0 0 0 ? S< Mar14 0:00 [xfs-data/dm-0]
root 529 0.0 0.0 0 0 ? S< Mar14 0:00 [xfs-conv/dm-0]
root 530 0.0 0.0 0 0 ? S< Mar14 0:00 [xfs-cil/dm-0]
root 531 0.0 0.0 0 0 ? S< Mar14 0:00 [xfs-reclaim/dm-]
root 532 0.0 0.0 0 0 ? S< Mar14 0:00 [xfs-log/dm-0]
root 533 0.0 0.0 0 0 ? S< Mar14 0:00 [xfs-eofblocks/d]
root 534 0.0 0.0 0 0 ? S Mar14 48:53 [xfsaild/dm-0]
root 614 0.0 0.0 0 0 ? S< Mar14 0:22 [kworker/0:1H]
root 722 0.0 0.0 0 0 ? S< Mar14 0:00 [xfs-buf/sda1]
root 723 0.0 0.0 0 0 ? S< Mar14 0:00 [xfs-data/sda1]
root 724 0.0 0.0 0 0 ? S< Mar14 0:00 [xfs-conv/sda1]
root 725 0.0 0.0 0 0 ? S< Mar14 0:00 [xfs-cil/sda1]
root 726 0.0 0.0 0 0 ? S< Mar14 0:00 [xfs-reclaim/sda]
root 727 0.0 0.0 0 0 ? S< Mar14 0:00 [xfs-log/sda1]
root 728 0.0 0.0 0 0 ? S< Mar14 0:00 [xfs-eofblocks/s]
root 729 0.0 0.0 0 0 ? S Mar14 0:00 [xfsaild/sda1]
root 12435 0.0 0.0 0 0 ? S 17:53 0:00 [kworker/0:2]
root 19363 0.0 0.0 0 0 ? S 20:13 0:00 [kworker/1:2]
root 19833 0.0 0.0 0 0 ? S 20:23 0:00 [kworker/0:1]
root 19883 0.0 0.0 0 0 ? S 20:24 0:00 [kworker/1:1]
root 20161 0.0 0.0 0 0 ? S 20:29 0:00 [kworker/1:0]vmstat -s
3.命令:
$ps auxw |head -1;ps auxw|sort -rn -k4|head -5
跟2相比,3只列出了占用内存最多的前五项
USER PID %CPU %MEM VSZ RSS TTY STAT START TIME COMMAND
admin 27585 0.1 14.7 2696320 277452 ? Sl 01:07 2:05 java -Xms128m -Xmx128m -jar /home/admin/apps/lpm-backend-2.8.0-RELEASE.jar
root 849 0.0 1.3 358852 25880 ? Ssl Mar14 0:07 /usr/bin/python2 -Es /usr/sbin/firewalld --nofork --nopid
polkitd 784 0.0 0.8 716712 15444 ? Ssl Mar14 0:09 /usr/lib/polkit-1/polkitd --no-debug
root 1198 0.0 0.7 574308 14572 ? Ssl Mar14 18:39 /usr/bin/python2 -Es /usr/sbin/tuned -l -P
root 18706 0.0 0.3 158928 5668 ? Ss 20:00 0:00 sshd: admin [priv]
4.命令:
$vmstat -s
vmstat命令行工具显示涵盖了CPU、内存、中断和磁盘I/O在内的各种系统活动的瞬时和平均统计数据。对于内存信息而言,命令不仅仅展示了物理内存使用情况(例如总计/已使用内存和缓冲的/缓存的内存),还同样展示了虚拟内存统计数据(例如,内存页的换入/换出,虚拟内存页的换入/换出)
1882308 K total memory
445492 K used memory
680560 K active memory
394792 K inactive memory
658932 K free memory
0 K buffer memory
777884 K swap cache
1679356 K total swap
3848 K used swap
1675508 K free swap
8398229 non-nice user cpu ticks
1233 nice user cpu ticks
1024081 system cpu ticks
1460024478 idle cpu ticks
56194 IO-wait cpu ticks
0 IRQ cpu ticks
18880 softirq cpu ticks
0 stolen cpu ticks
1003175 pages paged in
21898438 pages paged out
0 pages swapped in
905 pages swapped out
728905707 interrupts
1083575835 CPU context switches
1615711052 boot time
6029698 forks
5.命令:
$top
关于top命令详解,小编推荐大家阅读https://www.cnblogs.com/niuben/p/12017242.html,真的是相当全面了
7.Linux 系统监控工具 atop
8.GNOME System Monitor 一个图形界面应用
9.KDE System Monitor 一个类似GNOME System Monitor的图形界面应用
总结:只有想不到,没有做不到。我们要学会利用工具。这么多查看资源的命令,总有一个适合你~~~