[b] iostat是I/O statistics(輸入/輸出統計)的縮寫,對系統的磁盤操作活動進行監視。它的特點是匯報磁盤活動統計情況,同時也會匯報出CPU使用情況。[/b][b] (1)用法:[/b]
[b] 用法: iostat [參數] [時間] [次數][/b] [b] (2)功能:[/b]
[b] 功能: 可以提供更豐富的IO性能狀態數據,[/b] 通過iostat方便查看CPU、網卡、tty設備、磁盤、CD-ROM 等等設備的活動情況, 負載信息。
同vmstat一樣,iostat也有一個弱點,就是它不能對某個進程進行深入分析,僅對系統的整體情況進行分析。iostat屬於sysstat軟件包。可以用yum install sysstat 直接安裝。[b] (3)選項參數:[/b]
1) -c 顯示CPU使用情況 2) -d 顯示磁盤使用情況
3) -k 以 KB 為單位顯示 4) -m 以 M 為單位顯示
5) -N 顯示磁盤陣列(LVM) 信息 6) -x 顯示詳細信息
[b] (4)實例:[/b] 1)[root@localhost sunjimeng]# iostat 顯示所有設備負載情況
[root@localhost sunjimeng]# iostat Linux 3.10.0-229.el7.x86_64 (localhost.localdomain) 2016年06月07日 _x86_64_ (2 CPU) avg-cpu: %user %nice %system %iowait %steal %idle 1.58 0.00 0.92 0.04 0.00 97.47 Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn sda 0.57 11.80 2.13 419482 75552等價於:
[root@localhost sunjimeng]# iostat -c -d Linux 3.10.0-229.el7.x86_64 (localhost.localdomain) 2016年06月07日 _x86_64_ (2 CPU) avg-cpu: %user %nice %system %iowait %steal %idle 1.55 0.00 0.89 0.04 0.00 97.52 Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn sda 0.53 10.92 2.00 419506 76803參數說明:
1.cpu值屬性說明: %user:CPU處在用戶模式下的時間百分比。
%nice:CPU處在帶NICE值的用戶模式下的時間百分比。 %system:CPU處在系統模式下的時間百分比。
%iowait:CPU等待輸入輸出完成時間的百分比。 %steal:管理程序維護另一個虛擬處理器時,虛擬CPU的無意識等待時間百分比。
%idle:CPU空閒時間百分比。 備注: 如果%iowait的值過高,表示硬盤存在I/O瓶頸,%idle值高,表示CPU較空閒,如果%idle值高但系統響應慢時,有可能是CPU等待分配內存,此時應加大內存容量。%idle值如果持續低於10,那麼系統的CPU處理能力相對較低,表明系統中最需要解決的資源是CPU。
2.disk值屬性說明: tps:該設備每秒的傳輸次數(Indicate the number of transfers per second that were issued to the device.)。“一次傳輸”意思是“一次I/O請求”。多個邏輯請求可能會被合並為“一次I/O請求”。“一次傳輸”請求的大小是未知的。
kB_read/s:每秒從設備(drive expressed)讀取的數據量; kB_wrtn/s:每秒向設備(drive expressed)寫入的數據量;
kB_read:讀取的總數據量; kB_wrtn:寫入的總數量數據量;
這些單位都為kb。 2)[root@localhost sunjimeng]# iostat 1 3 每秒一次,共顯示3次
[root@localhost sunjimeng]# iostat 1 3 Linux 3.10.0-229.el7.x86_64 (localhost.localdomain) 2016年06月07日 _x86_64_ (2 CPU) avg-cpu: %user %nice %system %iowait %steal %idle 1.56 0.00 0.89 0.04 0.00 97.51 Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn sda 0.55 11.25 2.05 419502 76249 avg-cpu: %user %nice %system %iowait %steal %idle 4.10 0.00 2.05 0.00 0.00 93.85 Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn sda 3.96 0.00 13.37 0 13 avg-cpu: %user %nice %system %iowait %steal %idle 7.10 0.00 2.19 0.00 0.00 90.71 Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn sda 0.00 0.00 0.00 0 03)[root@localhost sunjimeng]# iostat -x 顯示更多更詳細的信息
[root@localhost sunjimeng]# iostat -x Linux 3.10.0-229.el7.x86_64 (localhost.localdomain) 2016年06月07日 _x86_64_ (2 CPU) avg-cpu: %user %nice %system %iowait %steal %idle 1.55 0.00 0.89 0.04 0.00 97.53 Device: rrqm/s wrqm/s r/s w/s rkB/s wkB/s avgrq-sz avgqu-sz await r_await w_await svctm %util sda 0.02 0.03 0.31 0.23 11.16 2.03 48.66 0.02 40.03 10.06 79.52 3.87 0.21rrqm/s:每秒這個設備相關的讀取請求有多少被Merge了(當系統調用需要讀取數據的時候,VFS將請求發到各個FS,如果FS發現不同的讀取請求讀取的是相同Block的數據,FS會將這個請求合並Merge);
wrqm/s:每秒這個設備相關的寫入請求有多少被Merge了。 rsec/s:每秒讀取的扇區數;wsec/:每秒寫入的扇區數。
r/s:The number of read requests that were issued to the device per second; w/s:The number of write requests that were issued to the device per second;
await:每一個IO請求的處理的平均時間(單位是毫秒)。這裡可以理解為IO的響應時間,一般地系統IO響應時間應該低於5ms,如果大於10ms就比較大了。 %util:在統計時間內所有處理IO時間,除以總共統計時間。例如,如果統計間隔1秒,該設備有0.8秒在處理IO,而0.2秒閒置,那麼該設備的%util = 0.8/1 = 80%,所以該參數暗示了設備的繁忙程度。一般地,如果該參數是100%表示設備已經接近滿負荷運行了(當然如果是多磁盤,即使%util是100%,因為磁盤的並發能力,所以磁盤使用未必就到了瓶頸)。
4)[root@localhost sunjimeng]# iostat -c 顯示部分cpu的狀態值
[root@localhost sunjimeng]# iostat -c Linux 3.10.0-229.el7.x86_64 (localhost.localdomain) 2016年06月07日 _x86_64_ (2 CPU) avg-cpu: %user %nice %system %iowait %steal %idle 1.54 0.00 0.89 0.04 0.00 97.53
5)[root@localhost sunjimeng]# iostat -d 顯示部分disk的狀態值
[root@localhost sunjimeng]# iostat -d Linux 3.10.0-229.el7.x86_64 (localhost.localdomain) 2016年06月07日 _x86_64_ (2 CPU) Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn sda 0.54 11.00 2.01 419502 76703
6)[root@localhost sunjimeng]# iostat -t 顯示tty和cpu信息
[root@localhost sunjimeng]# iostat -t Linux 3.10.0-229.el7.x86_64 (localhost.localdomain) 2016年06月07日 _x86_64_ (2 CPU) 2016年06月07日 02時20分31秒 avg-cpu: %user %nice %system %iowait %steal %idle 1.55 0.00 0.89 0.04 0.00 97.52 Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn sda 0.53 10.88 2.01 419506 77323
(5)其他: Linux終端TTY:
終端是一種字符型設備,它有多種類型,通常使用tty來簡稱各種類型的終端設備。tty是Teletype的縮寫。Teletype是最早出現的一種終端設備,很象電傳打字機(或者說就是),是由Teletype公司生產的。設備名放在特殊文件目錄/dev/下,終端特殊設備文件一般有以下幾種:1.串行端口終端(/dev/ttySn)
串行端口終端(Serial Port Terminal)是使用計算機串行端口連接的終端設備。計算機把每個串行端口都看作是一個字符設備。有段時間這些串行端口設備通常被稱為終端設備,因為那時它的最大用途就是用來連接終端。這些串行端口所對應的設備名稱是/dev/tts/0(或/dev/ttyS0)、/dev/tts/1(或/dev/ttyS1)等,設備號分別是(4,0)、(4,1)等,分別對應於DOS系統下的COM1、COM2等。若要向一個端口發送數據,可以在命令行上把標准輸出重定向到這些特殊文件名上即可。例如,在命令行提示符下鍵入:echo test > /dev/ttyS1會把單詞”test”發送到連接在ttyS1(COM2)端口的設備上。
2.偽終端(/dev/pty/)
偽終端(Pseudo Terminal)是成對的邏輯終端設備,例如/dev/ptyp3和/dev/ttyp3(或著在設備文件系統中分別是/dev/pty/m3和/dev/pty/s3)。它們與實際物理設備並不直接相關。如果一個程序把ttyp3看作是一個串行端口設備,則它對該端口的讀/寫操作會反映在該邏輯終端設備對的另一個上面(ttyp3)。而ttyp3則是另一個程序用於讀寫操作的邏輯設備。這樣,兩個程序就可以通過這種邏輯設備進行互相交流,而其中一個使用ttyp3的程序則認為自己正在與一個串行端口進行通信。這很象是邏輯設備對之間的管道操作。
對於ttyp3(s3),任何設計成使用一個串行端口設備的程序都可以使用該邏輯設備。但對於使用ptyp3的程序,則需要專門設計來使用ptyp3(m3)邏輯設備。
例如,如果某人在網上使用telnet程序連接到你的計算機上,則telnet程序就可能會開始連接到設備ptyp2(m2)上(一個偽終端端口上)。此時一個getty程序就應該運行在對應的ttyp2(s2)端口上。當telnet從遠端獲取了一個字符時,該字符就會通過m2、s2傳遞給getty程序,而getty程序就會通過s2、m2和telnet程序往網絡上返回”login:”字符串信息。這樣,登錄程序與telnet程序就通過“偽終端”進行通信。通過使用適當的軟件,就可以把兩個甚至多個偽終端設備連接到同一個物理串行端口上。
在使用設備文件系統(device filesystem)之前,為了得到大量的偽終端設備特殊文件,HP-UX AIX等使用了比較復雜的文件名命名方式。
3.控制終端(/dev/tty)
如果當前進程有控制終端(Controlling Terminal)的話,那麼/dev/tty就是當前進程的控制終端的設備特殊文件。可以使用命令”ps –ax”來查看進程與哪個控制終端相連。對於你登錄的shell,/dev/tty就是你使用的終端,設備號是(5,0)。使用命令”tty”可以查看它具體對應哪個實際終端設備。/dev/tty有些類似於到實際所使用終端設備的一個聯接。
4.控制台終端(/dev/ttyn, /dev/console)
在UNIX系統中,計算機顯示器通常被稱為控制台終端(Console)。它仿真了類型為Linux的一種終端(TERM=Linux),並且有一些設備特殊文件與之相關聯:tty0、tty1、tty2等。當你在控制台上登錄時,使用的是tty1。使用Alt+[F1—F6]組合鍵時,我們就可以切換到tty2、tty3等上面去。tty1 –tty6等稱為虛擬終端,而tty0則是當前所使用虛擬終端的一個別名,系統所產生的信息會發送到該終端上。因此不管當前正在使用哪個虛擬終端,系統信息都會發送到控制台終端上。
你可以登錄到不同的虛擬終端上去,因而可以讓系統同時有幾個不同的會話期存在。只有系統或超級用戶root可以向/dev/tty0進行寫操作,
5.其它類型還針對很多不同的字符設備存在有很多其它種類的終端設備特殊文件。例如針對ISDN設備的/dev/ttyIn終端設備等。這裡不再贅述。
2.LVM:
LVM是 Logical Volume Manager(邏輯卷管理)的簡寫,它是Linux環境下對磁盤分區進行管理的一種機制。 建了一個VG,有3個邏輯卷,其中一個我分了100m,但是我往上拷了一個300m的文件,為什麼能成功?
lvm有點像windows下的動態磁盤,因為LVM能夠動態調整邏輯卷的大小。實際上LVM卷按照通常分區的概念是在同一個分區上,每個LVM卷都能動態擴展到整個分區的大小,只要三個邏輯卷已用空間之和小於這個分區的大小,那麼你可以向任何LVM卷上繼續拷貝文件。