這篇文章是回復前幾天在論壇一個朋友提出的問題,今天有空,整理了一下,發布出來,供大家參考!
當Linux下試圖傳遞太多參數給一個系統命令(ls *; cp *; rm *; cat *; etc…)時,就會出現”Argument list too long”錯誤。本文將提供4種解決方法,按復雜程度由低到高排列。
方法#1: 手動把命令行參數分成較小的部分
例1
mv [a-l]* ../directory2
mv [m-z]* ../directory2
這是4種方法裡最簡單的,但是遠非理想的方法。你必須有辦法平均分割文件,而且對於文件數目極多的情況,需要輸入N遍命令。
方法#2: 使用find命令
例2
方法2通過find命令篩選文件列表,把符合要求的文件傳遞給一系列命令。
優點是find命令有很強大的篩選功能,而且,也許是最重要的,這個方法只需要1行命令。
唯一的缺點是, 方法2需要遍歷文件,因此耗時較多。
方法#3: 建立函數
例3
#!/bin/bash
# 設定需要刪除的文件夾
RM_DIR='/data/files'
cd $RM_DIR
for I in `ls`
do
rm -f $I
done
方法#4:重新編譯Linux內核
最後一個方法需要2個字:謹慎,這個方法很高級,因此沒有經驗的linux用戶最好不要嘗試。此外,在永久使用前,務必在系統環境中全面測試。
方法4只需要手動增加內核中分配給命令行參數的頁數。打開include/linux/binfmts.h文件,在文件起始附近位置有以下幾行:
/*
* MAX_ARG_PAGES defines the number of pages allocated for arguments
* and envelope for the new program. 32 should suffice, this gives
* a maximum env+arg of 128kB w/4KB pages!
*/
#define MAX_ARG_PAGES 32
為了增加分配格命令行參數的內存,只需要賦給MAX_ARG_PAGES一個更大的值,保存,重新編譯,安裝,重啟,搞定
在我的系統中,我把MAX_ARG_PAGES的值增加到64,就解決了所有問題。在改變這個值後,我還沒有遇到任何問題。這是可以理解的,當MAX_ARG_PAGES被改為64,最長的參數行僅占用256KB系統內存–對於現在的硬件標准不算什麼。
方法4的優點很明顯,現在你只要像通常一樣運行命令。缺點也很明顯,如果分配給命令行的內存大於可用的系統內存,可能導致對系統自身的拒絕服務攻擊(DoS attack),引起系統崩潰。尤其是對於多用戶系統,即使增加很小的內存分配都會有很大影響,因為每個用戶都被分配到額外內存。因此一定要充分測試來決定是否你的系統可以使用方法4。
本文出自 “技術成就夢想” 博客,請務必保留此出處http://ixdba.blog.51cto.com/2895551/526428