Java工程文件可以在LinuxIDC.com下載
免費下載地址在 http://linux.linuxidc.com/
用戶名與密碼都是www.linuxidc.com
具體下載目錄在 /2014年資料/2月/24日/Naive Bayes 樸素貝葉斯的Java代碼實現
下載方法見 http://www.linuxidc.com/Linux/2013-07/87684.htm
下面貼的代碼僅是主類程序
1.關於貝葉斯分類
bayes 是一種統計學分類方法,它基於貝葉斯定理,它假定一個屬性值對給定類的影響獨立於其它屬性點的值。該假定稱作類條件獨立。做次假定是為了簡化所需計算,並在此意義下稱為“樸素的”。
bayes分類的算法大致如下:
(1)對於屬性值是離散的,並且目標label值也是離散的情況下。分別計算label不同取值的概率,以及樣本在label情況下的概率值,然後將這些概率值相乘最後得到一個概率的乘積,選擇概率乘積最大的那個值對應的label值就為預測的結果。
例如以下:是預測蘋果在給定屬性的情況是甜還是不甜的情況:
color={0,1,2,3} weight={2,3,4};是屬性序列,為離散型。sweet={yes,no}是目標值,也為離散型;
這時我們要預測在color=3,weight=3的情況下的目標值,計算過程如下:
P{y=yes}=2/5=0.4; P{color=3|yes}=1/2=0.5;P{weight=3|yes}=1/2=0.5; 故F{color=3,weight=3}取yesd的概率為 0.4*0.5*0.5=0.1;
P{y=no}=3/5=0.6; P{color=3|no}=1/3 P{weight=3|no}=1/3; 故P{color=3,weight=3}取no為 0.6*1/3*1/3=1/15;
0.1>1/15 所以認為 F{color=3,weight=3}=yes;
(2)對於屬性值是連續的情況,思想和離散是相同的,只是這時候我們計算屬性的概率用的是高斯密度:
這裡的Xk就是樣本的取值,u是樣本所在列的均值,kesi是標准差;
最後代碼如下:
/* * To change this template, choose Tools | Templates * and open the template in the editor. */ package auxiliary; import java.util.ArrayList; /** * * @author Michael Kong */ public class NaiveBayes extends Classifier { boolean isClassfication[]; ArrayList <Double>lblClass=new ArrayList<Double>(); //存儲目標值的種類 ArrayList<Integer>lblCount=new ArrayList<Integer>();//存儲目標值的個數 ArrayList<Float>lblProba=new ArrayList<Float>();//存儲對應的label的概率 CountProbility countlblPro; /*@ClassListBasedLabel是將訓練數組按照 label的順序來分類存儲*/ ArrayList<ArrayList<ArrayList<Double>>> ClassListBasedLabel=new ArrayList<ArrayList<ArrayList<Double>>> (); public NaiveBayes() { } @Override /** * @train主要完成求一些概率 * 1.labels中的不同取值的概率f(Yi); 對應28,29行兩段代碼 * 2.將訓練數組按目標值分類存儲 第37行代碼 * */ public void train(boolean[] isCategory, double[][] features, double[] labels){ isClassfication=isCategory; countlblPro=new CountProbility(isCategory,features,labels); countlblPro.getlblClass(lblClass, lblCount, lblProba); ArrayList<ArrayList<Double>> trainingList=countlblPro.UnionFeaLbl(features, labels); //union the features[][] and labels[] ClassListBasedLabel=countlblPro.getClassListBasedLabel(lblClass, trainingList); } @Override /**3.在Y的條件下,計算Xi的概率 f(Xi/Y); * 4.返回使得Yi*Xi*...概率最大的那個label的取值 * */ public double predict(double[] features) { int max_index; //用於記錄使概率取得最大的那個索引 int index=0; //這個索引是 標識不同的labels 所對應的概率 ArrayList<Double> pro_=new ArrayList<Double>(); //這個概率數組是存儲features[] 在不同labels下對應的概率 for(ArrayList<ArrayList<Double>> elements: ClassListBasedLabel) //依次取不同的label值對應的元祖集合 { ArrayList<Double> pro=new ArrayList<Double>();//存同一個label對應的所有概率,之後其中的元素自乘 double probility=1.0; //計算概率的乘積 for(int i=0;i<features.length;i++) { if(isClassfication[i]) //用於對屬性的離散還是連續做判斷 { int count=0; for(ArrayList<Double> element:elements) //依次取labels中的所有元祖 { if(element.get(i).equals(features[i])) //如果這個元祖的第index數據和b相等,那麼就count就加1 count++; } if(count==0) { pro.add(1/(double)(elements.size()+1)); } else pro.add(count/(double)elements.size()); //統計完所有之後 計算概率值 並加入 } else { double Sdev; double Mean; double probi=1.0; Mean=countlblPro.getMean(elements, i); Sdev=countlblPro.getSdev(elements, i); if(Sdev!=0) { probi*=((1/(Math.sqrt(2*Math.PI)*Sdev))*(Math.exp(-(features[i]-Mean)*(features[i]-Mean)/(2*Sdev*Sdev)))); pro.add(probi); } else pro.add(1.5); } } for(double pi:pro) probility*=pi; //將所有概率相乘 probility*=lblProba.get(index);//最後再乘以一個 Yi pro_.add(probility);// 放入pro_ 至此 一個循環結束, index++; } double max_pro=pro_.get(0); max_index=0; for(int i=1;i<pro_.size();i++) { if(pro_.get(i)>=max_pro) { max_pro=pro_.get(i); max_index=i; } } return lblClass.get(max_index); } public class CountProbility { boolean []isCatory; double[][]features; private double[]labels; public CountProbility(boolean[] isCategory, double[][] features, double[] labels) { this.isCatory=isCategory; this.features=features; this.labels=labels; } //獲取label中取值情況 public void getlblClass( ArrayList <Double>lblClass,ArrayList<Integer>lblCount,ArrayList<Float>lblProba) { int j=0; for(double i:labels) { //如果當前的label不存在於lblClass則加入 if(!lblClass.contains(i)) { lblClass.add(j,i); lblCount.add(j++,1); } else //如果label中已經存在,就將其計數加1 { int index=lblClass.indexOf(i); int count=lblCount.get(index); lblCount.set(index,++count); } } for(int i=0;i<lblClass.size();i++) { // System.out.println("值為"+lblClass.get(i)+"的個數有"+lblCount.get(i)+"概率是"+lblCount.get(i)/(float)labels.length); lblProba.add(i,lblCount.get(i)/(float)labels.length); } } //將label[]和features[][]合並 public ArrayList<ArrayList<Double>> UnionFeaLbl(double[][] features, double[] labels) { ArrayList<ArrayList<Double>>traingList=new ArrayList<ArrayList<Double>>(); for(int i=0;i<features.length;i++) { ArrayList<Double>elements=new ArrayList<Double>(); for(int j=0;j<features[i].length;j++) { elements.add(j,features[i][j]); } elements.add(features[i].length,labels[i]); traingList.add(i,elements); } return traingList; } /*將測試數組按label的值分類存儲*/ public ArrayList<ArrayList<ArrayList<Double>>> getClassListBasedLabel (ArrayList <Double>lblClass,ArrayList<ArrayList<Double>>trainingList) { ArrayList<ArrayList<ArrayList<Double>>> ClassListBasedLabel=new ArrayList<ArrayList<ArrayList<Double>>> () ; for(double num:lblClass) { ArrayList<ArrayList<Double>> elements=new ArrayList<ArrayList<Double>>(); for(ArrayList<Double>element:trainingList) { if(element.get(element.size()-1).equals(num)) elements.add(element); } ClassListBasedLabel.add(elements); } return ClassListBasedLabel; } public double getMean(ArrayList<ArrayList<Double>> elements,int index) { double sum=0.0; double Mean; for(ArrayList<Double> element:elements) { sum+=element.get(index); } Mean=sum/(double)elements.size(); return Mean; } public double getSdev(ArrayList<ArrayList<Double>> elements,int index) { double dev=0.0; double Mean; Mean=getMean(elements,index); for(ArrayList<Double> element:elements) { dev+=Math.pow((element.get(index)-Mean),2); } dev=Math.sqrt(dev/elements.size()); return dev; } } }