機器學習實戰--KNN算法

KNN算法項目實戰——改進約會網站的配對效果

轉自:https://www.cnblogs.com/asialee/p/9307337.html

1、項目背景:

海倫女士一直使用在線約會網站尋找適合自己的約會對象。儘管約會網站會推薦不同的人選,但她並不是喜歡每一個人。經過一番總結,她發現自己交往過的人可以進行如下分類:

  • 不喜歡的人
  • 魅力一般的人
  • 極具魅力的人

2、項目數據

 海倫收集約會數據已經有了一段時間,她把這些數據存放在文本文件datingTestSet.txt中,每個樣本數據佔據一行,總共有1000行。

datingTestSet.txt數據集下載

 海倫收集的樣本數據主要包含以下3種特徵:

  • 每年獲得的飛行常客里程數
  • 玩視頻遊戲所消耗時間百分比
  • 每週消費的冰淇淋公升數

 數據格式如下:

3、K-近鄰算法的一般流程

(1)收集數據:提供文本文件。

(2)準備數據:使用Python解析文本文件。

(3)分析數據:使用Matplotlib畫二維擴散圖。

(4)測試算法:使用文本文件的部分數據作爲測試樣本,計算錯誤率。

(5)使用算法:錯誤率在可接受範圍內,就可以運行k-近鄰算法進行分類。

4、項目步驟及代碼實現

#-*- coding:utf-8 -*-

import matplotlib.lines as mlines
import matplotlib.pyplot as plt
import numpy as np
import matplotlib as mpl
import operator

'''
#準備數據,從文本文件中解析數據
'''
def file2matrix(filename):
    #打開文件
    with open(filename,'r') as fr:
        # 讀取文件所有內容
        arrayOLines = fr.readlines()
        # 得到文件行數
        numberOfLines = len(arrayOLines)
        # 返回的NumPy矩陣,解析完成的數據:numberOfLines行,3列
        returnMat = np.zeros((numberOfLines, 3))
        # 返回的分類標籤向量
        classLabelVector = []
        # 行的索引值
        index = 0
        for line in arrayOLines:
            # s.strip(rm),當rm空時,默認刪除空白符(包括'\n','\r','\t',' ')
            line = line.strip()
            # 使用s.split(str="",num=string,cout(str))將字符串根據'\t'分隔符進行切片。
            listFromLine = line.split('\t')
            # 將數據前三列提取出來,存放到returnMat的NumPy矩陣中,也就是特徵矩陣
            returnMat[index, :] = listFromLine[0:3]
            # 根據文本中標記的喜歡的程度進行分類,1代表不喜歡,2代表魅力一般,3代表極具魅力
            if listFromLine[-1] == 'didntLike':
                classLabelVector.append(1)
            elif listFromLine[-1] == 'smallDoses':
                classLabelVector.append(2)
            elif listFromLine[-1] == 'largeDoses':
                classLabelVector.append(3)
            index += 1
    return returnMat, classLabelVector



'''
#分析數據,數據可視化,使用Matplotlib創建散點圖
'''
def showdatas(datingDataMat, datingLabels):
    #設置漢字格式
    # sans-serif就是無襯線字體,是一種通用字體族。
    # 常見的無襯線字體有 Trebuchet MS, Tahoma, Verdana, Arial, Helvetica, 中文的幼圓、隸書等等
    mpl.rcParams['font.sans-serif'] = ['SimHei']  # 指定默認字體 SimHei爲黑體
    mpl.rcParams['axes.unicode_minus'] = False  # 用來正常顯示負號
    #將fig畫布分隔成2行2列,不共享x軸和y軸,fig畫布的大小爲(13,8)
    #當nrow=2,nclos=2時,代表fig畫布被分爲四個區域,axs[0][0]表示第一行第一個區域
    fig, axs = plt.subplots(nrows=2, ncols=2,sharex=False, sharey=False, figsize=(13,9))

    LabelsColors = []
    for i in datingLabels:
        if i == 1:
            LabelsColors.append('black')
        if i == 2:
            LabelsColors.append('orange')
        if i == 3:
            LabelsColors.append('red')

    #畫出散點圖,以datingDataMat矩陣的第一(飛行常客例程)、第二列(玩遊戲)數據畫散點數據,散點大小爲15,透明度爲0.5
    axs[0][0].scatter(x=datingDataMat[:,0], y=datingDataMat[:,1], color=LabelsColors,s=15, alpha=.5)
    #設置標題,x軸label,y軸label
    axs0_title_text = axs[0][0].set_title('每年獲得的飛行常客里程數與玩視頻遊戲所消耗時間佔比')
    axs0_xlabel_text = axs[0][0].set_xlabel('每年獲得的飛行常客里程數')
    axs0_ylabel_text = axs[0][0].set_ylabel('玩視頻遊戲所消耗時間佔')
    plt.setp(axs0_title_text, size=12, weight='bold', color='red')
    plt.setp(axs0_xlabel_text, size=10, weight='bold', color='black')
    plt.setp(axs0_ylabel_text, size=10, weight='bold', color='black')

    #畫出散點圖,以datingDataMat矩陣的第一(飛行常客例程)、第三列(冰激凌)數據畫散點數據,散點大小爲15,透明度爲0.5
    axs[0][1].scatter(x=datingDataMat[:,0], y=datingDataMat[:,2], color=LabelsColors,s=15, alpha=.5)
    #設置標題,x軸label,y軸label
    axs1_title_text = axs[0][1].set_title('每年獲得的飛行常客里程數與每週消費的冰激淋公升數',)
    axs1_xlabel_text = axs[0][1].set_xlabel('每年獲得的飛行常客里程數')
    axs1_ylabel_text = axs[0][1].set_ylabel('每週消費的冰激淋公升數')
    plt.setp(axs1_title_text, size=12, weight='bold', color='red')
    plt.setp(axs1_xlabel_text, size=10, weight='bold', color='black')
    plt.setp(axs1_ylabel_text, size=10, weight='bold', color='black')

    #畫出散點圖,以datingDataMat矩陣的第二(玩遊戲)、第三列(冰激凌)數據畫散點數據,散點大小爲15,透明度爲0.5
    axs[1][0].scatter(x=datingDataMat[:,1], y=datingDataMat[:,2], color=LabelsColors,s=15, alpha=.5)
    #設置標題,x軸label,y軸label
    axs2_title_text = axs[1][0].set_title('玩視頻遊戲所消耗時間佔比與每週消費的冰激淋公升數')
    axs2_xlabel_text = axs[1][0].set_xlabel('玩視頻遊戲所消耗時間佔比')
    axs2_ylabel_text = axs[1][0].set_ylabel('每週消費的冰激淋公升數')
    plt.setp(axs2_title_text, size=12, weight='bold', color='red')
    plt.setp(axs2_xlabel_text, size=10, weight='bold', color='black')
    plt.setp(axs2_ylabel_text, size=10, weight='bold', color='black')

    #設置圖例
    didntLike = mlines.Line2D([], [], color='black', marker='.', markersize=6, label='不喜歡')
    smallDoses = mlines.Line2D([], [], color='orange', marker='.',markersize=6, label='魅力一般')
    largeDoses = mlines.Line2D([], [], color='red', marker='.',markersize=6, label='極具魅力')
    #添加圖例
    axs[0][0].legend(handles=[didntLike,smallDoses,largeDoses])
    axs[0][1].legend(handles=[didntLike,smallDoses,largeDoses])
    axs[1][0].legend(handles=[didntLike,smallDoses,largeDoses])
    #顯示圖片
    plt.show()



'''
#準備數據,數據歸一化處理
'''
def autoNorm(dataSet):
    #獲得每列數據的最小值和最大值
    minVals = dataSet.min(0)
    maxVals = dataSet.max(0)
    #最大值和最小值的範圍
    ranges = maxVals - minVals
    #shape(dataSet)返回dataSet的矩陣行列數
    #normDataSet = np.zeros(np.shape(dataSet))
    #返回dataSet的行數
    m = dataSet.shape[0]
    #原始值減去最小值
    normDataSet = dataSet - np.tile(minVals, (m, 1))
    #除以最大和最小值的差,得到歸一化數據
    normDataSet = normDataSet / np.tile(ranges, (m, 1))
    #返回歸一化數據結果,數據範圍,最小值
    return normDataSet, ranges, minVals



'''
KNN算法分類器 
#  inX - 用於分類的數據(測試集)
#  dataSet - 用於訓練的數據(訓練集)
#  labes - 訓練數據的分類標籤
#  k - kNN算法參數,選擇距離最小的k個點
#  sortedClassCount[0][0] - 分類結果
'''
def classify0(inX, dataSet, labels, k):
    #numpy函數shape[0]返回dataSet的行數
    dataSetSize = dataSet.shape[0]
    #在列向量方向上重複inX共1次(橫向),行向量方向上重複inX共dataSetSize次(縱向)
    diffMat = np.tile(inX, (dataSetSize, 1)) - dataSet
    #二維特徵相減後平方
    sqDiffMat = diffMat**2
    #sum()所有元素相加,sum(0)列相加,sum(1)行相加
    sqDistances = sqDiffMat.sum(axis=1)
    #開方,計算出距離
    distances = sqDistances**0.5
    #返回distances中元素從小到大排序後的索引值
    sortedDistIndices = distances.argsort()
    #定一個記錄類別次數的字典
    classCount = {}
    for i in range(k):
        #取出前k個元素的類別
        voteIlabel = labels[sortedDistIndices[i]]
        #dict.get(key,default=None),字典的get()方法,返回指定鍵的值,如果值不在字典中返回默認值。
        #計算類別次數
        classCount[voteIlabel] = classCount.get(voteIlabel,0) + 1
    #python3中用items()替換python2中的iteritems()
    #key=operator.itemgetter(1)根據字典的值進行排序
    #key=operator.itemgetter(0)根據字典的鍵進行排序
    #reverse降序排序字典
    sortedClassCount = sorted(classCount.items(),key=operator.itemgetter(1),reverse=True)
    #返回次數最多的類別,即所要分類的類別
    return sortedClassCount[0][0]



'''
#測試算法,計算分類器的準確率,驗證分類器
'''
def datingClassTest():
    #打開的文件名
    filename = "datingTestSet.txt"
    #將返回的特徵矩陣和分類向量分別存儲到datingDataMat和datingLabels中
    datingDataMat, datingLabels = file2matrix(filename)
    #取所有數據的百分之十
    hoRatio = 0.10
    #數據歸一化,返回歸一化後的矩陣,數據範圍,數據最小值
    normMat, ranges, minVals = autoNorm(datingDataMat)
    #獲得normMat的行數
    m = normMat.shape[0]
    #百分之十的測試數據的個數
    numTestVecs = int(m * hoRatio)
    #分類錯誤計數
    errorCount = 0.0

    for i in range(numTestVecs):
        #前numTestVecs個數據作爲測試集,後m-numTestVecs個數據作爲訓練集
        classifierResult = classify0(normMat[i,:], normMat[numTestVecs:m,:],datingLabels[numTestVecs:m], 4)
        print("分類結果:%d\t真實類別:%d" % (classifierResult, datingLabels[i]))
        if classifierResult != datingLabels[i]:
            errorCount += 1.0
    print("錯誤率:%f%%" %(errorCount/float(numTestVecs)*100))



'''
#使用算法,構建完整可用系統
'''
def classifyPerson():
    #輸出結果
    resultList = ['不喜歡','有些喜歡','非常喜歡']
    #三維特徵用戶輸入
    ffMiles = float(input("每年獲得的飛行常客里程數:"))
    precentTats = float(input("玩視頻遊戲所耗時間百分比:"))
    iceCream = float(input("每週消費的冰激淋公升數:"))
    #打開的文件名
    filename = "datingTestSet.txt"
    #打開並處理數 據
    datingDataMat, datingLabels = file2matrix(filename)
    #訓練集歸一化
    normMat, ranges, minVals = autoNorm(datingDataMat)
    #生成NumPy數組,測試集
    inArr = np.array([ffMiles,precentTats, iceCream])
    #測試集歸一化
    norminArr = (inArr - minVals) / ranges
    #返回分類結果
    classifierResult = classify0(norminArr, normMat, datingLabels, 3)
    #打印結果
    print("你可能%s這個人" % (resultList[classifierResult-1]))



'''
#主函數,測試以上各個步驟,並輸出各個步驟的結果
'''
if __name__ == '__main__':
    #打開的文件名
    filename = "datingTestSet.txt"
    #打開並處理數據
    datingDataMat, datingLabels = file2matrix(filename)
    #數據可視化
    showdatas(datingDataMat, datingLabels)
    #驗證分類器
    datingClassTest()
    #使用分類器
    classifyPerson()

(建議看懂之後直接複製,避免敲錯會出現亂七八糟的問題)

5、項目結果

(1)數據可視化結果

(2)驗證分類器計算錯誤率結果

(3)使用分類器根據輸入數據獲得預測結果

輸入數字,回車,即可得到結果。

 

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章