[j] = codebook[labels[label_idx]] label_idx += 1return image# Display all results, alongside original imageplt.figure(1)plt.clf()ax = plt.axes([0, 0, 1, 1])plt.axis('off')plt.title('Original image (96,615 colors)')plt.imshow(pepper)plt.figure(2, figsize=(10,10))plt.clf()i = 1for k in [64, 32, 16, 4]: t0 = time() plt.subplot(2,2,i) plt.axis('off') image_array_sample = shuffle(image_array, random_state=0)[:1000] kmeans = KMeans(n_clusters=k, random_state=0).fit(image_array_sample) print("done in %0.3fs." % (time() - t0)) # Get labels for all points print("Predicting color indices on the full image (k-means)") t0 = time() labels = kmeans.predict(image_array) print("done in %0.3fs." % (time() - t0)) plt.title('Quantized image (' + str(k) + ' colors, K-Means)') plt.imshow(recreate_image(kmeans.cluster_centers_, labels, w, h)) i += 1plt.show()plt.figure(3, figsize=(10,10))plt.clf()i = 1for k in [64, 32, 16, 4]: t0 = time() plt.subplot(2,2,i) plt.axis('off') codebook_random = shuffle(image_array, random_state=0)[:k + 1] print("Predicting color indices on the full image (random)") t0 = time() labels_random = pairwise_distances_argmin(codebook_random,image_array,axis=0) print("done in %0.3fs." % (time() - t0)) plt.title('Quantized image (' + str(k) + ' colors, Random)') plt.imshow(recreate_image(codebook_random, labels_random, w, h)) i += 1plt.show()运转上述代码,输入结果如图9-2所示。可以看到,在保留的图像质量方面,k均值聚类算法对于颜色量化的效果总是比运用随机码本要好。
[attach]505276[/attach]
[attach]505277[/attach]
图9-2 运用k均值聚类算法停止辣椒图像分割与颜色量化
9.2.2 由于图像分割的谱聚类算法
本节将演示如何将谱聚类技术用于图像分割。在这些设置中,谱聚类方法处理了称为归一化图割的成绩——图像被看作一个连通像素的图,谱聚类算法的本质是选择定义区域的图切分,同时最小化沿着切分的梯度与区域体积的比值。来自scikit-learn聚类模块的SpectralClustering()将用于将图像分割为前景和背景。
将运用谱聚类算法得到的图像分割结果与运用k均值聚类得到的二值分割结果停止对比,如下面的代码所示:
from sklearn import clusterfrom skimage.io import imreadfrom skimage.color import rgb2grayfrom scipy.misc import imresizeimport matplotlib.pylab as pylabim = imresize(imread('../images/me14.jpg'), (100,100,3))img = rgb2gray(im)k = 2 # binary segmentation, with 2 output clusters / segmentsX = np.reshape(im, (-1, im.shape[-1]))two_means = cluster.MiniBatchKMeans(n_clusters=k, random_state=10)two_means.fit(X)y_pred = two_means.predict(X)labels = np.reshape(y_pred, im.shape[:2])pylab.figure(figsize=(20,20))pylab.subplot(221), pylab.imshow(np.reshape(y_pred, im.shape[:2])),pylab.title('k-means segmentation (k=2)', size=30)pylab.subplot(222), pylab.imshow(im), pylab.contour(labels == 0,contours=1, colors='red'), pylab.axis('off')pylab.title('k-means contour (k=2)', size=30)spectral = cluster.SpectralClustering(n_clusters=k, eigen_solver='arpack',affinity="nearest_neighbors", n_neighbors=100, random_state=10)spectral.fit(X)y_pred = spectral.labels_.astype(np.int)labels = np.reshape(y_pred, im.shape[:2])pylab.subplot(223), pylab.imshow(np.reshape(y_pred, im.shape[:2])),pylab.title('spectral segmentation (k=2)', size=30)pylab.subplot(224), pylab.imshow(im), pylab.contour(labels == 0,contours=1, colors='red'), pylab.axis('off'), pylab.title('spectral contour(k=2)', size=30), pylab.tight_layout()pylab.show()运转上述代码,输入结果如图9-3所示。可以看到,谱聚类算法相比k均值聚类算法对图像的分割效果更好。
[attach]505278[/attach]
图9-3 运用谱聚类与k均值聚类算法得到的图像分割结果对比
9.2.3 PCA与特征脸
主成分分析(PCA)是一种统计/非监督机器学习方法,它运用一个正交变换将一组观测能够相关的变量转化为一组线性不相关的变量的值,从而在数据集中发现最大方向的方差(沿着次要成分)。
这可以用于(线性)降维(只要几个突出的主成分在大多数状况下捕获数据集中的几乎一切方差)和具有多个维度的数据集的可视化(在二维空间中)。PCA的一个运用是特征面,找到一组可以(从实际上)表示恣意面(作为这些特征面的线性组合)的特征面。
1.用PCA降维及可视化
在本节中,我们将运用scikit-learn的数字数据集,其中包含1797张手写数字的图像(每张图像的大小为8×8像素)。每一行表示数据矩阵中的一幅图像。用下面的代码加载并显示数据集中的前25位数字:
import numpy as npimport matplotlib.pylab as pltfrom sklearn.datasets import load_digitsfrom sklearn.preprocessing import StandardScalerfrom sklearn.decomposition import PCAfrom sklearn.pipeline import Pipelinedigits = load_digits()#print(digits.keys())print(digits.data.shape)j = 1np.random.seed(1)fig = plt.figure(figsize=(3,3))fig.subplots_adjust(left=0, right=1, bottom=0, top=1, hspace=0.05,wspace=0.05)for i in np.random.choice(digits.data.shape[0], 25): plt.subplot(5,5,j), plt.imshow(np.reshape(digits.data[i,:], (8,8)),cmap='binary'), plt.axis('off') j += 1plt.show()运转上述代码,输入数据集中的前25位手写数字,如图9-4所示。
[attach]505279[/attach]
图9-4 数据集中的前25个数字
二维投影与可视化。从加载的数据集可以看出,它是一个64维的数据集。如今,首先应用scikit-learn的PCA()函数来找到这个数据集的两个次要成分并将数据集沿着两个维度停止投影;其次应用Matplotlib和表示图像(数字)的每个数据点,对投影数据停止散点绘图,数字标签用一种独特的颜色表示,如下面的代码所示:
pca_digits=PCA(2)digits.data_proj = pca_digits.fit_transform(digits.data)print(np.sum(pca_digits.explained_variance_ratio_))# 0.28509364823696987plt.figure(figsize=(15,10))plt.scatter(digits.data_proj[:, 0], digits.data_proj[:, 1], lw=0.25,c=digits.target, edgecolor='k', s=100, cmap=plt.cm.get_cmap('cubehelix',10))plt.xlabel('PC1', size=20), plt.ylabel('PC2', size=20), plt.title('2DProjection of handwritten digits with PCA', size=25)plt.colorbar(ticks=range(10), label='digit value')plt.clim(-0.5, 9.5)运转上述代码,输入结果如图9-5所示。可以看到,在沿PC1和PC2两个方向的二维投影中,数字有某种程度的分离(虽然有些堆叠),而相反的数字值则出如今集群附近。
[attach]505280[/attach]
图9-5 应用PCA停止手写数字的二维投影的颜色分布图
2.基于PCA的特征脸
加载scikit-learn包的olivetti人脸数据集,其中包含400张人脸图像,每张图像的大小为64×64像素。如下代码显示了数据集中的一些随机面孔:
from sklearn.datasets import fetch_olivetti_facesfaces = fetch_olivetti_faces().dataprint(faces.shape) # there are 400 faces each of them is of 64x64=4096 pixelsfig = plt.figure(figsize=(5,5))fig.subplots_adjust(left=0, right=1, bottom=0, top=1, hspace=0.05, wspace=0.05)# plot 25 random facesj = 1np.random.seed(0)for i in np.random.choice(range(faces.shape[0]), 25): ax = fig.add_subplot(5, 5, j, xticks=[], yticks=[]) ax.imshow(np.reshape(faces[i,:],(64,64)), cmap=plt.cm.bone,interpolation='nearest') j += 1plt.show()运转上述代码,输入从数据集中随机选取的25张人脸图像,如图9-6所示。
[attach]505281[/attach]
图9-6 从数据集中随机选取的人脸图像
接上去,对数据集停止预处理,在对图像运用PCA之前先执行z分数归一化(从一切人脸中减去平均人脸,然后除以标准差),这是必要的步骤;然后,运用PCA()计算主成分,只选取64个(而不是4096个)主成分,并将数据集投射到PC方向上,如下面的代码所示,并经过选择越来越多的主成分来可视化图像数据集的方差。
from sklearn.preprocessing import StandardScalerfrom sklearn.decomposition import PCAfrom sklearn.pipeline import Pipelinen_comp =64pipeline = Pipeline([('scaling', StandardScaler()), ('pca',PCA(n_components=n_comp))])faces_proj = pipeline.fit_transform(faces)print(faces_proj.shape)# (400, 64)mean_face = np.reshape(pipeline.named_steps['scaling'].mean_, (64,64))sd_face = np.reshape(np.sqrt(pipeline.named_steps['scaling'].var_),(64,64))pylab.figure(figsize=(8, 6))pylab.plot(np.cumsum(pipeline.named_steps['pca'].explained_variance_ratio_), linewidth=2)pylab.grid(), pylab.axis('tight'), pylab.xlabel('n_components'),pylab.ylabel('cumulative explained_variance_ratio_')pylab.show()pylab.figure(figsize=(10,5))pylab.subplot(121), pylab.imshow(mean_face, cmap=pylab.cm.bone),pylab.axis('off'), pylab.title('Mean face')pylab.subplot(122), pylab.imshow(sd_face, cmap=pylab.cm.bone),pylab.axis('off'), pylab.title('SD face')pylab.show()运转上述代码,输入结果如图9-7所示。可以看到,大约90%的方差仅由前64个主成分所主导。
[attach]505282[/attach]
图9-7 64个主成分的累积方差占比
从数据集中计算得到的人脸图像的均值和标准差如图9-8所示。
[attach]505283[/attach]
图9-8 人脸图像数据集的均值与标准差图像
(1)特征脸。在主成分分析的基础上,计算得到的两PC方向互相正交,每个PC包含4096个像素,并且可以重构成大小的64×64像素的图像。称这些主成分为特征脸(由于它们也是特征向量)。
可以看出,特征脸代表了人脸的某些属性。如下代码用于显示一些计算出来的特征脸:
fig = plt.figure(figsize=(5,2))fig.subplots_adjust(left=0, right=1, bottom=0, top=1, hspace=0.05,wspace=0.05)# plot the first 10 eigenfacesfor i in range(10): ax = fig.add_subplot(2, 5, i+1, xticks=[], yticks=[]) ax.imshow(np.reshape(pipeline.named_steps['pca'].components_[i,:], (64,64)), cmap=plt.cm.bone, interpolation='nearest')运转上述代码,输入前10张特征脸,如图9-9所示。
[attach]505284[/attach]
图9-9 主成分重构的前10张特征脸
(2)重建。如下代码演示了如何将每张人脸近似地表示成这64张次要特征脸的线性组合。运用scikit-learn中的inverse_transform()函数变换回到原空间,但是只基于这64张主特征脸,而丢弃一切其他特征脸。
# face reconstructionfaces_inv_proj = pipeline.named_steps['pca'].inverse_transform(faces_proj)#reshaping as 400 images of 64x64 dimensionfig = plt.figure(figsize=(5,5))fig.subplots_adjust(left=0, right=1, bottom=0, top=1, hspace=0.05,wspace=0.05)# plot the faces, each image is 64 by 64 dimension but 8x8 pixelsj = 1np.random.seed(0)for i in np.random.choice(range(faces.shape[0]), 25): ax = fig.add_subplot(5, 5, j, xticks=[], yticks=[]) ax.imshow(mean_face + sd_face*np.reshape(faces_inv_proj,(400,64,64)) [i,:], cmap=plt.cm.bone, interpolation='nearest') j += 1运转上述代码,从64张特征人脸中随机选择25张重建的人脸图像,如图9-10所示。可以看到,它们看起来很像原始的人脸(没有很多分明的错误)。
[attach]505285[/attach]
图9-10 由特征人脸重建的人脸图像
如下代码有助于更近间隔地观察原始人脸,并将其与重建后的人脸停止对比:如下代码的输入结果如图9-11所示。可以看到,重构后的人脸与原始人脸近似,但存在某种程度的失真。
orig_face = np.reshape(faces[0,:], (64,64))reconst_face =np.reshape(faces_proj[0,:]@pipeline.named_steps['pca'].components_,(64,64))reconst_face = mean_face + sd_face*reconst_faceplt.figure(figsize=(10,5))plt.subplot(121), plt.imshow(orig_face, cmap=plt.cm.bone,interpolation='nearest'), plt.axis('off'), plt.title('original', size=20)plt.subplot(122), plt.imshow(reconst_face, cmap=plt.cm.bone,interpolation='nearest'), plt.axis('off'), plt.title('reconstructed',size=20)plt.show()
[attach]505286[/attach]
图9-11 重建后的人脸图像与原始人脸图像对比
(3)特征分解。每张人脸都可以表示为64张特征脸的线性组合。每张特征脸对于不同的人脸图像有不同的权重(负载)。图9-12显示了如何用特征脸表示人脸,并显示了前几个相应的权重。其实古代码留给读者作为练习。
[attach]505287[/attach]
图9-12 由特征脸停止线性组合,重建人脸图像
9.3 监督机器学习——图像分类
在本节中,我们将讨论图像分类成绩。运用的输入数据集是MNIST,这是机器学习中的一个经典数据集,由28像素×28像素的手写数字的灰度图像组成。
原始训练数据集包含60000个样本(手写数字图像和标签,用于训练机器学习模型),测试数据集包含10000个样本(手写数字图像和标签作为基本理想,用于测试所学习模型的准确性)。给定一组手写数字和图像及其标签(0~9),目的是学习一种机器学习模型,该模型可以自动辨认不可见图像中的数字,并为图像分配一个标签(0~9)。详细步骤如下。
(1)首先,运用训练数据集训练一些监督机器学习(多类分类)模型(分类器)。
(2)其次,它们将用于预测来自测试数据集的图像的标签。
(3)然后将预测的标签与基本真值标签停止比较,以评价分类器的功能。
训练、预测和评价基本分类模型的步骤如图9-13所示。当在训练数据集上训练更多不同的模型(能够是运用不同的算法,或者运用相反的算法但算法具有不同的超参数值)时,为了选择最好的模型,需求第三个数据集,也就是验证数据集(训练数据集分为两部分,一个用于训练,另一个待验证),用于模型选择和超参调优。
[attach]505288[/attach]
图9-14 监督机器学习图像分类的流程
异样,先导入所需的库,如下面的代码所示:
%matplotlib inlineimport gzip, os, sysimport numpy as npfrom scipy.stats import multivariate_normalfrom urllib.request import urlretrieveimport matplotlib.pyplot as pylab9.3.1 下载MNIST(手写数字)数据集
从下载MNIST数据集末尾。如下代码展现了如何下载训练数据集和测试数据集:
# Function that downloads a specified MNIST data file from Yann Le Cun's websitedef download(filename, source='http://yann.lecun.com/exdb/mnist/'): print("Downloading %s" % filename) urlretrieve(source + filename, filename)# Invokes download() if necessary, then reads in imagesdef load_mnist_images(filename): if not os.path.exists(filename): download(filename) with gzip.open(filename, 'rb') as f: data = np.frombuffer(f.read(), np.uint8, offset=16) data = data.reshape(-1,784) return datadef load_mnist_labels(filename): if not os.path.exists(filename): download(filename) with gzip.open(filename, 'rb') as f: data = np.frombuffer(f.read(), np.uint8, offset=8) return data## Load the training settrain_data = load_mnist_images('train-images-idx3-ubyte.gz')train_labels = load_mnist_labels('train-labels-idx1-ubyte.gz')## Load the testing settest_data = load_mnist_images('t10k-images-idx3-ubyte.gz')test_labels = load_mnist_labels('t10k-labels-idx1-ubyte.gz')print(train_data.shape)# (60000, 784) ## 60k 28x28 handwritten digitsprint(test_data.shape)# (10000, 784) ## 10k 2bx28 handwritten digits9.3.2 可视化数据集
每个数据点存储为784维向量。为了可视化一个数据点,需求将其重塑为一个28像素×28像素的图像。如下代码展现了如何显示测试数据集中的手写数字:
## Define a function that displays a digit given its vector representationdef show_digit(x, label): pylab.axis('off') pylab.imshow(x.reshape((28,28)), cmap=pylab.cm.gray) pylab.title('Label ' + str(label))pylab.figure(figsize=(10,10))for i in range(25): pylab.subplot(5, 5, i+1) show_digit(test_data[i,], test_labels)pylab.tight_layout()pylab.show()图9-14所示的是来自测试数据集的前25个手写数字及其真相 (true)标签。在训练数据集上训练的KNN分类器对这个未知的测试数据集的标签停止预测,并将预测的标签与真相标签停止比较,以评价分类器的准确性。
[attach]505289[/attach]
图9-14 测试数据集的前25个手写数字及其真相标签
9.3.3 经过训练KNN、高斯贝叶斯和SVM模型对MNIST数据集分类
用scikit-learn库函数完成以下分类器:K最近邻分类算法、高斯贝叶斯分类器(生成模型)、支持向量机分类器。
从K最近邻分类器末尾引见。
1.K最近邻分类器
本节将构建一个分类器,该分类器用于接收手写数字的图像,并运用一种称为最近邻分类器的特别简单的策略输入标签(0~9)。预测看不见的测试数字图像的方法是非常简单的。首先,只需求从训练数据集中找到离测试图像最近的k个实例;其次,只需求简单地运用多数投票来计算测试图像的标签,也就是说,来自k个最近的训练数据点的大部分数据点的标签将被分配给测试图像(恣意断开衔接)。
(1)欧氏间隔平方。欲计算数据集中的最近邻,必须计算数据点之间的间隔。自然间隔函数是欧氏间隔,对于两个向量x, y∈Rd,其欧氏间隔定义为:
[attach]505290[/attach]
通常省略平方根,只计算欧氏间隔的平方。对于最近邻计算,这两个是等价的:对于3个向量x, y, z∈Rd,当且仅当||x−y||2≤||x−z||2时,才有||x−y||≤||x−z||成立。因此,如今只需求计算欧氏间隔的平方。
(2)计算最近邻。k最近邻的一个简单完成就是扫描每个测试图像的每个训练图像。以这种方式实施的最近邻分类需求遍历训练集才能对单个点停止分类。假如在Rd中有N个训练点,工夫花费将为O(Nd),这是非常缓慢的。侥幸的是,假如情愿花一些工夫对训练集停止预处理,就有更快的方法来执行最近邻查找。scikit-learn库有两个有用的最近邻数据结构的疾速完成:球树和k-d树。如下代码展现了如何在训练时创建一个球树数据结构,然后在测试1−NN(k=1)时将其用于疾速最近邻计算:
import timefrom sklearn.neighbors import BallTree## Build nearest neighbor structure on training datat_before = time.time()ball_tree = BallTree(train_data)t_after = time.time()## Compute training timet_training = t_after - t_beforeprint("Time to build data structure (seconds): ", t_training)## Get nearest neighbor predictions on testing datat_before = time.time()test_neighbors = np.squeeze(ball_tree.query(test_data, k=1,return_distance=False))test_predictions = train_labels[test_neighbors]t_after = time.time()## Compute testing timet_testing = t_after - t_beforeprint("Time to classify test set (seconds): ", t_testing)# Time to build data structure (seconds): 20.65474772453308# Time to classify test set (seconds): 532.3929145336151(3)评价分类器的功能。接上去将评价分类器在测试数据集上的功能。如下代码展现了如何完成这一点:
# evaluate the classifiert_accuracy = sum(test_predictions == test_labels) / float(len(test_labels))t_accuracy# 0.96909999999999996import pandas as pdimport seaborn as snfrom sklearn import metricscm = metrics.confusion_matrix(test_labels,test_predictions)df_cm = pd.DataFrame(cm, range(10), range(10))sn.set(font_scale=1.2)#for label sizesn.heatmap(df_cm, annot=True,annot_kws={"size": 16}, fmt="g")运转上述代码,输入混淆矩阵,如图9-15所示。可以看到,虽然训练数据集的全体准确率达到96.9%,但仍存在一些错误分类的测试图像。
[attach]505291[/attach]
图9-15 混淆矩阵
图9-16中,当1-NN预测标签和,True标签均为0时,预测成功;当1-NN预测标签为2,True标签为3时,预测失败。
[attach]505292[/attach]
图9-16 预测数字成功与失败的情形
其中预测数字成功和失败情形的代码留给读者作为练习。
2.贝叶斯分类器(高斯生成模型)
正如我们在上一大节所看到的,1-NN分类器对手写数字MNIST数据集的测试错误率为3.09%。如今,我们将构建一个高斯生成模型,使其几乎可以达到异样的效果,但分明更快、更紧凑。异样,必须像上次一样首先加载MNIST训练数据集和测试数据集,然后将高斯生成模型拟合到训练数据集中。
(1)训练生成模型——计算高斯参数的最大似然估计。下面定义了一个函数fit_generative_model(),它接收一个训练集(x数据和y标签)作为输入,并将高斯生成模型与之婚配。对于每个标签j = 0,1,…,9,前往以下几种生成模型的参数。
πj:标签的频率(即优先的);μj:784维平均向量;∑j:784×784协方差矩阵。这意味着π是10×1、μ是10×784、∑是10×784×784的矩阵。最大似然估计(Maximum Likelihood Estimates,MLE)为阅历估计,如图9-17所示。
[attach]505293[/attach]
图9-17 最大似然估计
阅历协方差很能够是奇特的(或接近奇特),这意味着不能用它们来计算,因此对这些矩阵停止正则化是很重要的。这样做的标准方法是加上c*I,其中c是一个常数,I是784维单位矩阵(换言之,先计算阅历协方差,然后将它们的对角元素添加某个常数c)。
对于任何c > 0,无论c多么小,这样修正可以确保产生非奇特的协方差矩阵。如今c成为一个(正则化)参数,经过适当地设置它,可以提高模型的功能。为此,应该选择一个好的c值。但是至关重要的是需求单独运用训练集来完成,经过将部分训练集作为验证集,或者运用某种交叉验证。这将作为练习留给读者完成。特别地,display_char()函数将用于可视化前3位数字的高斯均值,如下面的代码所示:
def display_char(image): plt.imshow(np.reshape(image, (28,28)), cmap=plt.cm.gray) plt.axis('off'),plt.show()def fit_generative_model(x,y): k = 10 # labels 0,1,...,k-1 d = (x.shape)[1] # number of features mu = np.zeros((k,d)) sigma = np.zeros((k,d,d)) pi = np.zeros(k) c = 3500 #10000 #1000 #100 #10 #0.1 #1e9 for label in range(k): indices = (y == label) pi[label] = sum(indices) / float(len(y)) mu[label] = np.mean(x[indices,:], axis=0) sigma[label] = np.cov(x[indices,:], rowvar=0, bias=1) + c*np.eye(d)return mu, sigma, pimu, sigma, pi = fit_generative_model(train_data, train_labels)display_char(mu[0])display_char(mu[1])display_char(mu[2])运转上述代码,输入前3位数字的平均值的最大似然估计,如图9-18所示。
[attach]505294[/attach]
图9-18 前3位数字的平均值的最大似然估计
(2)计算后验概率,以对实验数据停止预测和模型评价。为了预测新图像的标签x,需求找到标签j,其后验概率Pr(y = j|x)最大。可以用贝叶斯规则计算,如图9-19所示。
[attach]505295[/attach]
图9-19 贝叶斯计算规则
如下代码展现了如何运用生成模型预测测试数据集的标签,以及如何计算模型在测试数据集上产生错误的数量。可以看出,测试数据集的准确率为95.6%,略低于1-NN分类器。
# Compute log Pr(label|image) for each [test image,label] pair.k = 10score = np.zeros((len(test_labels),k))for label in range(0,k): rv = multivariate_normal(mean=mu[label], cov=sigma[label]) for i in range(0,len(test_labels)): score[i,label] = np.log(pi[label]) + rv.logpdf(test_data[i,:])test_predictions = np.argmax(score, axis=1)# Finally, tally up scoreerrors = np.sum(test_predictions != test_labels)print("The generative model makes " + str(errors) + " errors out of 10000")# The generative model makes 438 errors out of 10000t_accuracy = sum(test_predictions == test_labels) / float(len(test_labels)t_accuracy# 0.956200000000000053.SVM分类器
本节将运用MNIST训练数据集训练(多类)支持向量机(SVM)分类器,然后用它预测来自MNIST测试数据集的图像的标签。
支持向量机是一种非常复杂的二值分类器,它运用二次规划来最大化分离超平面之间的边界。应用1︰全部或1︰1技术,将二值SVM分类器扩展四处理多类分类成绩。运用scikit-learn的完成SVC(),它具有多项式核(二次),应用训练数据集来拟合(训练)软边缘(核化)SVM分类器,然后用score()函数预测测试图像的标签。
如下代码展现了如何运用MNIST数据集训练、预测和评价SVM分类器。可以看到,运用该分类器在测试数据集上所得到的准确率提高到了98%。
from sklearn.svm import SVCclf = SVC(C=1, kernel='poly', degree=2)clf.fit(train_data,train_labels)print(clf.score(test_data,test_labels))# 0.9806test_predictions = clf.predict(test_data)cm = metrics.confusion_matrix(test_labels,test_predictions)df_cm = pd.DataFrame(cm, range(10), range(10))sn.set(font_scale=1.2)sn.heatmap(df_cm, annot=True,annot_kws={"size": 16}, fmt="g")运转上述代码,输入混淆矩阵,如图9-20所示。
[attach]505296[/attach]
图9-20 混淆矩阵
接上去,找到SVM分类器预测错误标签的测试图像(与真实标签不同)。
如下代码展现了如何找到这样一幅图像,并将其与预测的和真实的标签一同显示:
wrong_indices = test_predictions != test_labelswrong_digits, wrong_preds, correct_labs = test_data[wrong_indices],test_predictions[wrong_indices], test_labels[wrong_indices]print(len(wrong_pred))# 194pylab.title('predicted: ' + str(wrong_preds[1]) +', actual: ' +str(correct_labs[1]))display_char(wrong_digits[1])运转上述代码,输入结果如图9-21所示。可以看到,测试图像具有真实的标签2,但图像看起来却更像7,因此SVM预测为7。
[attach]505297[/attach]
图9-21 预测为7而实践为2的情形
本文摘自《Python图像处理实战》
[attach]505298[/attach]
本书引见如何用盛行的Python 图像处理库、机器学习库和深度学习库处理图像处理成绩。先引见经典的图像处理技术,然后探求图像处理算法的演化历程,一直紧扣图像处理以及计算机视觉与深度学习方面的**停顿。全书共12 章,涵盖图像处理入门基础知识、运用导数方法完成图像加强、形状学图像处理、图像特征提取与描画符、图像分割,以及图像处理中的经典机器学习方法等内容。
本书合适Python 工程师和相关研讨人员阅读,也合适对计算机视觉、图像处理、机器学习和深度学习感兴味的软件工程师参考。
作者: 大朋友 时间: 2021-1-24 15:44
分享了
作者: 劳追居何 时间: 2021-1-25 16:44
在撸一遍。。。
作者: wyydeai 时间: 2021-1-26 14:52
支持支持再支持
作者: 光棍可乐 时间: 2021-1-27 09:47
占位编辑
作者: nihaota 时间: 2022-6-7 11:24
本帖最后由 nihaota 于 2022-6-7 11:28 编辑
好顶好顶好顶好顶好顶好顶好顶
欢迎光临 智客公社 (http://bbs.cnaiplus.com/) |
Powered by Discuz! X3.4 |