python机器学习基础教程:鸢尾花分类

import numpy as np 
import matplotlib.pyplot as plt 
import pandas as pd 
import mglearn
from sklearn.datasets import load_iris
iris_dataset = load_iris()

load_iris 返回的 iris 对象是一个Bunch对象,与字典非常相似,里面包含键和值.

这个类直接继承dict类,所以我们可以自然而然地获得dict类地大量功能,比如对键/值的遍历,或者简单查询一个属性是否存在。

Bunch结构构建方法(应该是在sklearn包里):

class Bunch(dict):
    
    def __init__(self, *args, **kwds):
        super().__init__(*args, **kwds)
        self.__dict__ = self

*参数,可以使函数接受任意数量的位置参数

def avg(first, *rest): 
return (first + sum(rest)) / (1 + len(rest))
# Sample use 
avg(1, 2) # 1.5 
avg(1, 2, 3, 4) # 2.5

**参数,使函数接受任意数量的关键字参数

def make_element(name, value, **attrs): 
....
make_element('item', 'Albatross', size='large', quantity=6)

例子:

x = Bunch(a='1',b='2',c='3')
print(x.a)
print(x.b)
print(x.c)
输出:
1
2
3
T = Bunch
t = T(left = T(left='a',right='b'),right = T(left='c'))
print(t.left)
print(t.left.right)
print(t['left']['right'])
print('left' in t.right)
print('right' in t.right)
输出:
{'left': 'a', 'right': 'b'}
b
b
True
False
print('Keys of iris_dataset: \n{}'.format(iris_dataset.keys()))
输出:
Keys of iris_dataset: 
dict_keys(['data', 'target', 'target_names', 'DESCR', 'feature_names', 'filename'])

target_names 键对应的值是一个字符串数组,里面包含我们要预测的花的品种:

print('Target names: {}'.format(iris_dataset['target_names']))
输出:
Target names: ['setosa' 'versicolor' 'virginica']

feature_names 键对应的值是一个字符串列表,对每一个特征进行了说明:

print('Feature names: \n{}'.format(iris_dataset['feature_names']))
输出:
Feature names: 
['sepal length (cm)', 'sepal width (cm)', 'petal length (cm)', 'petal width (cm)']

数据包含在 target 和 data 字段中。data里面是花萼长度、花萼宽度、花瓣长度、花瓣宽 度的测量数据,格式为 NumPy 数组。

data数组的每一行对应一朵花,列代表每朵花的四个测量数据

shape函数可以查看矩阵或数组的维数,(150,4)指的是是一个150行,4列的数组:

print('Type of data: {}'.format(type(iris_dataset['data'])))
print('Shape of data: {}'.format(iris_dataset['data'].shape))
输出:
Type of data: <class 'numpy.ndarray'>
Shape of data: (150, 4)

前 5 个样 本的特征数值:

print('First five rows of data:\n{}'.format(iris_dataset['data'][:5]))
输出:
First five rows of data:
[[5.1 3.5 1.4 0.2]
 [4.9 3.  1.4 0.2]
 [4.7 3.2 1.3 0.2]
 [4.6 3.1 1.5 0.2]
 [5.  3.6 1.4 0.2]]

机器学习中的个体叫作样本(sample),其属性叫作特征(feature)。

data 数组的形状(shape)是样本数乘以特征数。

target 数组包含的是测量过的每朵花的品种,也是一个 NumPy 数组。target 是一维数组,每朵花对应其中一个数据。数字的代表含义由 iris_dataset['target_names']
数组给出 0 代表 setosa,1 代表 versicolor,2 代表 virginica:

print('Type of target:{}'.format(type(iris_dataset['target'])))
print('Shape of target: {}'.format(iris_dataset['target'].shape))
print('Target:\n{}'.format(iris_dataset['target']))
输出:
Type of target:<class 'numpy.ndarray'>
Shape of target: (150,)
Target:
[0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2 2 2 2
 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2
 2 2]
scikit-learn 中的 train_test_split

函数可以打乱数据集并进行拆分。

scikit-learn 中的数据通常用大写的 X 表示,而标签用小写的 y 表示。

在对数据进行拆分之前, train_test_split

函数利用伪随机数生成器将数据集打乱

为了确保多次运行同一函数能够得到相同的输出,利用random_state参数指定了随机数生成器的种子。

这样函数输出就是固定不变的,所以这行代码的输出始终相同。

from sklearn.model_selection import train_test_split
X_train,X_test,y_train,y_test = train_test_split(
    iris_dataset['data'], iris_dataset['target'],random_state=0)

train_test_split
函数的输出为 X_train
X_test
y_train
y_test
,它们都是NumPy数组。 X_train
包含 75% 的行数据, X_test
包含剩下的25%:

print('X_train shape: {}'.format(X_train.shape))
print('y_train shape: {}'.format(y_train.shape))
print('X_test shape: {}'.format(X_test.shape))
print('y_test shape: {}'.format(y_test.shape))
输出:
X_train shape: (112, 4)
y_train shape: (112,)
X_test shape: (38, 4)
y_test shape: (38,)

利用X_train中的数据创建DataFrame.

利用 iris_dataset['feature_names']

中的字符串对数据列进行标记.

利用DataFrame创建散点图矩阵,按y_train着色.

iris_dataframe = pd.DataFrame(X_train,columns = iris_dataset['feature_names'])
grr = pd.plotting.scatter_matrix(iris_dataframe,c=y_train,figsize=(15,15),
marker='o',hist_kwds={'bins':20},s=60,alpha=.8,cmap=mglearn.cm3)

注:mglearn包为书中作者自己写的包

scikit-learn 中所有的机器学习模型都在各自的类中实现,这些类被称为Estimator 类。

k近邻分类算法是在neighbors模块的KNeighborsClassifier类中实现的。

我们需要将这个类实例化为一个对象,然后才能使用这个模型。这时我们需要设置模型的参数。

KNeighborsClassifier最重要的参数就是邻居的数目,这里我们设为1

from sklearn.neighbors import KNeighborsClassifier
knn = KNeighborsClassifier(n_neighbors=1)

knn对象对算法进行了封装,既包括用训练数据构建模型的算法,也包括对新数据点进行预测的算法。

它还包括算法从训练数据中提取的信息。对于KNeighborsClassifier来说,里面只保存了训练集。

想要基于训练集来构建模型,需要调用 knn 对象的 fit 方法,

输入参数为 X_train
y_ train

,二者都是 NumPy 数组,

前者包含训练数据,后者包含相应的训练标签

knn.fit(X_train,y_train)

fit 方法返回的是 knn 对象本身并做原处修改,因此我们得到了分类器的字符串表示。

从中可以看出构建模型时用到的参数

假如在野外发现了一朵鸢尾花,

花萼长5cm 宽 2.9cm,花瓣长1cm 宽 0.2cm。想知道这朵鸢尾花属于哪个品种?

我们可以将这些数据放在一个 NumPy数组中,

再次计算形状,数组形状为样本数(1)乘以特征数(4):

X_new = np.array([[5,2.9,1,0.2]])

我们将这朵花的测量数据转换为二维 NumPy 数组的一行,

这是因为 scikit-learn 的输入数据必须是二维数组

调用 knn 对象的 predict 方法来进行预测:

prediction = knn.predict(X_new)
print('Prediction:{}'.format(prediction))
print('Predicted target name:{}'.format(iris_dataset['target_names'][prediction]))
输出:
Prediction:[0]
Predicted target name:['setosa']

即根据模型的预测,这朵新的鸢尾花属于类别 0,也就是说它属于 setosa 品种

最后评估模型对测试数据中的每朵鸢尾花进行预测,并将预测结果与标签(已知的品种)进行对比。

我们可以通过计算精度(accuracy)来衡量模型的优劣,精度就是品种预 测正确的花所占的比例:

y_pred = knn.predict(X_test)
print('Test set predictions:\n{}'.format(y_pred))
print('Test set score:{:.2f}'.format(np.mean(y_pred == y_test)))
#保留小数后两位
输出:
Test set predictions:
[2 1 0 2 0 2 0 1 1 1 2 1 1 1 1 0 1 1 0 0 2 1 0 0 2 0 0 1 1 0 2 1 0 2 2 1 0
 2]
Test set score:0.97
我来评几句
登录后评论

已发表评论数()

相关站点

+订阅
热门文章