机器学习回顾篇(10):感知机模型
阅读目录
1 引言
2 感知机模型及损失函数
2.1 数学描述
3 优化方法
3.1 原始形式
3.2 对偶形式
4 算法实现
注:本系列所有博客将持续更新并发布在github和gitee上,您可以通过github、gitee下载本系列所有文章笔记文件。
回到顶部
1 引言
感知机是一种简单且易于实现的二分类判别模型,主要思想是通过误分类驱动的损失函数结合梯度下降发求解一个超平面将线性可分的数据集划分为两个不同的类别(+1类和-1类)。
在神经网络、支持向量机等算法盛行的当下,感知机模型应用得并不多,但必须承认,感知机却是神经网络和支持向量机的基础,所以还是很有必要学习一下的,本文接下来的内容将从感知机数学描述、损失函数、两种不同学习形式等方面详细介绍感知机,最后使用Python实现感知机两种学习形式。
回到顶部
2 感知机模型及损失函数
2.1 数学描述
对于给定训练样本数据集D={(xi,yi)}mi=1,xi∈X⊆Rn表示训练样本的特征向量,yi∈Y={+1,−1}表示样本类别。x与y之间的如下函数关系:
y=f(x)=sign(w⋅x+b)
称为感知机。其中,w∈Rn称为感知机的权值系数或者权值向量,b∈R称为偏置,sign是符号函数,有:
sign={+1,x⩾0−1,x<0
从定义上可以看出,感知机最终目标就是求解出w和b。我们可以从几何上对感知机进行理解,如果以w为法向量,以b为截距,可以确定一超平面:
w⋅x+b=0
通过这一超平面,可以顺利将对数据集进行划分。以二维数据为例,如下图所示,当样本点x刚好落在超平面上时,有w⋅x+b=0,当x落在超平面下方时,有w⋅x+b<0,通过sign函数后输出为−1,也就是标记为−1类;当x落在超平面上方时,有w⋅x+b>0,通过sign函数后输出为+1,也就是标记为+1类。注意,这样的超平面一般不唯一,也就是说感知机最终解可以有很多个,受参数初始值、训练样本输入顺序等因素的影响,每次训练时所获得的超平面都可能不一样。 image
2.2 损失函数
为了求解参数w和b,确定最终的分割超平面,我们需要定义一个目标函数或者说损失函数,通过最小化损失函数来达到目的。在感知机模型中,以误分类的样本对象与分割超平面间的距离之和最为损失函数。我们高中时学过,对于点(x0,y0),到平面A⋅x+B⋅y+C=0的距离为:
dist=|A⋅x0+B⋅y0+C|A2+B2−−−−−−−√
将这一公式扩展到超平面中,对于超平面w⋅x+b=0,误分类点xi到超平面的距离为:
dist=|w⋅xi+b|∥w∥
式中,∥w∥是w的L2范数,等同于上面的A2+B2−−−−−−−√。 为了方便计算,我们需要将分子中的绝对值去掉,怎么去掉呢?因为(xi,yi)是误分类样本点,yi与w⋅xi+b一定是异号的,所以:
−yi⋅(w⋅xi+b)>0
且因为|yi|=1,所以:
−yi⋅(w⋅xi+b)=|w⋅xi+b|
于是,(xi,yi)到超平面的距离可以表示为:
−yi⋅(w⋅xi+b)∥w∥
假设M是所有误分类点组成的集合,那么所有误分类点到超平面距离总和为:
∑xi∈M−yi⋅(w⋅xi+b)∥w∥(1)
这就是我们需要的损失函数的雏形了,之所以说是雏形,是因为我们还可以通过令∥w∥ = 1对上式进一步化简,于是有:
L(w,b)=∑xi∈M−yi⋅(w⋅xi+b)(2)
L(w,b)就是我们最终需要的损失函数。 为什么可以直接令∥w∥ = 1来化简式(1)呢?
我们可以在权值向量w中添加一个w0元素,在特征向量xi中添加一个第0纬度x(0)=1,令偏置b=w0⋅x(0),这样,我们就把偏置b也放进了权值向量w中,那式(1)就变为:
∑xi∈M−yi⋅w⋅xi∥w∥
此时,分子和分母都含有w,当分子的w扩大N倍时,分母的L2范数也会扩大N倍。也就是说,分子和分母有固定的倍数关系。那么我们可以固定分子或者分母为1,然后求分母的倒数或者分子自己的最小化作为损失函数,这样可以简化我们的损失函数。在感知机模型中,采用的是保留分子的策略。
另一种解释,当把偏置b包含进w后,超平面表达式也简化成w⋅xi=0,无论是把w扩大多少倍、缩小多少倍,都对超平面没有影响(就像x+y−1=0与2x+2y−2=0始终表示同一条直线),那么我们总能找到一个倍数,将w缩小到满足∥w∥=1,但并不影响我们获得最终的超平面,但是令∥w∥=1后却有助于我们化简和求解。
回到顶部
3 优化方法
上一节中,我们介绍了感知机模型损失函数L(w,b)的由来,接下来就要说说怎么通过优化损失函数来获得最终的超平面。在感知机模型中,有两种优化方式:原始形式和对偶形式。
3.1 原始形式
原始形式采用的是梯度下降法进行求解,如果对梯度下降法不了解,可以参看前面写过的一篇博客。这里需要注意的是,在上一小节中说过,感知机是基于误分类驱动的一种模型,所以不能使用整个数据集进行梯度下降优化,只能对误分类样本集合M采用随机梯度下降法或者小批量梯度下降法进行优化。 对损失函数L(w,b)求偏导:
∂L(w,b)∂w=−∑xi∈Myi⋅xi
∂L(w,b)∂b=−∑xi∈Myi
那么,w的梯度下降迭代公式为:
w=w+α⋅∑xi∈Myi⋅xi
偏置b的梯度下降迭代公式为:
b=b+α⋅∑xi∈Myi
式中,α是学习率。 感知机模型中,一般采用随机梯度下降法进行优化,每次使用一个误分类样本点进行梯度更新。假设(xi,yi)是M中的一个误分类点,进行梯度更新:
w=w+α⋅yixi(3)
b=b+α⋅yi(4)
总结一下原始形式优化步骤。 输入:训练样本数据集D={(xi,yi)}mi=1,xi∈X⊆Rn,yi∈Y={+1,−1},学习率% α∈(0,1)
输出:w,b;感知机模型f(x)=sign(w⋅x+b)
(1)初始化w0,b0;
(2)在D中选取任意点(xi,yi);
(3)通过yi⋅(w⋅xi+b)的值判断是否是误分类点,如果是,使用式(3)、(4)更新参数;
(4)回到步骤(2)直到准确率满足条件。
3.2 对偶形式
对偶形式时原始形式在执行效率上的优化。通过3.1小节中,我们知道,每当一个样本点xi被错误分类一次时,都会使用式(3)(4)更新一次参数,那么,如果样本点xi在迭代过程中被错误分类多次(假设ni次),那么就回有ni次参与到参数更新中,我们假设参数w和b的初始值都为0向量,那么,最终获得的参数w和b为:
w=∑i=1Nβiyixi(5)
b=∑i=1Nβiyi(6)
这是在对偶形式中的参数更新方式,式中,βi=niα。另外,在原始形式中,我们使用yi(w⋅xi+b)⩽0来判断样本点xi是否被错误分类,将式(5)(6)代入这一判别式中,得:
yi(∑i=1Nβiyixi⋅xj+∑i=1Nβiyi)⩽0(7)
在对偶形式中,采用式(7)判断样本点是否正确分类,观察后可以发现,式(7)中有两个样本点xi和xj内积计算,这个内积计算的结果在下面的迭代过程中需要多次被重复使用,如果我们事先用矩阵运算计算出所有的样本之间的内积,那么在算法迭代过程中, 仅仅一次的矩阵内积运算比原始形式中每遍历一个样本点都要计算w与xi的内积要省时得多,这也是对偶形式的感知机模型比原始形式优的原因。
在感知机模型中,样本的内积矩阵称为Gram矩阵,它是一个对称矩阵,记为G=[xi,xj]m×m。
总结一下对偶形式的步骤。
输入:训练样本数据集D={(xi,yi)}mi=1,xi∈X⊆Rn,yi∈Y={+1,−1},学习率% α∈(0,1)
输出:w,b;感知机模型f(x)=sign(w⋅x+b)
(1)初始化所有ni值为0;
(2)计算Gram矩阵;
(3)在D中选取任意点(xi,yi);
(4)如果yi(∑i=1Nβiyixi⋅xj+∑i=1Nβiyi)⩽0,令βi=βi+α;
(5)检查是否还有误分类样本点,如果有,回到步骤(2);如果没有,(5)(6)计算w、b最终值。
回到顶部
4 算法实现
import numpy as np
import matplotlib.pyplot as plt
import copy
# 先来制造一批数据
a = np.random.normal(20,5,300)
b = np.random.normal(15,5,300)
cluster1 = np.array([[x, y, -1] for x, y in zip(a,b)])
a = np.random.normal(45,5,300)
b = np.random.normal(40,5,300)
cluster2 = np.array([[x, y, 1] for x, y in zip(a,b)])
dataset = np.append(cluster1,cluster2, axis=0)
for i in dataset:
plt.scatter(i[0], i[1],c='black',s=6)
plt.show()
len(dataset)
600
class Perception(object):
def __init__(self):
"""
感知机模型
"""
self.w = 0
self.b = 0
def fit_raw_mod(self, train_data, lr=1, max_epoch=None, min_error_rate=0):
"""
原始模式的感知机训练方法,当达到最大迭代次数或错误率降到最小范围退出
train_data:训练数据集
lr:学习率
max_epoch:最大迭代次数
min_error_rate:最小错误率
"""
self.w = np.zeros(train_data.shape[1]-1) # 根据训练集维度初始化权重系数
epoch = 1 # 记录迭代次数
while True:
error_count = 0 # 记录错误分类样本数
for sample in train_data:
xi = sample[0:-1]
yi = sample[-1]
distance = yi * (self.w @ xi + self.b) # yi*(w⋅xi*+b)
if distance <= 0: # 对于判断错误的样本点
self.w += lr * sample[-1] * sample[0:-1]
self.b += lr * sample[-1]
error_count += 1
# 每完成一次迭代之后,验证一次准确率,准确率达标则退出
current_error_rate = float(error_count) / train_data.shape[0]
# print('epoch {0},current_error_rate: {1}'.format(epoch+1, current_error_rate))
# print('w:{0}, b:{1}'.format(self.w, self.b))
# self.show_graph(train_data) # 每一次迭代都展示一次图像
if current_error_rate <= min_error_rate:
break
if isinstance(max_epoch, int) and epoch >= maxepoch:
break
epoch += 1
print('w:{0}, b:{1}'.format(self.w, self.b))
self.show_graph(train_data)
def fit_dual_mod(self,train_data,lr=1):
"""
对偶模式的感知机训练方法
train_data:训练数据集
lr:学习率
"""
x_train = train_data[:,:-1]
y_train = train_data[:,-1]
num_samples, num_features = x_train.shape
beta = np.zeros((num_samples,))
self.b = 0
# 计算 Gram 矩阵
gram = np.dot(x_train, x_train.T)
while True:
error_count = 0
for i in range(num_samples):
inner_product = gram[i]
y_i = y_train[i]
distance = y_i * (np.sum(beta * y_train * inner_product) + self.b)
# 对于误分类点,修正 beta 和 偏置b,跳出本层循环,重新遍历数据计算,开始新的循环
if distance <= 0:
error_count += 1
beta[i] = beta[i] + lr
self.b = self.b + lr * y_i
break
# 数据没有误分类点,跳出 while 循环
if error_count == 0:
break
self.w = np.sum(beta * y_train * x_train.T, axis=1) # 计算w参数最终值
print('w:{0}, b:{1}'.format(self.w, self.b))
self.show_graph(train_data) # 展示图像
def predict(self, sample):
"""
输入一个样本点,判断是-1类还是+1类
sample:样本点
"""
output = self.w @ sample + self.b
return 1 if output >= 0 else -1
def show_graph(self, train_data):
"""
把训练出来的超平面图像展示出来
"""
for sample in train_data:
if sample[-1] == 1:
plt.scatter(sample[0], sample[1],c='black',s=6)
else:
plt.scatter(sample[0], sample[1],c='red',s=6)
x = np.linspace(0.,60.,200)
y = -(self.w[0]*x + self.b) / self.w[1]
plt.plot(x,y)
plt.show()
model = Perception()
model.fit_raw_mod(dataset, lr=1)
w:[8.54367705 9.34962314], b:-542.0
model = Perception()
model.fit_dual_mod(dataset, lr=1)
w:[ 6.06428531 19.42194872], b:-749.0
model.predict(np.array([20,30]))
-1
model.predict(np.array([50,50]))
1
分类: 机器学习https://www.cnblogs.com/chenhuabin/p/11933048.html