统计学习方法(二):感知机

tech2023-07-20  105

感知机:判别模型、二分类线性模型 模型形式: f ( x ) = sign ⁡ ( w ⋅ x + b ) f(x)=\operatorname{sign}(w \cdot x+b) f(x)=sign(wx+b): w和b为感知机模型参数,sign是符号函数。要求:数据集线性可分目的:求将数据集线性划分为两部分的超平面经验损失函数:所有误分类的点到超平面距离之和 L ( w , b ) L(w, b) L(w,b)极小化经验损失函数方法:梯度下降法算法流程:

输入:训练数据集 T = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , ⋯   , ( x N , y N ) } T=\left\{\left(x_{1}, y_{1}\right),\left(x_{2}, y_{2}\right), \cdots,\left(x_{N}, y_{N}\right)\right\} T={(x1,y1),(x2,y2),,(xN,yN)};学习率: η \eta η

输出:w、b以及感知机模型 f ( x ) = sign ⁡ ( w ⋅ x + b ) f(x)=\operatorname{sign}(w \cdot x+b) f(x)=sign(wx+b)

第一步:初始化w0和b0

第二步:在训练集中选择数据 ( x i , y i ) \left(x_{i}, y_{i}\right) (xi,yi)

第三步:如果 y i ( w ⋅ x i + b ) ⩽ 0 y_{i}\left(w \cdot x_{i}+b\right) \leqslant 0 yi(wxi+b)0 w ← w + η y i x i w \leftarrow w+\eta y_{i} x_{i} ww+ηyixi b ← b + η y i b \leftarrow b+\eta y_{i} bb+ηyi 理解:

第四步:转至(2),直到没有误分类点。

算法具有收敛性,
最新回复(0)