当前位置: 代码网 > 科技>人工智能>机器学习 > 机器学习——logistic回归

机器学习——logistic回归

2024年07月28日 机器学习 我要评论
从基本概念到代码实现,一起学习logistic

基础概念

分类问题与回归问题

在这里插入图片描述

在这里插入图片描述

sigmoid函数

从图像上看,对于 logistic 函数而言,x = 0 是一个有着特殊意义坐标,越靠近 0 和越远离 0 会出现两种截然不同的情况:任何y > 0.5 的数据可以划分到 “1”类中;而y < 0.5 的数据可以划分到 “0”类。因此可以把 logistic 看做解决二分类问题的分类器。如果想要 logistic 分类器预测准确,那么 x 的取值距离 0 越远越好,这样结果值才能无限逼近于 0 或者 1。

接下来通过两幅图像来解释为什么需要让x离0越远越好。

将sigmoid图像x的取值缩小范围至[-0.6 , 0.6]可获得如下的图像:

在这里插入图片描述

将sigmoid的x取值扩大范围至[-60, 60]可以获得如下图像:

在这里插入图片描述

通过对比两幅图像,我们可以发现,当x取值比较小时,sigmoid函数与线性模型无异;当x取值大起来,我们发现sigmoid函数呈现的是一个阶梯式图像,这对我们的二分类来说简直不要太妙。这也就是为什么要采用logistic进行二分类的原因。

基于最优化方法的最佳回归系数确定

问题引出

通过上面的描述,我们发现,为了实现logistic回归分类,我们可以在每一个特征上乘以一个回归系数,然后把相乘的结果累加,代入sigmoid函数中就可以得到一个在[ 0,1 ]范围的值y,我们就可以通过判别y的值来实现分类。(例:y > 0.5为1类,y < 0.5为0类

公式描述:
z = w t x + b z =\mathbf{ w^{t}x} +b z=wtx+b

y = 1 1 + e − z y = \frac{1}{1+e^{-z} } y=1+ez1

带入z可得:
y = 1 1 + e w t x + b y = \frac{1}{1+e^{\mathbf{ w^{t}x} +b} } y=1+ewtx+b1

由上式可以做出以下假设

由于y的函数有分式和指数e的,所以我们采用对数函数对其进行一种映射:
ln ⁡ y 1 − y = ln ⁡ p ( y = 1 ∣ x ) p ( y = 0 ∣ x ) = w t x + b \ln_{}{\frac{y}{1-y} } = \ln_{}{\frac{p(y=1|x)}{p(y=0|x)} }=\mathbf{ w^{t}x} +b ln1yy=lnp(y=0x)p(y=1x)=wtx+b

p ( y = 1 ∣ x ) = w t x + b 1 + w t x + b p(y=1|x)=\frac{\mathbf{ w^{t}x} +b}{1+\mathbf{ w^{t}x} +b} p(y=1x)=1+wtx+bwtx+b

p ( y = 0 ∣ x ) = 1 1 + w t x + b p(y=0|x)=\frac{1}{1+\mathbf{ w^{t}x} +b} p(y=0x)=1+

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com