【机器学习】逻辑斯谛回归模型实现

2023-10-31 08:30

本文主要是介绍【机器学习】逻辑斯谛回归模型实现,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

  • 数据准备
  • 逻辑斯谛回归模型
  • 模型参数估计
  • 总结
  • 参考


数据准备

本文实现的是二项逻辑斯谛回归模型,因此使用的是处理过后的两类别数据 mnist_binary.csv,表中对原手写数据中0~4取作负类 -1,将5~9取作正类 +1。

另根据逻辑斯谛回归模型按条件概率分布定义:
P ( Y = 1 ∣ x ) = e x p ( w ⋅ x ) 1 + e x p ( w ⋅ x ) P(Y=1|x)=\frac{exp(w\cdot x)}{1 + exp(w\cdot x)} P(Y=1∣x)=1+exp(wx)exp(wx)
P ( Y = 0 ∣ x ) = 1 1 + e x p ( w ⋅ x ) P(Y=0|x)=\frac{1}{1 + exp(w\cdot x)} P(Y=0∣x)=1+exp(wx)1

Y的取值应为0,1,因此需要将表中的-1类转换为0后再进行训练;此外由于要计算指数函数,特征取值过多会导致指数函数计算过程中的溢出,因此还需要将图像数据进行二值化操作。此部分直接在代码中完成,就不生成相应的数据集了。


逻辑斯谛回归模型

上面提到的逻辑斯谛回归模型的条件概率分布定义,可以看作是模型将线性函数 w ⋅ x w\cdot x wx通过其定义式转换为概率表现形式:
P ( Y = 1 ∣ x ) = e x p ( w ⋅ x ) 1 + e x p ( w ⋅ x ) P(Y=1|x)=\frac{exp(w\cdot x)}{1 + exp(w\cdot x)} P(Y=1∣x)=1+exp(wx)exp(wx)

上式中表示事情发生的概率,在线性函数趋近于无穷大时,概率值越接近于1;线性函数趋近于负无穷时,概率值就接近于0;函数图像如下所示,模型的临界点在线性函数为零时,条件概率值为0.5。
逻辑斯谛

逻辑斯谛回归模型也可以推广至多分类,见总结部分。


模型参数估计

设上述逻辑斯谛回归模型可改写为如下格式:

P ( Y = 1 ∣ x ) = π ( x ) , P ( Y = 0 ∣ x ) = 1 − π ( x ) P(Y=1|x)=\pi(x),P(Y=0|x)=1-\pi(x) P(Y=1∣x)=π(x)P(Y=0∣x)=1π(x)

其似然函数为:

∏ i = 1 N [ π ( x i ) ] y i [ 1 − π ( x i ) ] 1 − y i \prod_{i=1}^{N}[\pi(x_i)]^{y_i}[1-\pi(x_i)]^{1-y_i} i=1N[π(xi)]yi[1π(xi)]1yi

对数似然函数:
L ( w ) = ∑ i = 1 N [ y i l o g π ( x i ) + ( 1 − y i ) l o g ( 1 − π ( x i ) ) ] = ∑ i = 1 N [ y i l o g π ( x i ) 1 − π ( x i ) + l o g ( 1 − π ( x i ) ) ] = ∑ i = 1 N [ y i ( w ⋅ x i ) − l o g ( 1 + e x p ( w ⋅ x i ) ) ] = y i ( w ⋅ x ) − l o g ( 1 + e x p ( w ⋅ x ) ) \begin{aligned} L(w) &= \sum_{i=1}^N[y_ilog\pi(x_i) + (1 - y_i)log(1 - \pi(x_i))] \\ &=\sum_{i=1}^N[y_ilog\frac{\pi(x_i)}{1 - \pi(x_i)} + log(1 - \pi(x_i))] \\ &=\sum_{i=1}^N[y_i(w\cdot x_i) - log(1 + exp(w\cdot x_i))] \\ &=y_i(w\cdot x) - log(1+exp(w\cdot x)) \end{aligned} L(w)=i=1N[yilogπ(xi)+(1yi)log(1π(xi))]=i=1N[yilog1π(xi)π(xi)+log(1π(xi))]=i=1N[yi(wxi)log(1+exp(wxi))]=yi(wx)log(1+exp(wx))

利用随机梯度下降方法优化算法,以向量形式对权重进行求导:
∂ L ( w ) ∂ w = y i x − x ⋅ e x p ( w ⋅ x ) 1 + e x p ( w ⋅ x ) = x [ y i − e x p ( w ⋅ x ) 1 + e x p ( w ⋅ x ) ] \begin{aligned} \frac{\partial L(w)}{\partial w} &= y_ix - \frac{x\cdot exp(w\cdot x)}{1+exp(w\cdot x)} \\ &=x[y_i - \frac{exp(w\cdot x)}{1 + exp(w\cdot x)}] \end{aligned} wL(w)=yix1+exp(wx)xexp(wx)=x[yi1+exp(wx)exp(wx)]

每次迭代过程中更新权重参数:

w = w + α ∂ L ( w ) ∂ w w = w + \alpha\frac{\partial L(w)}{\partial w} w=w+αwL(w)


根据上述算法步骤,可以发现基于随机梯度下降法的二项逻辑斯谛回归和基于梯度下降法的感知机模型学习算法流程基本一致,区别在于参数步骤的更新方式。另外在判别过程中:感知机采用符号函数Sgin,逻辑斯谛回归采用逻辑斯谛分布Sigmoid进行计算,可参考感知机模型学习原始算法。

具体实现代码如下:

# @Author: phd
# @Date: 2019-08-18
# @Site: github.com/phdsky
# @Description: NULLimport time
import logging
import numpy as np
import pandas as pdfrom sklearn.model_selection import train_test_split
from sklearn.preprocessing import Binarizerdef log(func):def wrapper(*args, **kwargs):start_time = time.time()ret = func(*args, **kwargs)end_time = time.time()logging.debug('%s() cost %s seconds' % (func.__name__, end_time - start_time))return retreturn wrapperdef calc_accuracy(y_pred, y_truth):assert len(y_pred) == len(y_truth)n = len(y_pred)hit_count = 0for i in range(0, n):if y_pred[i] == y_truth[i]:hit_count += 1print("Predicting accuracy %f" % (hit_count / n))class LogisticRegression(object):def __init__(self, w, b, learning_rate, max_epoch, learning_period, learning_ratio):self.weight = wself.bias = bself.lr_rate = learning_rateself.max_epoch = max_epochself.lr_period = learning_periodself.lr_ratio = learning_ratiodef calculate(self, feature):# wx = sum([self.weight[j] * feature[j] for j in range(len(self.weight))])wx = np.dot(self.weight.transpose(), feature)exp_wx = np.exp(wx)predicted = 0 if (1 / (1 + exp_wx)) > 0.5 else 1return predicted, exp_wx@logdef train(self, X_train, y_train):# Fuse weight with biasself.weight = np.full((len(X_train[0]), 1), self.weight, dtype=float)self.weight = np.row_stack((self.weight, self.bias))epoch = 0while epoch < self.max_epoch:hit_count = 0data_count = len(X_train)for i in range(data_count):feature = X_train[i].reshape([len(X_train[i]), 1])feature = np.row_stack((feature, 1))label = y_train[i]predicted, exp_wx = self.calculate(feature)if predicted == label:hit_count += 1continue# for k in range(len(self.weight)):#     self.weight[k] += self.lr_rate * (label*feature[k] - ((feature[k] * exp_wx) / (1 + exp_wx)))self.weight += self.lr_rate * feature * (label - (exp_wx / (1 + exp_wx)))epoch += 1print("\rEpoch %d, lr_rate=%f, Acc = %f" % (epoch, self.lr_rate, hit_count / data_count), end='')# Decay learning rateif epoch % self.lr_period == 0:self.lr_rate /= self.lr_ratio# Stop trainingif self.lr_rate <= 1e-6:print("\nLearning rate is too low, Early stopping...\n")break@logdef predict(self, X_test):n = len(X_test)predict_label = np.full(n, -1)for i in range(0, n):to_predict = X_test[i].reshape([len(X_test[i]), 1])vec_predict = np.row_stack((to_predict, 1))predict_label[i], _ = self.calculate(vec_predict)return predict_labelif __name__ == "__main__":logger = logging.getLogger()logger.setLevel(logging.DEBUG)mnist_data = pd.read_csv("../data/mnist_binary.csv")mnist_values = mnist_data.valuesimages = mnist_values[::, 1::]labels = mnist_values[::, 0]X_train, X_test, y_train, y_test = train_test_split(images, labels, test_size=0.33, random_state=42)# Handle all -1 in y_train to 0y_train = y_train * (y_train == 1)y_test = y_test * (y_test == 1)# Binary the image to avoid predict_probability gets 0binarizer_train = Binarizer(threshold=127).fit(X_train)X_train_binary = binarizer_train.transform(X_train)binarizer_test = Binarizer(threshold=127).fit(X_test)X_test_binary = binarizer_test.transform(X_test)lr = LogisticRegression(w=0, b=1, learning_rate=0.001, max_epoch=100,learning_period=10, learning_ratio=3)print("Logistic regression training...")lr.train(X_train=X_train_binary, y_train=y_train)print("\nTraining done...")print("Testing on %d samples..." % len(X_test))y_predicted = lr.predict(X_test=X_test_binary)calc_accuracy(y_pred=y_predicted, y_truth=y_test)

代码输出

/Users/phd/Softwares/anaconda3/bin/python /Users/phd/Desktop/ML/logistic_regression/logistic_regression.py
Logistic regression training...
Epoch 70, lr_rate=0.000001, Acc = 0.818479
Learning rate is too low, Early stopping...Training done...
Testing on 13860 samples...
DEBUG:root:train() cost 38.08758902549744 seconds
Predicting accuracy 0.831097
DEBUG:root:predict() cost 0.2131938934326172 secondsProcess finished with exit code 0

从结果可以看出,在图像二值化后逻辑斯谛算法的训练和测试精度都在80%+,算法效果较好;预测结果优于直接使用原始数据的感知机模型。


总结

  1. 逻辑斯谛回归模型是一种分类模型
  2. 逻辑斯谛回归是由输入线性函数表示的输出对数几率模型;其模型定义由如下条件概率分布表示:(将二项推广为多项模型)

{ P ( Y = k ∣ x ) = e x p ( w k ⋅ x ) 1 + ∑ k = 1 K − 1 e x p ( w k ⋅ x ) , k = 1 , 2 , . . . , K − 1 P ( Y = K ∣ x ) = 1 1 + ∑ k = 1 K − 1 e x p ( w k ⋅ x ) \left\{ \begin{aligned} P(Y=k|x) &= \frac{exp(w_k\cdot x)}{1 + \sum\limits_{k=1}^{K-1}exp(w_k\cdot x)}, k=1,2,...,K-1 \\ P(Y=K|x) &= \frac{1}{1 + \sum\limits_{k=1}^{K-1}exp(w_k\cdot x)} \end{aligned} \right. P(Y=kx)P(Y=Kx)=1+k=1K1exp(wkx)exp(wkx),k=1,2,...,K1=1+k=1K1exp(wkx)1


参考

  1. 《统计学习方法》

这篇关于【机器学习】逻辑斯谛回归模型实现的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/314073

相关文章

Flutter实现文字镂空效果的详细步骤

《Flutter实现文字镂空效果的详细步骤》:本文主要介绍如何使用Flutter实现文字镂空效果,包括创建基础应用结构、实现自定义绘制器、构建UI界面以及实现颜色选择按钮等步骤,并详细解析了混合模... 目录引言实现原理开始实现步骤1:创建基础应用结构步骤2:创建主屏幕步骤3:实现自定义绘制器步骤4:构建U

SpringBoot中四种AOP实战应用场景及代码实现

《SpringBoot中四种AOP实战应用场景及代码实现》面向切面编程(AOP)是Spring框架的核心功能之一,它通过预编译和运行期动态代理实现程序功能的统一维护,在SpringBoot应用中,AO... 目录引言场景一:日志记录与性能监控业务需求实现方案使用示例扩展:MDC实现请求跟踪场景二:权限控制与

Android实现定时任务的几种方式汇总(附源码)

《Android实现定时任务的几种方式汇总(附源码)》在Android应用中,定时任务(ScheduledTask)的需求几乎无处不在:从定时刷新数据、定时备份、定时推送通知,到夜间静默下载、循环执行... 目录一、项目介绍1. 背景与意义二、相关基础知识与系统约束三、方案一:Handler.postDel

使用Python实现IP地址和端口状态检测与监控

《使用Python实现IP地址和端口状态检测与监控》在网络运维和服务器管理中,IP地址和端口的可用性监控是保障业务连续性的基础需求,本文将带你用Python从零打造一个高可用IP监控系统,感兴趣的小伙... 目录概述:为什么需要IP监控系统使用步骤说明1. 环境准备2. 系统部署3. 核心功能配置系统效果展

Python实现微信自动锁定工具

《Python实现微信自动锁定工具》在数字化办公时代,微信已成为职场沟通的重要工具,但临时离开时忘记锁屏可能导致敏感信息泄露,下面我们就来看看如何使用Python打造一个微信自动锁定工具吧... 目录引言:当微信隐私遇到自动化守护效果展示核心功能全景图技术亮点深度解析1. 无操作检测引擎2. 微信路径智能获

Python中pywin32 常用窗口操作的实现

《Python中pywin32常用窗口操作的实现》本文主要介绍了Python中pywin32常用窗口操作的实现,pywin32主要的作用是供Python开发者快速调用WindowsAPI的一个... 目录获取窗口句柄获取最前端窗口句柄获取指定坐标处的窗口根据窗口的完整标题匹配获取句柄根据窗口的类别匹配获取句

在 Spring Boot 中实现异常处理最佳实践

《在SpringBoot中实现异常处理最佳实践》本文介绍如何在SpringBoot中实现异常处理,涵盖核心概念、实现方法、与先前查询的集成、性能分析、常见问题和最佳实践,感兴趣的朋友一起看看吧... 目录一、Spring Boot 异常处理的背景与核心概念1.1 为什么需要异常处理?1.2 Spring B

Python位移操作和位运算的实现示例

《Python位移操作和位运算的实现示例》本文主要介绍了Python位移操作和位运算的实现示例,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一... 目录1. 位移操作1.1 左移操作 (<<)1.2 右移操作 (>>)注意事项:2. 位运算2.1

如何在 Spring Boot 中实现 FreeMarker 模板

《如何在SpringBoot中实现FreeMarker模板》FreeMarker是一种功能强大、轻量级的模板引擎,用于在Java应用中生成动态文本输出(如HTML、XML、邮件内容等),本文... 目录什么是 FreeMarker 模板?在 Spring Boot 中实现 FreeMarker 模板1. 环

Qt实现网络数据解析的方法总结

《Qt实现网络数据解析的方法总结》在Qt中解析网络数据通常涉及接收原始字节流,并将其转换为有意义的应用层数据,这篇文章为大家介绍了详细步骤和示例,感兴趣的小伙伴可以了解下... 目录1. 网络数据接收2. 缓冲区管理(处理粘包/拆包)3. 常见数据格式解析3.1 jsON解析3.2 XML解析3.3 自定义