sgd Momentum Vanilla SGD RMSprop adam等优化算法在寻找 简单logistic分类中的 的应用

本文主要是介绍sgd Momentum Vanilla SGD RMSprop adam等优化算法在寻找 简单logistic分类中的 的应用,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

参考博文





​​​​​​(4条消息) sgd Momentum Vanilla SGD RMSprop adam等优化算法在寻找函数最值的应用_tcuuuqladvvmm454的博客-CSDN博客

在这里随机选择一些数据 生成两类

 

 

 

 

核心代码如下:
    def __init__(self, loss, weights, lr=2.1, beta1=0.9, beta2=0.999, epislon=1e-8):# , t1=[], g1=[], lr1=[], m1=[], v1=[], theta1=[]):
        self.loss = loss
        self.theta = weights
        self.lr = lr
        self.beta1 = beta1
        self.beta2 = beta2
        self.epislon = epislon
        self.get_gradient = grad(loss)
        self.m = 0
        self.v = 0
        self.t = 0
        #t1=[], g1=[], lr1=[], m1=[], v1=[], theta1=[]
        #self.t1, g1, lr1, self.m1, self.v1, self.theta1=[],[],[],[],[],[]

    def minimize_raw(self, epochs=EPOCHS):##sgd
        ee=[]
        #print('sgd------------')
        for _ in range(epochs):
            self.t += 1
            #print('adma------------')
            g = self.get_gradient(self.theta)
            self.m = self.beta1 * self.m + (1 - self.beta1) * g
            self.v = self.beta2 * self.v + (1 - self.beta2) * (g * g)
            self.m_cat = self.m / (1 - self.beta1 ** self.t)
            self.v_cat = self.v / (1 - self.beta2 ** self.t)
            self.theta -= self.lr * self.m_cat / (self.v_cat ** 0.5 + self.epislon)
            final_loss = self.loss(self.theta)
            ee.append(final_loss)
        plt.figure()
        plt.plot(ee)
        plt.show()
        print("adam_final loss:{} weights0:{}".format(final_loss, self.theta[0]))
    def minimize_raw1(self, epochs=EPOCHS):##sgd
        ee=[]
        #print('sgd------------')
        for _ in range(epochs):
            self.t += 1
            g = self.get_gradient(self.theta)
            self.m = self.beta1 * self.m + (1 - self.beta1) * g
            self.v = self.beta2 * self.v + (1 - self.beta2) * (g * g)
            self.m_cat = self.m / (1 - self.beta1 ** self.t)
            self.v_cat = self.v / (1 - self.beta2 ** self.t)
            self.theta -= self.lr * g#self.m_cat / (self.v_cat ** 0.5 + self.epislon)
            final_loss = self.loss(self.theta)
            ee.append(final_loss)
        plt.figure()
        plt.plot(ee)
        plt.show()
        print("sgd_final loss:{} weights0:{}".format(final_loss, self.theta[0]))

    def minimize(self, epochs=EPOCHS):
        ee=[]
        for _ in range(epochs):
            
            self.t += 1
            g = self.get_gradient(self.theta)
            lr = self.lr * (1 - self.beta2 ** self.t) ** 0.5 / (1 - self.beta1 ** self.t)
            self.m = self.beta1 * self.m + (1 - self.beta1) * g
            self.v = self.beta2 * self.v + (1 - self.beta2) * (g * g)
            self.theta -= lr * self.m / (self.v ** 0.5 + self.epislon)
            final_loss = self.loss(self.theta)
            ee.append(final_loss)
        plt.figure()
        plt.plot(ee)
        plt.show()
        print("romsrop_final loss:{} weights0:{}".format(final_loss, self.theta[0]))
    def minimize2(self, epochs=EPOCHS):
        ee=[]
        for _ in range(epochs):
            self.t += 1
            g = self.get_gradient(self.theta)
            lr = self.lr * (1 - self.beta2 ** self.t) ** 0.5 / (1 - self.beta1 ** self.t)
            self.m = self.beta1 * self.m + lr * g
            #self.v = self.beta2 * self.v + (1 - self.beta2) * (g * g)
            self.theta -= self.m# / (self.v ** 0.5 + self.epislon)
            final_loss = self.loss(self.theta)
            ee.append(final_loss)
        plt.figure()
        plt.plot(ee)
        plt.show()
        print("dongliang_final loss:{} weights0:{}".format(final_loss, self.theta[0]))
        

    #t1, g1, lr1, m1, v1, theta1=[],[],[],[],[],[]
    def minimize_show(self, epochs=EPOCHS):
        lr1=[0.1,0.3,0.0001]
        for uu in range(3):
            for _ in range(epochs):
                self.t += 1
                lr=lr1[uu]
                g = self.get_gradient(self.theta)
                lr = self.lr * (1 - self.beta2 ** self.t) ** 0.5 / (1 - self.beta1 ** self.t)
                self.m = self.beta1 * self.m + (1 - self.beta1) * g
                self.v = self.beta2 * self.v + (1 - self.beta2) * (g * g)
                self.theta -= lr * self.m / (self.v ** 0.5 + self.epislon)
                #print("step{: 4d} g:{} lr:{} m:{} v:{} theta:{}".format(self.t, g, lr, self.m, self.v, self.theta))
                #t1.append(self.t) 
                #g1.append(g),
                #l.r1append(l.r) 
                #m1.append(self.m)
                #v1.append(self.v) 
                #theta1.append(self.theta)#=[],[],[],[],[],[]
            #return self.t1, g1, lr1, self.m1, self.v1, self.theta1

            final_loss = self.loss(self.theta)
        print("final loss:{} weights:{}".format(final_loss, self.theta))


def sigmoid(x):
    
    
    return 1/(np.exp(-x) + 1)#0.5*(np.tanh(x) + 1)

def plot_sigmoid_dao( ):
    x=np.arange(-8,8,0.1)
    y=sigmoid(x)*(1-sigmoid(x))
    y1=sigmoid(x)#*(1-sigmoid(x))
    p1=plt.plot(x,y,label='sigmod1 ')
    p2=plt.plot(x,y1,label='sigmod')
    plt.legend( )#[p2, p1], ["yuanshi2", "daosgu 1"], loc='upper left')
    plt.show()
    
    #plt.legend('daoshu','yuanshi')
plot_sigmoid_dao()  
    
def logistic_predictions(weights, inputs):
    # Outputs probability of a label being true according to logistic model.
    return sigmoid(np.dot(inputs, weights))

def training_loss1(weights):
    rr=[]
    # Training loss is the negative log-likelihood of the training labels.
    preds = logistic_predictions(weights, inputs)
    rr.append((preds))
    #print(rr)
    label_probabilities = (preds - targets)**2#preds * targets + (1 - preds) * (1 - targets)
   
    #return -np.sum(np.log(label_probabilities))
    return np.sum((label_probabilities))/preds.shape[0]

def training_loss(weights):
    rr=[]
    s1=np.dot(inputs, weights)
    s2=sigmoid(s1)
    #print('s2=',s2)
    # Training loss is the negative log-likelihood of the training labels.
    preds = s2#logistic_predictions(weights, inputs)
    rr.append((preds))
    #print(preds ,targets)
    ee=[]
    for i in range(preds.shape[0]):
        ee.append((preds[i]-targets[i])**2)
    ee1=sum(ee)
        
    #label_probabilities = (preds - targets)**2#preds * targets + (1 - preds) * (1 - targets)
    #print(label_probabilities)
    #return -np.sum(np.log(label_probabilities))
    return ee1#np.sum((label_probabilities))

这篇关于sgd Momentum Vanilla SGD RMSprop adam等优化算法在寻找 简单logistic分类中的 的应用的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/828817

相关文章

Python标准库之数据压缩和存档的应用详解

《Python标准库之数据压缩和存档的应用详解》在数据处理与存储领域,压缩和存档是提升效率的关键技术,Python标准库提供了一套完整的工具链,下面小编就来和大家简单介绍一下吧... 目录一、核心模块架构与设计哲学二、关键模块深度解析1.tarfile:专业级归档工具2.zipfile:跨平台归档首选3.

使用IDEA部署Docker应用指南分享

《使用IDEA部署Docker应用指南分享》本文介绍了使用IDEA部署Docker应用的四步流程:创建Dockerfile、配置IDEADocker连接、设置运行调试环境、构建运行镜像,并强调需准备本... 目录一、创建 dockerfile 配置文件二、配置 IDEA 的 Docker 连接三、配置 Do

深入浅出SpringBoot WebSocket构建实时应用全面指南

《深入浅出SpringBootWebSocket构建实时应用全面指南》WebSocket是一种在单个TCP连接上进行全双工通信的协议,这篇文章主要为大家详细介绍了SpringBoot如何集成WebS... 目录前言为什么需要 WebSocketWebSocket 是什么Spring Boot 如何简化 We

Java Stream流之GroupBy的用法及应用场景

《JavaStream流之GroupBy的用法及应用场景》本教程将详细介绍如何在Java中使用Stream流的groupby方法,包括基本用法和一些常见的实际应用场景,感兴趣的朋友一起看看吧... 目录Java Stream流之GroupBy的用法1. 前言2. 基础概念什么是 GroupBy?Stream

python中列表应用和扩展性实用详解

《python中列表应用和扩展性实用详解》文章介绍了Python列表的核心特性:有序数据集合,用[]定义,元素类型可不同,支持迭代、循环、切片,可执行增删改查、排序、推导式及嵌套操作,是常用的数据处理... 目录1、列表定义2、格式3、列表是可迭代对象4、列表的常见操作总结1、列表定义是处理一组有序项目的

C#中的Converter的具体应用

《C#中的Converter的具体应用》C#中的Converter提供了一种灵活的类型转换机制,本文详细介绍了Converter的基本概念、使用场景,具有一定的参考价值,感兴趣的可以了解一下... 目录Converter的基本概念1. Converter委托2. 使用场景布尔型转换示例示例1:简单的字符串到

Spring Boot Actuator应用监控与管理的详细步骤

《SpringBootActuator应用监控与管理的详细步骤》SpringBootActuator是SpringBoot的监控工具,提供健康检查、性能指标、日志管理等核心功能,支持自定义和扩展端... 目录一、 Spring Boot Actuator 概述二、 集成 Spring Boot Actuat

PyTorch中的词嵌入层(nn.Embedding)详解与实战应用示例

《PyTorch中的词嵌入层(nn.Embedding)详解与实战应用示例》词嵌入解决NLP维度灾难,捕捉语义关系,PyTorch的nn.Embedding模块提供灵活实现,支持参数配置、预训练及变长... 目录一、词嵌入(Word Embedding)简介为什么需要词嵌入?二、PyTorch中的nn.Em

小白也能轻松上手! 路由器设置优化指南

《小白也能轻松上手!路由器设置优化指南》在日常生活中,我们常常会遇到WiFi网速慢的问题,这主要受到三个方面的影响,首要原因是WiFi产品的配置优化不合理,其次是硬件性能的不足,以及宽带线路本身的质... 在数字化时代,网络已成为生活必需品,追剧、游戏、办公、学习都离不开稳定高速的网络。但很多人面对新路由器

Java中使用 @Builder 注解的简单示例

《Java中使用@Builder注解的简单示例》@Builder简化构建但存在复杂性,需配合其他注解,导致可变性、抽象类型处理难题,链式编程非最佳实践,适合长期对象,避免与@Data混用,改用@G... 目录一、案例二、不足之处大多数同学使用 @Builder 无非就是为了链式编程,然而 @Builder