sgd Momentum Vanilla SGD RMSprop adam等优化算法在寻找 简单logistic分类中的 的应用

本文主要是介绍sgd Momentum Vanilla SGD RMSprop adam等优化算法在寻找 简单logistic分类中的 的应用,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

参考博文





​​​​​​(4条消息) sgd Momentum Vanilla SGD RMSprop adam等优化算法在寻找函数最值的应用_tcuuuqladvvmm454的博客-CSDN博客

在这里随机选择一些数据 生成两类

 

 

 

 

核心代码如下:
    def __init__(self, loss, weights, lr=2.1, beta1=0.9, beta2=0.999, epislon=1e-8):# , t1=[], g1=[], lr1=[], m1=[], v1=[], theta1=[]):
        self.loss = loss
        self.theta = weights
        self.lr = lr
        self.beta1 = beta1
        self.beta2 = beta2
        self.epislon = epislon
        self.get_gradient = grad(loss)
        self.m = 0
        self.v = 0
        self.t = 0
        #t1=[], g1=[], lr1=[], m1=[], v1=[], theta1=[]
        #self.t1, g1, lr1, self.m1, self.v1, self.theta1=[],[],[],[],[],[]

    def minimize_raw(self, epochs=EPOCHS):##sgd
        ee=[]
        #print('sgd------------')
        for _ in range(epochs):
            self.t += 1
            #print('adma------------')
            g = self.get_gradient(self.theta)
            self.m = self.beta1 * self.m + (1 - self.beta1) * g
            self.v = self.beta2 * self.v + (1 - self.beta2) * (g * g)
            self.m_cat = self.m / (1 - self.beta1 ** self.t)
            self.v_cat = self.v / (1 - self.beta2 ** self.t)
            self.theta -= self.lr * self.m_cat / (self.v_cat ** 0.5 + self.epislon)
            final_loss = self.loss(self.theta)
            ee.append(final_loss)
        plt.figure()
        plt.plot(ee)
        plt.show()
        print("adam_final loss:{} weights0:{}".format(final_loss, self.theta[0]))
    def minimize_raw1(self, epochs=EPOCHS):##sgd
        ee=[]
        #print('sgd------------')
        for _ in range(epochs):
            self.t += 1
            g = self.get_gradient(self.theta)
            self.m = self.beta1 * self.m + (1 - self.beta1) * g
            self.v = self.beta2 * self.v + (1 - self.beta2) * (g * g)
            self.m_cat = self.m / (1 - self.beta1 ** self.t)
            self.v_cat = self.v / (1 - self.beta2 ** self.t)
            self.theta -= self.lr * g#self.m_cat / (self.v_cat ** 0.5 + self.epislon)
            final_loss = self.loss(self.theta)
            ee.append(final_loss)
        plt.figure()
        plt.plot(ee)
        plt.show()
        print("sgd_final loss:{} weights0:{}".format(final_loss, self.theta[0]))

    def minimize(self, epochs=EPOCHS):
        ee=[]
        for _ in range(epochs):
            
            self.t += 1
            g = self.get_gradient(self.theta)
            lr = self.lr * (1 - self.beta2 ** self.t) ** 0.5 / (1 - self.beta1 ** self.t)
            self.m = self.beta1 * self.m + (1 - self.beta1) * g
            self.v = self.beta2 * self.v + (1 - self.beta2) * (g * g)
            self.theta -= lr * self.m / (self.v ** 0.5 + self.epislon)
            final_loss = self.loss(self.theta)
            ee.append(final_loss)
        plt.figure()
        plt.plot(ee)
        plt.show()
        print("romsrop_final loss:{} weights0:{}".format(final_loss, self.theta[0]))
    def minimize2(self, epochs=EPOCHS):
        ee=[]
        for _ in range(epochs):
            self.t += 1
            g = self.get_gradient(self.theta)
            lr = self.lr * (1 - self.beta2 ** self.t) ** 0.5 / (1 - self.beta1 ** self.t)
            self.m = self.beta1 * self.m + lr * g
            #self.v = self.beta2 * self.v + (1 - self.beta2) * (g * g)
            self.theta -= self.m# / (self.v ** 0.5 + self.epislon)
            final_loss = self.loss(self.theta)
            ee.append(final_loss)
        plt.figure()
        plt.plot(ee)
        plt.show()
        print("dongliang_final loss:{} weights0:{}".format(final_loss, self.theta[0]))
        

    #t1, g1, lr1, m1, v1, theta1=[],[],[],[],[],[]
    def minimize_show(self, epochs=EPOCHS):
        lr1=[0.1,0.3,0.0001]
        for uu in range(3):
            for _ in range(epochs):
                self.t += 1
                lr=lr1[uu]
                g = self.get_gradient(self.theta)
                lr = self.lr * (1 - self.beta2 ** self.t) ** 0.5 / (1 - self.beta1 ** self.t)
                self.m = self.beta1 * self.m + (1 - self.beta1) * g
                self.v = self.beta2 * self.v + (1 - self.beta2) * (g * g)
                self.theta -= lr * self.m / (self.v ** 0.5 + self.epislon)
                #print("step{: 4d} g:{} lr:{} m:{} v:{} theta:{}".format(self.t, g, lr, self.m, self.v, self.theta))
                #t1.append(self.t) 
                #g1.append(g),
                #l.r1append(l.r) 
                #m1.append(self.m)
                #v1.append(self.v) 
                #theta1.append(self.theta)#=[],[],[],[],[],[]
            #return self.t1, g1, lr1, self.m1, self.v1, self.theta1

            final_loss = self.loss(self.theta)
        print("final loss:{} weights:{}".format(final_loss, self.theta))


def sigmoid(x):
    
    
    return 1/(np.exp(-x) + 1)#0.5*(np.tanh(x) + 1)

def plot_sigmoid_dao( ):
    x=np.arange(-8,8,0.1)
    y=sigmoid(x)*(1-sigmoid(x))
    y1=sigmoid(x)#*(1-sigmoid(x))
    p1=plt.plot(x,y,label='sigmod1 ')
    p2=plt.plot(x,y1,label='sigmod')
    plt.legend( )#[p2, p1], ["yuanshi2", "daosgu 1"], loc='upper left')
    plt.show()
    
    #plt.legend('daoshu','yuanshi')
plot_sigmoid_dao()  
    
def logistic_predictions(weights, inputs):
    # Outputs probability of a label being true according to logistic model.
    return sigmoid(np.dot(inputs, weights))

def training_loss1(weights):
    rr=[]
    # Training loss is the negative log-likelihood of the training labels.
    preds = logistic_predictions(weights, inputs)
    rr.append((preds))
    #print(rr)
    label_probabilities = (preds - targets)**2#preds * targets + (1 - preds) * (1 - targets)
   
    #return -np.sum(np.log(label_probabilities))
    return np.sum((label_probabilities))/preds.shape[0]

def training_loss(weights):
    rr=[]
    s1=np.dot(inputs, weights)
    s2=sigmoid(s1)
    #print('s2=',s2)
    # Training loss is the negative log-likelihood of the training labels.
    preds = s2#logistic_predictions(weights, inputs)
    rr.append((preds))
    #print(preds ,targets)
    ee=[]
    for i in range(preds.shape[0]):
        ee.append((preds[i]-targets[i])**2)
    ee1=sum(ee)
        
    #label_probabilities = (preds - targets)**2#preds * targets + (1 - preds) * (1 - targets)
    #print(label_probabilities)
    #return -np.sum(np.log(label_probabilities))
    return ee1#np.sum((label_probabilities))

这篇关于sgd Momentum Vanilla SGD RMSprop adam等优化算法在寻找 简单logistic分类中的 的应用的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/828817

相关文章

PHP应用中处理限流和API节流的最佳实践

《PHP应用中处理限流和API节流的最佳实践》限流和API节流对于确保Web应用程序的可靠性、安全性和可扩展性至关重要,本文将详细介绍PHP应用中处理限流和API节流的最佳实践,下面就来和小编一起学习... 目录限流的重要性在 php 中实施限流的最佳实践使用集中式存储进行状态管理(如 Redis)采用滑动

深入浅出Spring中的@Autowired自动注入的工作原理及实践应用

《深入浅出Spring中的@Autowired自动注入的工作原理及实践应用》在Spring框架的学习旅程中,@Autowired无疑是一个高频出现却又让初学者头疼的注解,它看似简单,却蕴含着Sprin... 目录深入浅出Spring中的@Autowired:自动注入的奥秘什么是依赖注入?@Autowired

从原理到实战解析Java Stream 的并行流性能优化

《从原理到实战解析JavaStream的并行流性能优化》本文给大家介绍JavaStream的并行流性能优化:从原理到实战的全攻略,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的... 目录一、并行流的核心原理与适用场景二、性能优化的核心策略1. 合理设置并行度:打破默认阈值2. 避免装箱

Python 基于http.server模块实现简单http服务的代码举例

《Python基于http.server模块实现简单http服务的代码举例》Pythonhttp.server模块通过继承BaseHTTPRequestHandler处理HTTP请求,使用Threa... 目录测试环境代码实现相关介绍模块简介类及相关函数简介参考链接测试环境win11专业版python

Python实战之SEO优化自动化工具开发指南

《Python实战之SEO优化自动化工具开发指南》在数字化营销时代,搜索引擎优化(SEO)已成为网站获取流量的重要手段,本文将带您使用Python开发一套完整的SEO自动化工具,需要的可以了解下... 目录前言项目概述技术栈选择核心模块实现1. 关键词研究模块2. 网站技术seo检测模块3. 内容优化分析模

Java实现复杂查询优化的7个技巧小结

《Java实现复杂查询优化的7个技巧小结》在Java项目中,复杂查询是开发者面临的“硬骨头”,本文将通过7个实战技巧,结合代码示例和性能对比,手把手教你如何让复杂查询变得优雅,大家可以根据需求进行选择... 目录一、复杂查询的痛点:为何你的代码“又臭又长”1.1冗余变量与中间状态1.2重复查询与性能陷阱1.

Python内存优化的实战技巧分享

《Python内存优化的实战技巧分享》Python作为一门解释型语言,虽然在开发效率上有着显著优势,但在执行效率方面往往被诟病,然而,通过合理的内存优化策略,我们可以让Python程序的运行速度提升3... 目录前言python内存管理机制引用计数机制垃圾回收机制内存泄漏的常见原因1. 循环引用2. 全局变

PostgreSQL简介及实战应用

《PostgreSQL简介及实战应用》PostgreSQL是一种功能强大的开源关系型数据库管理系统,以其稳定性、高性能、扩展性和复杂查询能力在众多项目中得到广泛应用,本文将从基础概念讲起,逐步深入到高... 目录前言1. PostgreSQL基础1.1 PostgreSQL简介1.2 基础语法1.3 数据库

Python中的filter() 函数的工作原理及应用技巧

《Python中的filter()函数的工作原理及应用技巧》Python的filter()函数用于筛选序列元素,返回迭代器,适合函数式编程,相比列表推导式,内存更优,尤其适用于大数据集,结合lamb... 目录前言一、基本概念基本语法二、使用方式1. 使用 lambda 函数2. 使用普通函数3. 使用 N

Python中yield的用法和实际应用示例

《Python中yield的用法和实际应用示例》在Python中,yield关键字主要用于生成器函数(generatorfunctions)中,其目的是使函数能够像迭代器一样工作,即可以被遍历,但不会... 目录python中yield的用法详解一、引言二、yield的基本用法1、yield与生成器2、yi