基于广义正态分布优化算法的函数寻优算法

2023-11-06 08:50

本文主要是介绍基于广义正态分布优化算法的函数寻优算法,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

  • 一、理论基础
    • 1、广义正态分布优化算法
      • (1)局部开发
      • (2)全局探索
    • 2、GNDO算法伪代码
  • 二、仿真实验与结果分析
  • 三、参考文献

一、理论基础

1、广义正态分布优化算法

广义正态分布优化(Generalized normal distribution optimization, GNDO)算法受到正态分布理论的启发。正态分布又称高斯分布,是描述自然现象的重要工具。正态分布可以定义如下:假设一个随机变量 x x x服位置参数 μ \mu μ和尺度参数 δ \delta δ的概率分布,其概率密度函数可以表示为: f ( x ) = 1 2 π δ exp ⁡ ( − ( x − μ ) 2 2 δ 2 ) (1) f(x)=\frac{1}{\sqrt{2\pi\delta}}\exp\left(-\frac{(x-\mu)^2}{2\delta^2}\right)\tag{1} f(x)=2πδ 1exp(2δ2(xμ)2)(1)其中, x x x被称为正态随机变量,这个分布可以称为正态分布,也就是 x ∼ N ( μ , δ 2 ) x\sim N(\mu,\delta^2) xN(μ,δ2)。根据式(1),正态分布包括两个变量,即位置参数 μ \mu μ和尺度参数 δ \delta δ。位置参数 μ \mu μ和尺度参数 δ \delta δ分别用来表示随机变量的均值和标准差。
GNDO中设计的信息共享策略包括局部开发和全局探索。局部开发基于建立的广义正态分布模型,该模型由当前平均位置和当前最优位置引导;全局探索涉及三个随机选择的个体。这两种学习策略的详细解释如下:

(1)局部开发

局部开发是指在包含所有个体当前位置的搜索空间周围找到更好解决方案的过程。基于个体在种群中的分布与正态分布之间的关系,可以通过以下方法建立优化的广义正态分布模型: v i t = μ i + δ i × η , i = 1 , 2 , ⋯ , N (2) \boldsymbol v_i^t=\mu_i+\delta_i\times\eta,\,\,i=1,2,\cdots,N\tag{2} vit=μi+δi×η,i=1,2,,N(2)其中, v i t \boldsymbol v_i^t vit是第 i i i个个体在时间 t t t的轨迹向量, μ i \mu_i μi是第 i i i个个体的广义平均位置, δ i \delta_i δi是广义标准差, η \eta η是惩罚因子。 μ i \mu_i μi δ i \delta_i δi η \eta η可以定义为: μ i = 1 3 ( x i t + x Best t + M ) (3) \mu_i=\frac13(\boldsymbol x_i^t+\boldsymbol x_{\text{Best}}^t+\boldsymbol M)\tag{3} μi=31(xit+xBestt+M)(3) δ i = 1 3 [ ( x i t − μ ) 2 + ( x Best t − μ ) 2 + ( M − μ ) 2 ] (4) \delta_i=\sqrt{\frac13[(\boldsymbol x_i^t-\mu)^2+(\boldsymbol x_{\text{Best}}^t-\mu)^2+(\boldsymbol M-\mu)^2]}\tag{4} δi=31[(xitμ)2+(xBesttμ)2+(Mμ)2] (4) η = { − log ⁡ ( λ 1 ) × cos ⁡ ( 2 π λ 2 ) , if a ≤ b − log ⁡ ( λ 1 ) × cos ⁡ ( 2 π λ 2 + π ) , otherwise (5) \eta=\begin{dcases}\sqrt{-\log(\lambda_1)}\times\cos(2\pi\lambda_2),\quad\quad\,\,\,\,\,\text{if}\,\,a\leq b\\[2ex]\sqrt{-\log(\lambda_1)}\times\cos(2\pi\lambda_2+\pi),\quad\text{otherwise}\end{dcases}\tag{5} η=log(λ1) ×cos(2πλ2),ifablog(λ1) ×cos(2πλ2+π),otherwise(5)其中, a a a b b b λ 1 \lambda_1 λ1 λ 2 \lambda_2 λ2是介于0和1之间的随机数, x Best t \boldsymbol x_{\text{Best}}^t xBestt是当前最佳位置, M \boldsymbol M M是当前种群的平均位置。 M \boldsymbol M M计算如下: M = ∑ i = 1 N x i t N (6) \boldsymbol M=\frac{\sum_{i=1}^N\boldsymbol x_i^t}{N}\tag{6} M=Ni=1Nxit(6)

  • 广义平均位置 μ i \mu_i μi。当前最佳个体 x Best t \boldsymbol x_{\text{Best}}^t xBestt包含与全局最优解相关的有用信息。因此,第 i i i个个体 x i t \boldsymbol x_i^t xit被拉向当前最佳个体 x Best t \boldsymbol x_{\text{Best}}^t xBestt的方向,后者有更多机会找到更好的解决方案。请注意,当 x Best t \boldsymbol x_{\text{Best}}^t xBestt陷入局部最优时,所有个体仍会朝 x Best t \boldsymbol x_{\text{Best}}^t xBestt的方向移动,这将导致整个种群过早收敛。为了解决这个问题,引入了当前种群的平均位置 M \boldsymbol M M,如式(6)所示。种群中的个体可以朝着最佳个体 x Best t \boldsymbol x_{\text{Best}}^t xBestt和平均位置 M \boldsymbol M M之间的方向移动。平均位置 M \boldsymbol M M在迭代过程中会发生变化,这有利于找到更好的解决方案。因此,在设计的局部开发策略中引入了平均位置 M \boldsymbol M M,在一定程度上提高了避免局部最优的机会。
  • 广义标准差 δ i \delta_i δi。广义标准差 δ i \delta_i δi用于增强所提出的GNDO的局部搜索能力。基于式(3)和(4),广义标准差 δ i \delta_i δi可以被视为一个随机序列,在广义平均位置 μ i \mu_i μi周围进行局部搜索。此外,根据式(4),第 i i i个个体 x i t \boldsymbol x_i^t xit的位置和平均位置 M \boldsymbol M M与最佳个体 x Best t \boldsymbol x_{\text{Best}}^t xBestt的位置之间的距离越大,生成的随机序列的波动越大。也就是说,当个体 x i t \boldsymbol x_i^t xit的适应度值非常差时,个体找到更好的解决方案的可能性很小。因此,具有强波动的随机序列可以帮助个体寻找更好的解。当个体 x i t \boldsymbol x_i^t xit具有良好的适应值时,个体很有可能在其周围找到更好的解决方案。因此,具有弱波动的随机序列可以帮助个体获得更好的解。
  • 惩罚因子 η \eta η。在GNDO算法中,惩罚因子 η \eta η用于进一步增强生成的广义标准差的随机性。图1显示了由式(5)产生的随机序列。如图1所示,大多数惩罚因子位于-1和1。请注意,生成的广义标准差均为正值。因此,惩罚因子可以增加GNDO的搜索方向,从而提高GNDO的搜索能力。
    在这里插入图片描述
    图1 由式(5)生成的随机序列

(2)全局探索

全局探索是在全局范围内搜索一个有希望的区域。GNDO的全局探索基于三个随机选择的个体,可以表示为: v i t = x i t + β × ( ∣ λ 3 ∣ × v 1 ) ⏟ Local information sharing + ( 1 − β ) × ( ∣ λ 4 ∣ × v 2 ) ⏟ Global information sharing (7) \boldsymbol v_i^t=\boldsymbol x_i^t+\underbrace{\beta\times(|\lambda_3|\times\boldsymbol v_1)}_{\text{Local information sharing}}+\underbrace{(1-\beta)\times(|\lambda_4|\times\boldsymbol v_2)}_{\text{Global information sharing}}\tag{7} vit=xit+Local information sharing β×(λ3×v1)+Global information sharing (1β)×(λ4×v2)(7)其中, λ 3 \lambda_3 λ3 λ 4 \lambda_4 λ4是服从标准正态分布的两个随机数,称为调整参数的β是介于0和1之间的随机数, v 1 \boldsymbol v_1 v1 v 2 \boldsymbol v_2 v2是两个轨迹向量。 v 1 \boldsymbol v_1 v1 v 2 \boldsymbol v_2 v2可通过以下公式计算: v 1 = { x i t − x p 1 t , if f ( x i t ) < f ( x p 1 t ) x p 1 t − x i t , otherwise (8) \boldsymbol v_1=\begin{dcases}\boldsymbol x_i^t-\boldsymbol x_{p1}^t,\quad\text{if}\,\,f(\boldsymbol x_i^t)<f(\boldsymbol x_{p1}^t)\\[2ex]\boldsymbol x_{p1}^t-\boldsymbol x_i^t,\quad\text{otherwise}\end{dcases}\tag{8} v1=xitxp1t,iff(xit)<f(xp1t)xp1txit,otherwise(8) v 2 = { x p 2 t − x p 3 t , if f ( x p 2 t ) < f ( x p 3 t ) x p 3 t − x p 2 t , otherwise (9) \boldsymbol v_2=\begin{dcases}\boldsymbol x_{p2}^t-\boldsymbol x_{p3}^t,\quad\text{if}\,\,f(\boldsymbol x_{p2}^t)<f(\boldsymbol x_{p3}^t)\\[2ex]\boldsymbol x_{p3}^t-\boldsymbol x_{p2}^t,\quad\text{otherwise}\end{dcases}\tag{9} v2=xp2txp3t,iff(xp2t)<f(xp3t)xp3txp2t,otherwise(9)其中, p 1 p1 p1 p 2 p2 p2 p 3 p3 p3是从1到 N N N中选择的三个随机整数,且满足 p 1 ≠ p 2 ≠ p 3 p1\neq p2\neq p3 p1=p2=p3。给定式(8)和式(9),式(7)右侧的第二项可以称为局部学习项,这意味着个体 p 1 p1 p1与个体 i i i共享信息;式(7)右侧的第三项可以称为全局信息共享项,它表示个体 p 2 p2 p2 p 3 p3 p3向个体 i i i提供信息。调整参数 β \beta β用于平衡两种信息共享策略。此外, λ 3 \lambda_3 λ3 λ 4 \lambda_4 λ4是标准正态分布的随机数,这可以使GNDO在执行全局搜索的过程中拥有更大的搜索空间。

2、GNDO算法伪代码

GNDO算法伪代码如图2所示。
在这里插入图片描述

图2 GNDO算法伪代码

二、仿真实验与结果分析

以常用23个测试函数中的F1、F2(单峰函数/10维)、F9、F10(多峰函数/10维)、F14、F15(固定维度多峰函数/2维、4维)为例,实验设置种群规模为30,最大迭代次数为500,独立运行30次,结果显示如下:
在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述

函数:F1
GNDO:最差值: 0.60223, 最优值: 1.0561e-07, 平均值: 0.038551, 标准差: 0.14564
函数:F2
GNDO:最差值: 1.0016, 最优值: 4.1065e-06, 平均值: 0.042532, 标准差: 0.18644
函数:F9
GNDO:最差值: 9.9497, 最优值: 0.99496, 平均值: 5.0774, 标准差: 1.9051
函数:F10
GNDO:最差值: 6.8825, 最优值: 2.3168, 平均值: 4.2981, 标准差: 1.5142
函数:F14
GNDO:最差值: 2.9821, 最优值: 0.998, 平均值: 1.0641, 标准差: 0.36225
函数:F15
GNDO:最差值: 0.020363, 最优值: 0.00030749, 平均值: 0.001679, 标准差: 0.0050817

实验结果表明:GNDO算法简单有效的算法,无需对初始参数进行任何微调,优化性能良好。

三、参考文献

[1] Yiying Zhang, Zhigang Jin, Seyedali Mirjalili. Generalized normal distribution optimization and its applications in parameter extraction of photovoltaic models[J]. Energy Conversion and Management, 2020, 224: 113301.

这篇关于基于广义正态分布优化算法的函数寻优算法的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/355635

相关文章

Spring Boot基于 JWT 优化 Spring Security 无状态登录实战指南

《SpringBoot基于JWT优化SpringSecurity无状态登录实战指南》本文介绍如何使用JWT优化SpringSecurity实现无状态登录,提高接口安全性,并通过实际操作步骤... 目录Spring Boot 实战:基于 JWT 优化 Spring Security 无状态登录一、先搞懂:为什

pandas使用apply函数给表格同时添加多列

《pandas使用apply函数给表格同时添加多列》本文介绍了利用Pandas的apply函数在DataFrame中同时添加多列,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习... 目录一、Pandas使用apply函数给表格同时添加多列二、应用示例一、Pandas使用apply函

Python中Namespace()函数详解

《Python中Namespace()函数详解》Namespace是argparse模块提供的一个类,用于创建命名空间对象,它允许通过点操作符访问数据,比字典更易读,在深度学习项目中常用于加载配置、命... 目录1. 为什么使用 Namespace?2. Namespace 的本质是什么?3. Namesp

Java JAR 启动内存参数配置指南(从基础设置到性能优化)

《JavaJAR启动内存参数配置指南(从基础设置到性能优化)》在启动Java可执行JAR文件时,合理配置JVM内存参数是保障应用稳定性和性能的关键,本文将系统讲解如何通过命令行参数、环境变量等方式... 目录一、核心内存参数详解1.1 堆内存配置1.2 元空间配置(MetASPace)1.3 线程栈配置1.

MySQL中如何求平均值常见实例(AVG函数详解)

《MySQL中如何求平均值常见实例(AVG函数详解)》MySQLavg()是一个聚合函数,用于返回各种记录中表达式的平均值,:本文主要介绍MySQL中用AVG函数如何求平均值的相关资料,文中通过代... 目录前言一、基本语法二、示例讲解1. 计算全表平均分2. 计算某门课程的平均分(例如:Math)三、结合

Python函数作用域与闭包举例深度解析

《Python函数作用域与闭包举例深度解析》Python函数的作用域规则和闭包是编程中的关键概念,它们决定了变量的访问和生命周期,:本文主要介绍Python函数作用域与闭包的相关资料,文中通过代码... 目录1. 基础作用域访问示例1:访问全局变量示例2:访问外层函数变量2. 闭包基础示例3:简单闭包示例4

深入理解Mysql OnlineDDL的算法

《深入理解MysqlOnlineDDL的算法》本文主要介绍了讲解MysqlOnlineDDL的算法,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小... 目录一、Online DDL 是什么?二、Online DDL 的三种主要算法2.1COPY(复制法)

Python中isinstance()函数原理解释及详细用法示例

《Python中isinstance()函数原理解释及详细用法示例》isinstance()是Python内置的一个非常有用的函数,用于检查一个对象是否属于指定的类型或类型元组中的某一个类型,它是Py... 目录python中isinstance()函数原理解释及详细用法指南一、isinstance()函数

python中的高阶函数示例详解

《python中的高阶函数示例详解》在Python中,高阶函数是指接受函数作为参数或返回函数作为结果的函数,下面:本文主要介绍python中高阶函数的相关资料,文中通过代码介绍的非常详细,需要的朋... 目录1.定义2.map函数3.filter函数4.reduce函数5.sorted函数6.自定义高阶函数

Python中的sort方法、sorted函数与lambda表达式及用法详解

《Python中的sort方法、sorted函数与lambda表达式及用法详解》文章对比了Python中list.sort()与sorted()函数的区别,指出sort()原地排序返回None,sor... 目录1. sort()方法1.1 sort()方法1.2 基本语法和参数A. reverse参数B.