OpenAI提出Reptile:可扩展的元学习算法

2024-04-12 20:18

本文主要是介绍OpenAI提出Reptile:可扩展的元学习算法,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

选自OpenAI Blog

作者:ALEX NICHOL & JOHN SCHULMAN

机器之心编译


近日,OpenAI 发布了简单元学习算法 Reptile,该算法对一项任务进行重复采样、执行随机梯度下降、更新初始参数直到习得最终参数。该方法的性能可与 MAML(一种广泛应用的元学习算法)媲美,且比后者更易实现,计算效率更高。


元学习是学习如何学习的过程。元学习算法会学习任务的一个分布,每项任务都是学习问题,并输出快速学习器,学习器可从少量样本中学习并进行泛化。一个得到充分研究的元学习问题是 few-shot 分类,其中每项任务都是分类问题,学习器只能看到 1-5 个输入-输出样本(每个类别),之后学习器必须对新输入进行分类。下面,你可以尝试 OpenAI 的 1-shot 分类交互 Demo,其使用了 Reptile。



点击「Edit All」按钮,绘制三种不同的形状或符号,然后在后侧的输入区域绘制其中一个形状,就可以看到 Reptile 的分类效果。前三个图是标注样本:每个定义一类。最后的图表示未知样本,Reptile 输出其属于每个类别的概率。(请点击原文链接体验交互)


Reptile 的工作原理


和 MAML 类似,Reptile 会学习神经网络的参数初始化方法,以使神经网络可使用少量新任务数据进行调整。但是 MAML 通过梯度下降算法的计算图来展开微分计算过程,而 Reptile 在每个任务中执行标准形式的随机梯度下降(SGD):它不用展开计算图或计算任意二阶导数。因此 Reptile 比 MAML 所需的计算量和内存都更少。伪代码如下:



最后一步也可以把 Φ−W 作为梯度,将其插入如 Adam 等更复杂的优化器。


很令人震惊,该方法运行效果很好。如果 k=1,该算法对应「联合训练」(joint training):在多项任务上执行 SGD。尽管联合训练在很多情况下可以学到有用的初始化,但在 zero-shot 学习不可能出现的情况下(如输出标签是随机排列的)它能学习的很少。Reptile 要求 k>1,更新依赖于损失函数的高阶导数。正如 OpenAI 在论文中展示的那样,k>1 时 Reptile 的行为与 k=1(联合训练)时截然不同。


为了分析 Reptile 的工作原理,OpenAI 使用泰勒级数逼近更新。Reptile 更新最大化同一任务中不同小批量的梯度内积,以改善泛化效果。该发现可能在元学习之外也有影响,如解释 SGD 的泛化性能。OpenAI 的分析结果表明 Reptile 和 MAML 可执行类似的更新,包括具备不同权重的相同两个项。


在 OpenAI 的实验中,他们展示了 Reptile 和 MAML 在 Omniglot 和 Mini-ImageNet 基准上执行 few-shot 分类任务时具备类似的性能。Reptile 收敛速度更快,因为其更新具备更低的方差。OpenAI 关于 Reptile 的分析表明,我们可以使用不同的 SGD 梯度组合获取大量不同的算法。在下图中,假设我们在不同任务中使用不同批量大小的 SGD 执行 K 个更新步,产生 g_1,g_2,…,g_k k 个梯度。下图展示了在 Omniglot 上的学习曲线,且它由梯度的和作为元梯度而绘制出。g_2 对应一阶 MAML,即原版 MAML 论文提出的算法。由于方差缩减,使用更多的梯度会导致更快的学习或收敛。注意仅使用 g_1(对应 k=1)如预测那样在这个任务中没有什么提升,因为我们无法改进 zero-shot 的性能。



实现


实现的 GitHub 地址:https://github.com/openai/supervised-reptile


该实现应用 TensorFlow 进行相关的计算,代码可在 Omniglot 和 Mini-ImageNet 上复现。此外,OpenAI 也发布了一个更小的基于 JavaScript 的实现(https://github.com/openai/supervised-reptile/tree/master/web),其对使用 TensorFlow 预训练的模型进行了调整——以上 demo 就是基于此实现的。


最后,下面是一个 few-shot 回归的简单示例,预测 10(x,y) 对的随机正弦波。该示例基于 PyTorch:


  
  1. import numpy as np

  2. import torch

  3. from torch import nn, autograd as ag

  4. import matplotlib.pyplot as plt

  5. from copy import deepcopy

  6. seed = 0

  7. plot = True

  8. innerstepsize = 0.02 # stepsize in inner SGD

  9. innerepochs = 1 # number of epochs of each inner SGD

  10. outerstepsize0 = 0.1 # stepsize of outer optimization, i.e., meta-optimization

  11. niterations = 30000 # number of outer updates; each iteration we sample one task and update on it

  12. rng = np.random.RandomState(seed)

  13. torch.manual_seed(seed)

  14. # Define task distribution

  15. x_all = np.linspace(-5, 5, 50)[:,None] # All of the x points

  16. ntrain = 10 # Size of training minibatches

  17. def gen_task():

  18.    "Generate classification problem"

  19.    phase = rng.uniform(low=0, high=2*np.pi)

  20.    ampl = rng.uniform(0.1, 5)

  21.    f_randomsine = lambda x : np.sin(x + phase) * ampl

  22.    return f_randomsine

  23. # Define model. Reptile paper uses ReLU, but Tanh gives slightly better results

  24. model = nn.Sequential(

  25.    nn.Linear(1, 64),

  26.    nn.Tanh(),

  27.    nn.Linear(64, 64),

  28.    nn.Tanh(),

  29.    nn.Linear(64, 1),

  30. )

  31. def totorch(x):

  32.    return ag.Variable(torch.Tensor(x))

  33. def train_on_batch(x, y):

  34.    x = totorch(x)

  35.    y = totorch(y)

  36.    model.zero_grad()

  37.    ypred = model(x)

  38.    loss = (ypred - y).pow(2).mean()

  39.    loss.backward()

  40.    for param in model.parameters():

  41.        param.data -= innerstepsize * param.grad.data

  42. def predict(x):

  43.    x = totorch(x)

  44.    return model(x).data.numpy()

  45. # Choose a fixed task and minibatch for visualization

  46. f_plot = gen_task()

  47. xtrain_plot = x_all[rng.choice(len(x_all), size=ntrain)]

  48. # Reptile training loop

  49. for iteration in range(niterations):

  50.    weights_before = deepcopy(model.state_dict())

  51.    # Generate task

  52.    f = gen_task()

  53.    y_all = f(x_all)

  54.    # Do SGD on this task

  55.    inds = rng.permutation(len(x_all))

  56.    for _ in range(innerepochs):

  57.        for start in range(0, len(x_all), ntrain):

  58.            mbinds = inds[start:start+ntrain]

  59.            train_on_batch(x_all[mbinds], y_all[mbinds])

  60.    # Interpolate between current weights and trained weights from this task

  61.    # I.e. (weights_before - weights_after) is the meta-gradient

  62.    weights_after = model.state_dict()

  63.    outerstepsize = outerstepsize0 * (1 - iteration / niterations) # linear schedule

  64.    model.load_state_dict({name :

  65.        weights_before[name] + (weights_after[name] - weights_before[name]) * outerstepsize

  66.        for name in weights_before})

  67.    # Periodically plot the results on a particular task and minibatch

  68.    if plot and iteration==0 or (iteration+1) % 1000 == 0:

  69.        plt.cla()

  70.        f = f_plot

  71.        weights_before = deepcopy(model.state_dict()) # save snapshot before evaluation

  72.        plt.plot(x_all, predict(x_all), label="pred after 0", color=(0,0,1))

  73.        for inneriter in range(32):

  74.            train_on_batch(xtrain_plot, f(xtrain_plot))

  75.            if (inneriter+1) % 8 == 0:

  76.                frac = (inneriter+1) / 32

  77.                plt.plot(x_all, predict(x_all), label="pred after %i"%(inneriter+1), color=(frac, 0, 1-frac))

  78.        plt.plot(x_all, f(x_all), label="true", color=(0,1,0))

  79.        lossval = np.square(predict(x_all) - f(x_all)).mean()

  80.        plt.plot(xtrain_plot, f(xtrain_plot), "x", label="train", color="k")

  81.        plt.ylim(-4,4)

  82.        plt.legend(loc="lower right")

  83.        plt.pause(0.01)

  84.        model.load_state_dict(weights_before) # restore from snapshot

  85.        print(f"-----------------------------")

  86.        print(f"iteration               {iteration+1}")

  87.        print(f"loss on plotted curve   {lossval:.3f}") # would be better to average loss ove


论文:Reptile: a Scalable Metalearning Algorithm 



地址:https://d4mucfpksywv.cloudfront.net/research-covers/reptile/reptile_update.pdf


摘要:本论文讨论了元学习问题,即存在任务的一个分布,我们希望找到能在该分布所采样的任务(模型未见过的任务)中快速学习的智能体。我们提出了一种简单元学习算法 Reptile,它会学习一种能在新任务中快速精调的参数初始化方法。Reptile 会重复采样一个任务,并在该任务上执行训练,且将初始化朝该任务的已训练权重方向移动。Reptile 不像同样学习初始化的 MAML,它并不要求在优化过程中是可微的,因此它更适合于需要很多更新步的优化问题。我们的研究发现,Reptile 在一些有具备完整基准的 few-shot 分类任务上表现良好。此外,我们还提供了一些理论性分析,以帮助理解 Reptile 的工作原理。


原文链接:https://blog.openai.com/reptile/



点击下方“阅读原文”了解更多信息
↓↓↓

这篇关于OpenAI提出Reptile:可扩展的元学习算法的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/898135

相关文章

Java学习手册之Filter和Listener使用方法

《Java学习手册之Filter和Listener使用方法》:本文主要介绍Java学习手册之Filter和Listener使用方法的相关资料,Filter是一种拦截器,可以在请求到达Servl... 目录一、Filter(过滤器)1. Filter 的工作原理2. Filter 的配置与使用二、Listen

openCV中KNN算法的实现

《openCV中KNN算法的实现》KNN算法是一种简单且常用的分类算法,本文主要介绍了openCV中KNN算法的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的... 目录KNN算法流程使用OpenCV实现KNNOpenCV 是一个开源的跨平台计算机视觉库,它提供了各

springboot+dubbo实现时间轮算法

《springboot+dubbo实现时间轮算法》时间轮是一种高效利用线程资源进行批量化调度的算法,本文主要介绍了springboot+dubbo实现时间轮算法,文中通过示例代码介绍的非常详细,对大家... 目录前言一、参数说明二、具体实现1、HashedwheelTimer2、createWheel3、n

SpringBoot实现MD5加盐算法的示例代码

《SpringBoot实现MD5加盐算法的示例代码》加盐算法是一种用于增强密码安全性的技术,本文主要介绍了SpringBoot实现MD5加盐算法的示例代码,文中通过示例代码介绍的非常详细,对大家的学习... 目录一、什么是加盐算法二、如何实现加盐算法2.1 加盐算法代码实现2.2 注册页面中进行密码加盐2.

Java时间轮调度算法的代码实现

《Java时间轮调度算法的代码实现》时间轮是一种高效的定时调度算法,主要用于管理延时任务或周期性任务,它通过一个环形数组(时间轮)和指针来实现,将大量定时任务分摊到固定的时间槽中,极大地降低了时间复杂... 目录1、简述2、时间轮的原理3. 时间轮的实现步骤3.1 定义时间槽3.2 定义时间轮3.3 使用时

Java常用注解扩展对比举例详解

《Java常用注解扩展对比举例详解》:本文主要介绍Java常用注解扩展对比的相关资料,提供了丰富的代码示例,并总结了最佳实践建议,帮助开发者更好地理解和应用这些注解,需要的朋友可以参考下... 目录一、@Controller 与 @RestController 对比二、使用 @Data 与 不使用 @Dat

Spring组件初始化扩展点BeanPostProcessor的作用详解

《Spring组件初始化扩展点BeanPostProcessor的作用详解》本文通过实战案例和常见应用场景详细介绍了BeanPostProcessor的使用,并强调了其在Spring扩展中的重要性,感... 目录一、概述二、BeanPostProcessor的作用三、核心方法解析1、postProcessB

Java进阶学习之如何开启远程调式

《Java进阶学习之如何开启远程调式》Java开发中的远程调试是一项至关重要的技能,特别是在处理生产环境的问题或者协作开发时,:本文主要介绍Java进阶学习之如何开启远程调式的相关资料,需要的朋友... 目录概述Java远程调试的开启与底层原理开启Java远程调试底层原理JVM参数总结&nbsMbKKXJx

如何通过Golang的container/list实现LRU缓存算法

《如何通过Golang的container/list实现LRU缓存算法》文章介绍了Go语言中container/list包实现的双向链表,并探讨了如何使用链表实现LRU缓存,LRU缓存通过维护一个双向... 目录力扣:146. LRU 缓存主要结构 List 和 Element常用方法1. 初始化链表2.

SpringBoot快速接入OpenAI大模型的方法(JDK8)

《SpringBoot快速接入OpenAI大模型的方法(JDK8)》本文介绍了如何使用AI4J快速接入OpenAI大模型,并展示了如何实现流式与非流式的输出,以及对函数调用的使用,AI4J支持JDK8... 目录使用AI4J快速接入OpenAI大模型介绍AI4J-github快速使用创建SpringBoot