[代码学习]matmul的理解与使用

2023-10-12 05:01

本文主要是介绍[代码学习]matmul的理解与使用,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

matmul 的理解与使用

引言:本实例以paddle框架中的matmul为例进行说明。torchnumpy中的matmul同理。

简介

PaddlePaddle中的matmul是一个矩阵乘法函数,可以用来实现两个矩阵的乘法操作。在PaddlePaddle的动态图模式下,可以用paddle.matmul()函数来调用该函数,其语法如下:

# 源码链接:https://github.com/PaddlePaddle/Paddle/blob/release/2.5/python/paddle/tensor/linalg.py#L139
paddle.matmul(x, y, transpose_x=False, transpose_y=False, name=None)

参数

  • x (Tensor) - 输入变量,类型为 Tensor,数据类型为 bfloat16, float16, float32, float64。

  • y (Tensor) - 输入变量,类型为 Tensor,数据类型为 bfloat16, float16, float32, float64。

  • transpose_x (bool,可选) - 相乘前是否转置 x,默认值为 False。

  • transpose_y (bool,可选) - 相乘前是否转置 y,默认值为 False。

  • name (str,可选) - 具体用法请参见 Name,一般无需设置,默认值为 None。

返回

  • Tensor,矩阵相乘后的结果,数据类型和输入数据类型一致。

说明

目前,输入 Tensor 的维数可以是任意数量,matmul 可以用于 实现 dot , matmul 和 batchmatmul。实际行为取决于输入 x 、输入 y 、 transpose_x , transpose_y。具体如下:

如果 transpose 为真,则对应 Tensor 的后两维会转置。如果 Tensor 的一维,则转置无效。假定 x 是一个 shape=[D] 的一维 Tensor,则 x 视为 [1, D]。然而,y 是一个 shape=[D]的一维 Tensor,则视为[D, 1]。

乘法行为取决于 x 和 y 的尺寸。具体如下:

  • 如果两个 Tensor 均为一维,则获得点积结果。

  • 如果两个 Tensor 都是二维的,则获得矩阵与矩阵的乘积。

  • 如果 x 是 1 维的,而 y 是 2 维的,则将 1 放在 x 维度之前,以进行矩阵乘法。矩阵相乘后,将删除前置尺寸。

  • 如果 x 是 2 维的,而 y 是 1 维的,获得矩阵与向量的乘积。

  • 如果两个输入至少为一维,且至少一个输入为 N 维(其中 N> 2),则将获得批矩阵乘法。如果第一个自变量是一维的,则将 1 放在其维度的前面,以便进行批量矩阵的乘法运算,然后将其删除。如果第二个参数为一维,则将 1 附加到其维度后面,以实现成批矩阵倍数的目的,然后将其删除。根据广播规则广播非矩阵维度(不包括最后两个维度)。例如,如果输入 x 是(j,1,n,m)Tensor,另一个 y 是(k,m,p)Tensor,则 out 将是(j,k,n,p)Tensor。

实例

下面对不同维度举例,演示如何使用PaddlePaddle中的matmul函数计算两个矩阵的乘积:

[3,2] matmul [2,2] -> [3,2]

import paddle# 定义两个输入矩阵
x = paddle.to_tensor([[1, 2], [3, 4], [5, 6]], dtype='float32')
y = paddle.to_tensor([[2, 1], [4, 3]], dtype='float32')# 计算矩阵乘积
z = paddle.matmul(x, y)# 打印结果
print(f"x: \n{x.numpy()}, shape: {x.shape}")
print(f"y: \n{y.numpy()}, shape: {y.shape}")
print(f"z: \n{z.numpy()}, shape: {z.shape}")

输出结果为:

x: 
[[1. 2.][3. 4.][5. 6.]], shape: [3, 2]
y: 
[[2. 1.][4. 3.]], shape: [2, 2]
z: 
[[10.  7.][22. 15.][34. 23.]], shape: [3, 2]

在这个例子中,我们首先定义了两个输入矩阵x和y,然后调用paddle.matmul()函数计算它们的乘积,并将结果保存到变量z中。最后,我们打印出x,y,z的值和形状,方便观察结果。

[2] matmul [2, 3] -> [3]

import paddle# 定义两个输入矩阵
# x = paddle.to_tensor([[1, 2], [3, 4], [5, 6]], dtype='float32')
# x = paddle.to_tensor([[1, 2], [3, 4]], dtype='float32')
x = paddle.to_tensor([[1, 2, 3], [4, 5, 6]], dtype='float32')# y = paddle.to_tensor([[2, 1], [4, 3]], dtype='float32')
y = paddle.to_tensor([2, 1], dtype='float32')# 计算矩阵乘积
# z = paddle.matmul(x, y)
z = paddle.matmul(y, x)# 打印结果
print(f"x: \n{x.numpy()}, shape: {x.shape}")
print(f"y: \n{y.numpy()}, shape: {y.shape}")
print(f"z: \n{z.numpy()}, shape: {z.shape}")

输出结果为:

x: 
[[1. 2. 3.][4. 5. 6.]], shape: [2, 3]
y: 
[2. 1.], shape: [2]
z: 
[ 6.  9. 12.], shape: [3]

[2,2] matmul [2] -> [2]

如果第一个参数或者第二个参数是1 维的,它会提升该参数为矩阵(根据另一个参数维数,给该参数增加一个为1的维数)。矩阵相乘之后会将为1的维数去掉。

import paddle# 定义两个输入矩阵
# x = paddle.to_tensor([[1, 2], [3, 4], [5, 6]], dtype='float32')
x = paddle.to_tensor([[1, 2], [3, 4]], dtype='float32')# y = paddle.to_tensor([[2, 1], [4, 3]], dtype='float32')
y = paddle.to_tensor([2, 1], dtype='float32')# 计算矩阵乘积
z = paddle.matmul(x, y)# 打印结果
print(f"x: \n{x.numpy()}, shape: {x.shape}")
print(f"y: \n{y.numpy()}, shape: {y.shape}")
print(f"z: \n{z.numpy()}, shape: {z.shape}")

输出结果为:

x: 
[[1. 2.][3. 4.]], shape: [2, 2]
y: 
[2. 1.], shape: [2]
z: 
[ 4. 10.], shape: [2]

[2] matmul [2] -> [1]

import paddle# 定义两个输入矩阵
# x = paddle.to_tensor([[1, 2], [3, 4], [5, 6]], dtype='float32')
# x = paddle.to_tensor([[1, 2], [3, 4]], dtype='float32')
x = paddle.to_tensor([1, 2], dtype='float32')# y = paddle.to_tensor([[2, 1], [4, 3]], dtype='float32')
y = paddle.to_tensor([2, 1], dtype='float32')# 计算矩阵乘积
z = paddle.matmul(x, y)# 打印结果
print(f"x: \n{x.numpy()}, shape: {x.shape}")
print(f"y: \n{y.numpy()}, shape: {y.shape}")
print(f"z: \n{z.numpy()}, shape: {z.shape}")

输出结果为:

x: 
[1. 2.], shape: [2]
y: 
[2. 1.], shape: [2]
z: 
[4.], shape: [1]

reference

@misc{BibEntry2023Oct,
title = {{matmul-API文档-PaddlePaddle深度学习平台}},
year = {2023},
month = oct,
urldate = {2023-10-10},
language = {chinese},
note = {[Online; accessed 10. Oct. 2023]},
url = {https://www.paddlepaddle.org.cn/documentation/docs/zh/api/paddle/matmul_cn.html}
}

这篇关于[代码学习]matmul的理解与使用的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/193445

相关文章

Java中流式并行操作parallelStream的原理和使用方法

《Java中流式并行操作parallelStream的原理和使用方法》本文详细介绍了Java中的并行流(parallelStream)的原理、正确使用方法以及在实际业务中的应用案例,并指出在使用并行流... 目录Java中流式并行操作parallelStream0. 问题的产生1. 什么是parallelS

Linux join命令的使用及说明

《Linuxjoin命令的使用及说明》`join`命令用于在Linux中按字段将两个文件进行连接,类似于SQL的JOIN,它需要两个文件按用于匹配的字段排序,并且第一个文件的换行符必须是LF,`jo... 目录一. 基本语法二. 数据准备三. 指定文件的连接key四.-a输出指定文件的所有行五.-o指定输出

Linux jq命令的使用解读

《Linuxjq命令的使用解读》jq是一个强大的命令行工具,用于处理JSON数据,它可以用来查看、过滤、修改、格式化JSON数据,通过使用各种选项和过滤器,可以实现复杂的JSON处理任务... 目录一. 简介二. 选项2.1.2.2-c2.3-r2.4-R三. 字段提取3.1 普通字段3.2 数组字段四.

Linux kill正在执行的后台任务 kill进程组使用详解

《Linuxkill正在执行的后台任务kill进程组使用详解》文章介绍了两个脚本的功能和区别,以及执行这些脚本时遇到的进程管理问题,通过查看进程树、使用`kill`命令和`lsof`命令,分析了子... 目录零. 用到的命令一. 待执行的脚本二. 执行含子进程的脚本,并kill2.1 进程查看2.2 遇到的

详解SpringBoot+Ehcache使用示例

《详解SpringBoot+Ehcache使用示例》本文介绍了SpringBoot中配置Ehcache、自定义get/set方式,并实际使用缓存的过程,文中通过示例代码介绍的非常详细,对大家的学习或者... 目录摘要概念内存与磁盘持久化存储:配置灵活性:编码示例引入依赖:配置ehcache.XML文件:配置

Java 虚拟线程的创建与使用深度解析

《Java虚拟线程的创建与使用深度解析》虚拟线程是Java19中以预览特性形式引入,Java21起正式发布的轻量级线程,本文给大家介绍Java虚拟线程的创建与使用,感兴趣的朋友一起看看吧... 目录一、虚拟线程简介1.1 什么是虚拟线程?1.2 为什么需要虚拟线程?二、虚拟线程与平台线程对比代码对比示例:三

k8s按需创建PV和使用PVC详解

《k8s按需创建PV和使用PVC详解》Kubernetes中,PV和PVC用于管理持久存储,StorageClass实现动态PV分配,PVC声明存储需求并绑定PV,通过kubectl验证状态,注意回收... 目录1.按需创建 PV(使用 StorageClass)创建 StorageClass2.创建 PV

Redis 基本数据类型和使用详解

《Redis基本数据类型和使用详解》String是Redis最基本的数据类型,一个键对应一个值,它的功能十分强大,可以存储字符串、整数、浮点数等多种数据格式,本文给大家介绍Redis基本数据类型和... 目录一、Redis 入门介绍二、Redis 的五大基本数据类型2.1 String 类型2.2 Hash

深入理解Mysql OnlineDDL的算法

《深入理解MysqlOnlineDDL的算法》本文主要介绍了讲解MysqlOnlineDDL的算法,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小... 目录一、Online DDL 是什么?二、Online DDL 的三种主要算法2.1COPY(复制法)

Redis中Hash从使用过程到原理说明

《Redis中Hash从使用过程到原理说明》RedisHash结构用于存储字段-值对,适合对象数据,支持HSET、HGET等命令,采用ziplist或hashtable编码,通过渐进式rehash优化... 目录一、开篇:Hash就像超市的货架二、Hash的基本使用1. 常用命令示例2. Java操作示例三