算法矩阵提速原理

2024-04-23 12:12
文章标签 算法 原理 矩阵 提速

本文主要是介绍算法矩阵提速原理,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

不管是图形还是AI,如果看过相关的算法,都会注意到矩阵运算,很多讲算法的教程都会说将for转换成矩阵,可以极大的增加效率。

但是这不是为难我们这些数学低能儿吗?矩阵运算这些高级货算是高级数学了,比CURD还是难多了。今天还是抽时间来看看。

其实就我来看,计算机懂个P的高等数学,什么线性代数,概率,微积分,对于计算机来说都没有意义,没有意义,没有意义。计算机懂得就是1+1=10。但是在实践中,很多算法一旦上了矩阵,就跟开了外挂一样,速度飞快,这个又是什么原因呢?难道真的计算机上了大学,学了高等数学?我觉得不是,原因还是和计算机中CPU的特性有关。要知道背后的原理,还是得从汇编着手。

(因为最近实在忙,目前的代码来自GPT,感觉不是很准,后面有时间会更新)

for的汇编:

section .text
global for_loopfor_loop:push ebpmov ebp, espmov ecx, [ebp+8]  ; 循环计数器的上限mov eax, 0         ; 初始化计数器loop_start:; 这里执行循环体的操作inc eax            ; 计数器加一cmp eax, ecx       ; 比较计数器和上限jl loop_start      ; 如果计数器小于上限,则继续循环pop ebpret

在 for 循环中,每次迭代都需要执行比较和条件跳转操作,以及计数器的增加操作。这意味着每次循环迭代都会有额外的指令开销和跳转开销。

矩阵的汇编(这里我是觉得没说全,应该涉及到_mm256_dp_ps这些指令):

section .text
global matrix_multiplymatrix_multiply:push ebpmov ebp, esp; 这里执行矩阵乘法的操作pop ebpret

而在矩阵运算中,尤其是矩阵乘法,通常会使用更多的向量化指令和并行化技术。这使得矩阵运算可以更有效地利用处理器的并行性和向量化能力,从而减少了指令级别的开销。

总的来说:

矩阵运算涉及大量的数据并行处理,可以更好地利用现代处理器的并行性能。矩阵运算通常涉及大规模的数据集,这意味着可以更好地利用处理器的缓存系统和数据局部性。矩阵运算往往可以通过优化算法和数据访问模式来提高计算效率,例如分块矩阵乘法、缓存优化等。

另外一方面可以掰扯的就是计算机历史了。我自己买入的第一台计算机是MMX166,应该是97年。当时牛逼吹的非常响,说什么多媒体CPU,然后我就稀里糊涂买了。MMX是什么呢?MMX 指令集包括一系列针对整数运算和 SIMD(Single Instruction, Multiple Data,单指令,多数据)操作的指令。这些指令允许处理器同时对多个数据元素执行相同的操作,从而实现更高的数据吞吐量和更高的性能。MMX 指令集主要用于处理像素、音频和视频数据等多媒体应用程序。

这里又要说说图形,音视频的数据的一些特点了,这些数据就是矩阵运算的最好示范,现在的CPU架构中,为了加速这些运算,所以进行了很多特别的优化,比如超线程,SIMD等等。所以说计算机并不是天生就擅长矩阵运算,而是之前环境中,为了加速多媒体的处理,大神们在CPU中做了很多针对矩阵运算的强化和优化。相当于体系中有了一条高速的特别通道。

所以回到现在,为了使用这个特别通道,将很多运算写成矩阵运算的形式,就可以大大的加速。此外,很多AI算法本身从数学上来说也是矩阵运算,这个就更合适了。所以这里也解释了为什么GPU更适合处理AI算法,因为GPU本身是用来处理图像的,就是矩阵运算,从设计之初就这样考虑的。后面误打误撞发现也很适合干AI,所以直接原地起飞,这个就是另外的一个故事了。

简而言之,在现在的CPU体系中,使用矩阵运算,可以更贴近现在的架构,比如Cache的结构,SIMD的指令集以及一些其它指令集。所以会觉得速度很快。

当然,也是看优化,如果说一个编译器能自动把多层的for优化到底,也是性能不会比矩阵运算差,就看有没有大神愿意出来干这事了。

参考:

27 | SIMD:如何加速矩阵乘法?_simd 矩阵乘法-CSDN博客

SIMD加速矩阵运算-CSDN博客

这篇关于算法矩阵提速原理的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/928757

相关文章

redis中使用lua脚本的原理与基本使用详解

《redis中使用lua脚本的原理与基本使用详解》在Redis中使用Lua脚本可以实现原子性操作、减少网络开销以及提高执行效率,下面小编就来和大家详细介绍一下在redis中使用lua脚本的原理... 目录Redis 执行 Lua 脚本的原理基本使用方法使用EVAL命令执行 Lua 脚本使用EVALSHA命令

Java Spring 中 @PostConstruct 注解使用原理及常见场景

《JavaSpring中@PostConstruct注解使用原理及常见场景》在JavaSpring中,@PostConstruct注解是一个非常实用的功能,它允许开发者在Spring容器完全初... 目录一、@PostConstruct 注解概述二、@PostConstruct 注解的基本使用2.1 基本代

Golang HashMap实现原理解析

《GolangHashMap实现原理解析》HashMap是一种基于哈希表实现的键值对存储结构,它通过哈希函数将键映射到数组的索引位置,支持高效的插入、查找和删除操作,:本文主要介绍GolangH... 目录HashMap是一种基于哈希表实现的键值对存储结构,它通过哈希函数将键映射到数组的索引位置,支持

Spring Boot循环依赖原理、解决方案与最佳实践(全解析)

《SpringBoot循环依赖原理、解决方案与最佳实践(全解析)》循环依赖指两个或多个Bean相互直接或间接引用,形成闭环依赖关系,:本文主要介绍SpringBoot循环依赖原理、解决方案与最... 目录一、循环依赖的本质与危害1.1 什么是循环依赖?1.2 核心危害二、Spring的三级缓存机制2.1 三

C#中async await异步关键字用法和异步的底层原理全解析

《C#中asyncawait异步关键字用法和异步的底层原理全解析》:本文主要介绍C#中asyncawait异步关键字用法和异步的底层原理全解析,本文给大家介绍的非常详细,对大家的学习或工作具有一... 目录C#异步编程一、异步编程基础二、异步方法的工作原理三、代码示例四、编译后的底层实现五、总结C#异步编程

openCV中KNN算法的实现

《openCV中KNN算法的实现》KNN算法是一种简单且常用的分类算法,本文主要介绍了openCV中KNN算法的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的... 目录KNN算法流程使用OpenCV实现KNNOpenCV 是一个开源的跨平台计算机视觉库,它提供了各

Go 语言中的select语句详解及工作原理

《Go语言中的select语句详解及工作原理》在Go语言中,select语句是用于处理多个通道(channel)操作的一种控制结构,它类似于switch语句,本文给大家介绍Go语言中的select语... 目录Go 语言中的 select 是做什么的基本功能语法工作原理示例示例 1:监听多个通道示例 2:带

鸿蒙中@State的原理使用详解(HarmonyOS 5)

《鸿蒙中@State的原理使用详解(HarmonyOS5)》@State是HarmonyOSArkTS框架中用于管理组件状态的核心装饰器,其核心作用是实现数据驱动UI的响应式编程模式,本文给大家介绍... 目录一、@State在鸿蒙中是做什么的?二、@Spythontate的基本原理1. 依赖关系的收集2.

springboot+dubbo实现时间轮算法

《springboot+dubbo实现时间轮算法》时间轮是一种高效利用线程资源进行批量化调度的算法,本文主要介绍了springboot+dubbo实现时间轮算法,文中通过示例代码介绍的非常详细,对大家... 目录前言一、参数说明二、具体实现1、HashedwheelTimer2、createWheel3、n

Java编译生成多个.class文件的原理和作用

《Java编译生成多个.class文件的原理和作用》作为一名经验丰富的开发者,在Java项目中执行编译后,可能会发现一个.java源文件有时会产生多个.class文件,从技术实现层面详细剖析这一现象... 目录一、内部类机制与.class文件生成成员内部类(常规内部类)局部内部类(方法内部类)匿名内部类二、