关于Goroutine的原理

2024-04-29 16:18
文章标签 原理 goroutine

本文主要是介绍关于Goroutine的原理,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

原理上的内容比较多,比如goroutine启动的时候要执行哪些相关的操作,一点一点的补充一下。

channel的基本原理

channel是go语言中的特殊的机制,既可以同步两个被并发执行的函数,又可以让这两个函数通过相互传递特定类型的值来进行通信。事实上这也是channel的两个主要功能。

按照通道在初始化时是否有缓冲值,又可以分为缓冲通道非缓冲通道。通道初始化的时候也还是需要使用make进行,比如make(chan int,10)声明一个缓冲空间为10个int的通道,直接make(chan int)就是声明一个非缓冲通道

直接采用内建函数close(strChan)就可以关闭通道。应该保证在安全的情况下进行关闭通道的操作。基本的原则:内建函数 len(strChan)可以查看通道中当前有的元素的数量 cap(strChan)可以查看通道的总的容量,总容量一旦初始化之后就不会再发生改变了。

  • 无论怎样都不应该在接收端关闭通道,因为无法判断发送端是否还有数据要发送,通道有一个很好的特性,就是发送端关闭通道后,接收端仍然可以正常接受已经存在通道中的数据。谁启的通道,谁最后负责关,是这个道理。
  • 注意element , ok := <-chann 的这种语法, 如果通道被关闭则ok的值会变为false,element的值会变为该通道类型的零值,通常用ok这种语法来判断是否退出某个循环。

比如下面这段代码,同时也可以看下goroutine的相关使用模式:

package mainimport ("fmt""time"
)func main() {ch := make(chan int, 1)sign := make(chan byte, 2)go func() {for i := 0; i < 5; i++ {ch <- itime.Sleep(1 * time.Second)}close(ch)fmt.Println("The channel is closed.")sign <- 0}()go func() {//这个循环会一直尝试从ch中读取信息出来 即使ch已经被发送端关闭//但还是可以读信息出来 最后当ok 为false的时候 说明已经没有数据从ch中读出//跳出循环 注意这种判断方式for {fmt.Printf("before extract channel len: %v ,", len(ch))e, ok := <-chfmt.Printf("channel value: %d if extract ok :(%v) after extraction channel len : %v channel cap : %v \n", e, ok, len(ch), cap(ch))if !ok {break}time.Sleep(2 * time.Second)}fmt.Println("Done.")sign <- 1}()//要是不添加两次取值的操作的话 主进程就会马上结束 这里相当于是实现了一个//同步的操作 等待两个go func都结束之后 再结束主进程 注意这种技巧<-sign<-sign
}/*output:
before extract channel len: 1 ,channel value: 0 if extract ok :(true) after extraction channel len : 0 channel cap : 1
before extract channel len: 1 ,channel value: 1 if extract ok :(true) after extraction channel len : 0 channel cap : 1
before extract channel len: 1 ,channel value: 2 if extract ok :(true) after extraction channel len : 0 channel cap : 1
before extract channel len: 1 ,channel value: 3 if extract ok :(true) after extraction channel len : 0 channel cap : 1
The channel is closed.
before extract channel len: 1 ,channel value: 4 if extract ok :(true) after extraction channel len : 0 channel cap : 1
before extract channel len: 0 ,channel value: 0 if extract ok :(false) after extraction channel len : 0 channel cap : 1
Done.
*/
关于通道的基本原则
  • 通道缓冲已经满了的时候,再向通道中发送数据,会造成Goroutine的阻塞,通道没有初始化,即值为nil的时候,向其中发送数据会造成通道永久阻塞。
  • 关闭通道的操作应该由发送端来进行,通道关闭后,如果还有数据,接收端仍可以正常接受数据。
  • 向通道中发送值,进行的是值传递

channel使用场景分析

使用场景(1)

注意 app.go文件夹中的 346 行左右开始地方的一个坑 注意time.After的返回值 由于放在了for循环中 因此 每次会新new 一个 channel出来 还有注意跳出多层循环的方式
主要参考的是《Go并发编程实战的相关内容》

代码如下:

package mainimport ("fmt""runtime"
)func main() {names := []string{"E", "H", "R", "J", "M"}for _, name := range names {go func() {fmt.Printf("Hello , %s \n", name)}()}//要是不添加runtime的话 就不会有内容输出//因为for循环执行速度太快了 直接循环结束跳出了最后的循环//之后 for循环中生成的5个go func 会被分别进行调度runtime.Gosched()
}/* output
Hello , M 
Hello , M 
Hello , M 
Hello , M 
Hello , M
*/

根据代码可以看出,具体循环的时候for循环中的go func 的调度并不是按照想象的那样,一次循环一个go func ,不要对go func的执行时机做任何假设。

优化方案

一种思路是把runtime.Gosched()函数放在每次for循环结束的时候,这样每次for循环之后,都会被重新调度一次,可能会出现正确的结果,并不是每次都准确,比如go func的程序需要运行一段时间,在这段运行的时间之内,可能就已经循环了几个元素过去了

package mainimport ("fmt""runtime""time"
)func main() {names := []string{"E", "H", "R", "J", "M", "N", "O", "P"}for _, name := range names {go func() {time.Sleep(1000 * time.Nanosecond)fmt.Printf("Hello , %s \n", name)}()runtime.Gosched()}}/* output:
Hello , E
Hello , J
Hello , J
Hello , P
Hello , P
Hello , P
*/

还有一种思路是采用传递参数的方式,就是给goroutine带上了参数,虽然goroutine已经脱离了main函数的控制,但是它已经带上了main函数给的烙印,相当于是某种解耦的感觉,for循环多次就不会影响打印的结果了,比如下面代码:

package mainimport ("fmt""runtime""time"
)func main() {names := []string{"E", "H", "R", "J", "M", "N", "O", "P"}for _, name := range names {go func(who string) {time.Sleep(1000 * time.Nanosecond)fmt.Printf("Hello , %s \n", who)}(name)}runtime.Gosched()}/* output:
Hello , E
Hello , H
Hello , R
Hello , J
Hello , M
*/

但是这个方法仍然很有问题,只能保证在函数执行时间很短的时候结果正常,而且不输出重复的内容,如果程序执行时间比较长的话,很有可能main函数会被提前结束,按顺序生成的多个goroutine在cpu那里会不会仍然按照顺序被调度执行?这个仍然不确定?有几个goroutine会不能被正常调度到并且执行,比如像上面的代码的输出样子,而且每次输出的结果也都是不确定的。

使用场景(2)

编码的时候遇到这样一个场景,服务创建成功之后,需要等待ip被分配,ip被分配好之后,服务才正式部署成功,最后将所有的信息返回给前台,于是打算这样实现,在服务创建成功之后就不断循环,查询ip如果分配成功了就返回,如果超过了时间也返回失败,最后这部分的代码像下面这样:

//一个时间控制的channel
//注意这个要在循环之外单独声明 否则每次都会分配一个新的 time.After的channel返回过来
t := time.After(time.Second * 10)//注意这种跳出多层循环的操作方式 要是单层使用break的话 仅仅跳出的是 select 那一层的循环A:for {select {//如果时间到了 就返回错误信息case <-t:log.Println("time out to allocate ip")//delete the se which deploy faileda.Ctx.ResponseWriter.Header().Set("Content-Type", "application/json")http.Error(a.Ctx.ResponseWriter, `{"errorMessage":"`+"deploy error : time out"+`"}`, 406)break A//如果时间没到 就是 t 还没有发回信息 select语句就默认跳转到default块中//执行查找ip是否分配的操作default://log.Println("logout:", <-timeout)sename := service.ObjectMeta.Labels["name"]podslist, err := a.Podip(sename)if err != nil {log.Println(err.Error())a.Ctx.ResponseWriter.Header().Set("Content-Type", "application/json")http.Error(a.Ctx.ResponseWriter, `{"errorMessage":"`+err.Error()+`"}`, 406)break A}if len(podslist) == 0 {continue} else {log.Println("allocation ok ......")a.Data["json"] = detaila.ServeJson()break A}}}
使用场景(3)

常常有这样一种场景,把某些信息从旧的资源池中取出来,经过一些加工处理,再放入新的资源池中,这个过程如果按传统的方式就是采用完全串行的方式效率会很低,粒度太粗了,具体的粒度可以细化以每次所取的单位资源为粒度。
比如以书上p339为例,有一个资源池存储这person的信息,将每个person从中取出来,之后进行一些处理,再存到新的资源池中,这里用oldarray以及newarray来模拟旧的和新的资源池:

具体的代码如下:

package main//参考go 并发编程实战 p337
import ("log""strconv""time"
)type Person struct {name stringage  intaddr string
}var oldpersonarray = [5]Person{}
var newpersonarray = [5]Person{}type PersonHandler interface {Batch(origs <-chan Person) <-chan PersonHandle(orig *Person)
}//struct 实现了personhandler 接口
type PersonHandlerImpl struct{}//从origs接收信息 处理之后再返回给新的channel
func (handler PersonHandlerImpl) Batch(origs <-chan Person) <-chan Person {dests := make(chan Person, 100)go func() {for {p, ok := <-origsif !ok {close(dests)break}handler.Handle(&p)log.Printf("old value : %v\n", p)//time.Sleep(time.Second)dests <- p}}()return dests
}//这里要使用引用传递
func (handler PersonHandlerImpl) Handle(orig *Person) {orig.addr = "new address"
}func getPersonHandler() PersonHandler {return &PersonHandlerImpl{}}//print the oldpersonarray into the chan<-Person
func fetchPerson(origs chan<- Person) {for _, v := range oldpersonarray {//fmt.Printf("get the value : %v %v \n", k, v)time.Sleep(time.Second)origs <- v}close(origs)}//fetch the value from the channel and store it into the newpersonarray
func savePerson(dest <-chan Person) <-chan int {intChann := make(chan int)go func() {index := 0for {p, ok := <-destif !ok {break}//time.Sleep(time.Second)log.Printf("new value transfer %v \n", p)newpersonarray[index] = pindex++}intChann <- 1}()return intChann
}func init() {//使用range的话是值传递 这里要给oldpersonarray赋值进来tmplen := len(oldpersonarray)for i := 0; i < tmplen; i++ {oldpersonarray[i].addr = "old address"oldpersonarray[i].age = ioldpersonarray[i].name = strconv.Itoa(i)}log.Printf("first print init value : %v\n", oldpersonarray)}
func main() {handeler := getPersonHandler()origs := make(chan Person, 100)dests := handeler.Batch(origs)//go func() { fetchPerson(origs) }()// 不加go func的话 要等这句执行完 才能执行下一句// 则orgis信息都输出 完全关闭掉 这个时候 从dest接收信息的语句才开始执行// 所以不会动态输出 这句加上go func的话 就会没隔 1s 动态输出// 如果将fetchPerson 再往前面放一句 则old value也不会动态输出fetchPerson(origs)sign := savePerson(dests)<-signlog.Printf("last print new value : %v \n", newpersonarray)}

整体的结构图如下:

代码结构

代码基本分析:

  • 首先声明一个 PersonHandler 的接口,之后声明一个struct PersonHandlerImpl 将接口中的两个方法都实现了,init函数用于进行oldarray的初始化工作。注意为了减少出错,内部的函数在方声明的时候都是单向的channel。
  • 1,2 fetchperson从oldarray中区数据,并把数据存到origs channel中,注意最后取完数据到通道之后,要由发送方将channel关闭,否则可能造成deadlock。注意在main函数中,如果fech操作没有放到一个goroutine中来执行,就仍然是串行的,相当于是把数据都放入到channel中,另一端才开始取,没发挥出并发的优势。
  • 3,4 Batch函数将person信息从origs中取出来,进行处理后,同时传到dests中,最后将dests返回,注意这里不是全部传入之后才将dests返回,而是新启动一个goroutine执行传入操作,同时将dests返回,注意要主动关闭channel。
  • 5 savePerson操作接收一个<-chann 之后从中接受person信息,将值写入到新的资源池中,最后全部写入结束之后,传一个sign channel给主进程,结束。
  • 总结,在需要动态输出信息的时候,goroutine往往是和channel结合在一起使用。最常见的用法是,一个goroutine负责向channel中写入数据,之后将channel返回,由其他进程取出信息。比如之前写过的一些websocket从前台接受信息,后台处理信息之后再动态返回给前台打出结果的模型,就和这个差不多,总之具体的异步执行流程要理清楚,都有哪些channel,负责传递的信息分别是什么。

这篇关于关于Goroutine的原理的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/946559

相关文章

从原理到实战深入理解Java 断言assert

《从原理到实战深入理解Java断言assert》本文深入解析Java断言机制,涵盖语法、工作原理、启用方式及与异常的区别,推荐用于开发阶段的条件检查与状态验证,并强调生产环境应使用参数验证工具类替代... 目录深入理解 Java 断言(assert):从原理到实战引言:为什么需要断言?一、断言基础1.1 语

MySQL中的表连接原理分析

《MySQL中的表连接原理分析》:本文主要介绍MySQL中的表连接原理分析,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录1、背景2、环境3、表连接原理【1】驱动表和被驱动表【2】内连接【3】外连接【4编程】嵌套循环连接【5】join buffer4、总结1、背景

深度解析Spring AOP @Aspect 原理、实战与最佳实践教程

《深度解析SpringAOP@Aspect原理、实战与最佳实践教程》文章系统讲解了SpringAOP核心概念、实现方式及原理,涵盖横切关注点分离、代理机制(JDK/CGLIB)、切入点类型、性能... 目录1. @ASPect 核心概念1.1 AOP 编程范式1.2 @Aspect 关键特性2. 完整代码实

Java Stream的distinct去重原理分析

《JavaStream的distinct去重原理分析》Javastream中的distinct方法用于去除流中的重复元素,它返回一个包含过滤后唯一元素的新流,该方法会根据元素的hashcode和eq... 目录一、distinct 的基础用法与核心特性二、distinct 的底层实现原理1. 顺序流中的去重

Spring @Scheduled注解及工作原理

《Spring@Scheduled注解及工作原理》Spring的@Scheduled注解用于标记定时任务,无需额外库,需配置@EnableScheduling,设置fixedRate、fixedDe... 目录1.@Scheduled注解定义2.配置 @Scheduled2.1 开启定时任务支持2.2 创建

Spring Boot 实现 IP 限流的原理、实践与利弊解析

《SpringBoot实现IP限流的原理、实践与利弊解析》在SpringBoot中实现IP限流是一种简单而有效的方式来保障系统的稳定性和可用性,本文给大家介绍SpringBoot实现IP限... 目录一、引言二、IP 限流原理2.1 令牌桶算法2.2 漏桶算法三、使用场景3.1 防止恶意攻击3.2 控制资源

Python中使用uv创建环境及原理举例详解

《Python中使用uv创建环境及原理举例详解》uv是Astral团队开发的高性能Python工具,整合包管理、虚拟环境、Python版本控制等功能,:本文主要介绍Python中使用uv创建环境及... 目录一、uv工具简介核心特点:二、安装uv1. 通过pip安装2. 通过脚本安装验证安装:配置镜像源(可

Mysql的主从同步/复制的原理分析

《Mysql的主从同步/复制的原理分析》:本文主要介绍Mysql的主从同步/复制的原理分析,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录为什么要主从同步?mysql主从同步架构有哪些?Mysql主从复制的原理/整体流程级联复制架构为什么好?Mysql主从复制注意

Nacos注册中心和配置中心的底层原理全面解读

《Nacos注册中心和配置中心的底层原理全面解读》:本文主要介绍Nacos注册中心和配置中心的底层原理的全面解读,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录临时实例和永久实例为什么 Nacos 要将服务实例分为临时实例和永久实例?1.x 版本和2.x版本的区别

apache的commons-pool2原理与使用实践记录

《apache的commons-pool2原理与使用实践记录》ApacheCommonsPool2是一个高效的对象池化框架,通过复用昂贵资源(如数据库连接、线程、网络连接)优化系统性能,这篇文章主... 目录一、核心原理与组件二、使用步骤详解(以数据库连接池为例)三、高级配置与优化四、典型应用场景五、注意事