Android中的屏幕刷新机制(动画视频形象说明机制)

2024-04-24 19:28

本文主要是介绍Android中的屏幕刷新机制(动画视频形象说明机制),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

一,刷新率和帧率,60hz和60fps的区别

在Android系统中,刷新率和帧率是两个不同的概念,它们各自在显示过程中扮演着不同的角色。以下是对它们的详细解释:

刷新率,单位是Hz,是指屏幕在一秒内刷新的次数,也就是一秒内显示了多少帧图像。这是显示器(如LCD或OLED)的硬件性能参数。例如,60Hz的刷新率意味着屏幕每秒可以刷新60次。刷新率的高低直接决定了屏幕画面的流畅度,高刷新率通常能带来更为流畅的视觉体验。

帧率,单位是fps(frames per second),指GPU(图形处理器)在一秒内绘制操作的帧数。在Android系统中,60fps意味着每秒钟GPU最多绘制60帧画面。帧率是动态变化的,取决于GPU的渲染速度和应用的需求。例如,当画面静止时,GPU可能没有绘制操作,屏幕刷新的还是缓存中的帧数据。

因此,60Hz和60fps虽然数值上相同,但它们代表的含义完全不同。60Hz是指屏幕每秒钟的刷新次数,而60fps则是GPU每秒钟的绘制帧数。在实际应用中,如果帧率超过屏幕刷新率,那么超过的部分实际上是无法被显示器捕捉并显示出来的,因为显示器不能以这么快的速度更新。这种情况下,超过刷新率的帧率就浪费了图像处理能力。

总的来说,刷新率和帧率是Android系统中影响显示效果的两大关键因素,它们相互关联但又各自独立。为了获得最佳的显示效果,通常需要确保应用的帧率和屏幕的刷新率相匹配。

帧率FPS是Frame Per Second的缩写,意思是每秒产生画面的个数。这是一个软件的概念,与屏幕刷新率这个硬件概念要区分开。FPS是由软件系统决定的。如果帧率为60fps,那么意味着每1/60秒,即大约16.67毫秒,屏幕就需要更新一次。需要注意的是,显示器并不是一次性将整个画面显示到屏幕上,而是采用逐行扫描的方式,从左到右、从上到下顺序显示整屏的像素点。然而,这一过程发生得非常快,快到人眼几乎无法察觉到变化。
在这里插入图片描述
当帧率和刷新率不一致时,可能会发生以下两种情况:

屏幕刷新速率 > 系统帧速率时。在这种情况下,当前帧的前缓冲区内容完全映射到屏幕上后,后缓冲区可能尚未准备好下一帧。因此,屏幕无法读取到下一帧的内容,只能继续显示当前帧的图形。这会导致一帧被显示多次,从而产生卡顿现象。

系统帧速率 > 屏幕刷新率时。这时,屏幕尚未完全将缓冲区中的一帧映射到屏幕上,而系统已经准备好了下一帧,并将其写入到缓冲区中。当系统要求读取下一帧到屏幕时,会导致屏幕上半部分仍然显示上一帧的图形,而下半部分则显示下一帧的图形。这种情况会造成屏幕上同时显示多帧,产生屏幕撕裂现象。

二,双缓冲Buffer

前面我们说到画面撕裂是由于单buffer引起的,使用了双缓冲来解决画面撕裂。

GPU写入的缓存为:Back Buffer
屏幕刷新使用的缓存为:Frame Buffer

如下图:
在这里插入图片描述因为使用双buffer,屏幕刷新时,frame buffer不会发生变化,通过交换buffer来实现帧数据切换,那什么时候交换buffer呢?

这就要引入Vsync的概念了。

三,VSync(垂直同步)+ Double Buffer

为解决撕裂问题,Android引入了VSync(垂直同步)+ Double Buffer技术。

在这里插入图片描述
由于图像绘制和屏幕读取使用的是同一个缓存区,因此在屏幕刷新过程中可能会读取到不完整的一帧画面。为了解决这一问题,我们采用了双缓存技术。这种技术使得图像绘制和屏幕显示各自拥有独立的缓存区。CPU或GPU总是将绘制完成的一帧图像写入到Back Buffer中,而显示器则读取使用Frame Buffer。这样,当屏幕进行刷新时,Frame Buffer的内容并不会发生变化。只有当Back Buffer准备就绪时,我们才会进行两个缓存区的交换。

那么,何时进行这两个缓存区的交换呢?这就涉及到了Vsync的概念。

Vsync是垂直同步(Vertical Synchronization)的简称。它负责调度从Back Buffer到Frame Buffer的复制操作。我们可以认为这一复制操作在瞬间完成,因为实际上双缓冲的实现方式是交换Back Buffer和Frame Buffer的内存地址。

通过这一机制,我们可以确保屏幕上显示的每一帧图像都是完整的,从而避免了因图像读取不完整而产生的各种问题。

具体流程如下图描述:
在这里插入图片描述

其中:

·CPU和GPU代表上层的绘制执行者,各做一部分工作,本文章中对CPU和GPU的工作不进行介绍。

·Composite代表的是Android系统服务对多个Surface的合成。

·BackgroundBuffer和FrontBuffer(FrameBuffer)分别代表的是硬件帧缓冲区中的前缓冲和后缓冲。

·显示屏扫描完一帧之后,会发出VSync信号来切换并显示下一帧。

上面的流程中,存在一个问题,屏幕的VSync信号只是用来控制帧缓冲区的切换,并未控制上层的绘制节奏,也就是说上层CPU/GPU的生产节奏和屏幕的显示节奏是脱离的。

2.1:在引入VSync前(Drawing without VSync)
在这里插入图片描述
按时间顺序:
1.Display显示第0帧画面,而CPU和GPU正在合成第1帧,且在Display显示下一帧之前完成了。
2.由于GPU在Display第一个VSync来之前完成了back buffer的填充,此时交换back buffer和frame buffer,屏幕进行刷新,可以正常显示第一帧数据。 - 3.再来看第2个VSync,第二个VSync到来之时,GPU并没有及时的填充back buffer,这个时候不能交互buffer,屏幕刷新的还是第1帧的画面。就说这里发生了“jank”
4.在第3个VSync信号到来时,第2帧的数据已经写入back buffer,第3帧的数据GPU还没写入,所以这个时候交互buffer显示的是第2帧的数据
5.同理,在第4个VSync时,第3帧数据已经处理完毕,交换buffer后显示的是第2帧的数据

这里发生jank的原因是:在第2帧CPU处理数据的时候太晚了,GPU没有及时将数据写入到buffer中,导致jank的发生。

如果可以把CPU绘制流程提前到每个VSync信号来的时候进行CPU的绘制,那是不是就可以让CPU的计算以及GPU的合成写入buffer的操作有完整的16.6ms。

2.1:在引入VSync后(Drawing with VSync)

为了进一步优化性能,谷歌在4.1之后对屏幕绘制与刷新过程引入了Project Butter(黄油工程),系统在收到VSync信号之后,马上进行CPU的绘制以及GPU的buffer写入。 这样就可以让cpu和gpu有个完整的16.6ms处理过程。最大限度的减少jank的发生。

在这里插入图片描述
VSync是垂直同步的缩写,它是一种技术,允许CPU在显卡完成一帧渲染后立即发送更新请求,确保刷新率与显示器的刷新率相匹配。从屏幕显示第0帧开始,CPU开始准备第1帧图形的处理,然后将处理好的内容交给GPU。当上层收到下一个VSync信号后,CPU会立即开始第2帧的处理,这样上层绘图的节奏就和VSync信号保持一致,使得整个绘图过程非常流畅。

VSync的主要作用体现在以下几个方面:当屏幕扫描完第1帧画面之后,系统会发送VSync信号。此时,会发生三件事:
首先,交换两个缓存区(framebuffer和backbuffer)的内容;
接着,显示器开始显示第2帧内容,即交换后的framebuffer内容;
最后,CPU/GPU开始计算处理第三帧的内容,并在处理好后将其放入backbuffer中。这样的过程保证了屏幕显示的连贯性和流畅性,提高了用户体验。

在这里插入图片描述
三,三buffer时代

引入VSync后,新的问题又出现了:如下图:

在这里插入图片描述
由于主线程做了一些相对复杂耗时逻辑,导致CPU和GPU的处理时间超过16.6ms,由于此时back buffer写入的是B帧数据,在交换buffer前不能被覆盖,而frame buffer被Display用来做刷新用,所以在B帧写入back buffer完成到下一个VSync信号到来之前两个buffer都被占用了,CPU无法继续绘制,这段时间就会被空着, 于是又出现了三缓存。

为了进一步优化用户体验,Google在双buffer的基础上又增加了第三个buffer(Graphic Buffer), 如图:

在这里插入图片描述
按时间顺序: - 1.第一个jank是无法避免的,因为第一个B帧处理超时,A帧肯定是会重复的。 - 2.在第一个VSync信号来时,虽然back buffer以及frame buffer都被占用了,CPU此时会启用第三个Graphic Buffer,避免了CPU的空闲状态。

这里可以最大限度避免2中CPU空闲的情况,记住只是最大限度,没有说一定能避免。

那又有人要说了,那就再多开几个不就可以了,是的,buffer越多jank越少,但是你得考虑性价比: 3 buffer已经可以最大限度的避免jank的发生了,再多的buffer起到的作用就微乎其微,反而因为buffer的数量太多,浪费更多内存,得不偿失。

这篇关于Android中的屏幕刷新机制(动画视频形象说明机制)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/932627

相关文章

Spring Security 单点登录与自动登录机制的实现原理

《SpringSecurity单点登录与自动登录机制的实现原理》本文探讨SpringSecurity实现单点登录(SSO)与自动登录机制,涵盖JWT跨系统认证、RememberMe持久化Token... 目录一、核心概念解析1.1 单点登录(SSO)1.2 自动登录(Remember Me)二、代码分析三、

Go语言并发之通知退出机制的实现

《Go语言并发之通知退出机制的实现》本文主要介绍了Go语言并发之通知退出机制的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧... 目录1、通知退出机制1.1 进程/main函数退出1.2 通过channel退出1.3 通过cont

Spring Boot 中的默认异常处理机制及执行流程

《SpringBoot中的默认异常处理机制及执行流程》SpringBoot内置BasicErrorController,自动处理异常并生成HTML/JSON响应,支持自定义错误路径、配置及扩展,如... 目录Spring Boot 异常处理机制详解默认错误页面功能自动异常转换机制错误属性配置选项默认错误处理

mybatis-plus QueryWrapper中or,and的使用及说明

《mybatis-plusQueryWrapper中or,and的使用及说明》使用MyBatisPlusQueryWrapper时,因同时添加角色权限固定条件和多字段模糊查询导致数据异常展示,排查发... 目录QueryWrapper中or,and使用列表中还要同时模糊查询多个字段经过排查这就导致只要whe

Java中的xxl-job调度器线程池工作机制

《Java中的xxl-job调度器线程池工作机制》xxl-job通过快慢线程池分离短时与长时任务,动态降级超时任务至慢池,结合异步触发和资源隔离机制,提升高频调度的性能与稳定性,支撑高并发场景下的可靠... 目录⚙️ 一、调度器线程池的核心设计 二、线程池的工作流程 三、线程池配置参数与优化 四、总结:线程

SpringBoot改造MCP服务器的详细说明(StreamableHTTP 类型)

《SpringBoot改造MCP服务器的详细说明(StreamableHTTP类型)》本文介绍了SpringBoot如何实现MCPStreamableHTTP服务器,并且使用CherryStudio... 目录SpringBoot改造MCP服务器(StreamableHTTP)1 项目说明2 使用说明2.1

RabbitMQ消息总线方式刷新配置服务全过程

《RabbitMQ消息总线方式刷新配置服务全过程》SpringCloudBus通过消息总线与MQ实现微服务配置统一刷新,结合GitWebhooks自动触发更新,避免手动重启,提升效率与可靠性,适用于配... 目录前言介绍环境准备代码示例测试验证总结前言介绍在微服务架构中,为了更方便的向微服务实例广播消息,

JAVA覆盖和重写的区别及说明

《JAVA覆盖和重写的区别及说明》非静态方法的覆盖即重写,具有多态性;静态方法无法被覆盖,但可被重写(仅通过类名调用),二者区别在于绑定时机与引用类型关联性... 目录Java覆盖和重写的区别经常听到两种话认真读完上面两份代码JAVA覆盖和重写的区别经常听到两种话1.覆盖=重写。2.静态方法可andro

zookeeper端口说明及介绍

《zookeeper端口说明及介绍》:本文主要介绍zookeeper端口说明,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录一、zookeeper有三个端口(可以修改)aVNMqvZ二、3个端口的作用三、部署时注意总China编程结一、zookeeper有三个端口(可以

Android kotlin中 Channel 和 Flow 的区别和选择使用场景分析

《Androidkotlin中Channel和Flow的区别和选择使用场景分析》Kotlin协程中,Flow是冷数据流,按需触发,适合响应式数据处理;Channel是热数据流,持续发送,支持... 目录一、基本概念界定FlowChannel二、核心特性对比数据生产触发条件生产与消费的关系背压处理机制生命周期