ffmpeg api-band-test.c 讲解

2024-01-08 16:52
文章标签 讲解 ffmpeg test api band

本文主要是介绍ffmpeg api-band-test.c 讲解,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

ffmpeg 4.0.4 源码讲解

draw_horiz_band

av_pix_fmt_desc_get 函数是 FFmpeg 中用于获取像素格式描述信息的函数。它的作用是根据给定的像素格式(AVPixelFormat)返回对应的像素格式描述结构体(AVPixFmtDescriptor),该结构体包含了关于像素格式的详细信息,如分量数、每个分量的位深度、颜色空间等。

参数说明:
pix_fmt:要查询的像素格式,是一个枚举值,表示视频帧的像素格式,如 AV_PIX_FMT_YUV420P、AV_PIX_FMT_YUV422P 等。
返回值:
如果成功找到对应的像素格式描述结构体,则返回该结构体的指针;如果未找到,则返回 NULL。


static void draw_horiz_band(AVCodecContext *ctx, const AVFrame *fr, int offset[4],int slice_position, int type, int height)
{int i;const AVPixFmtDescriptor *pix_fmt_desc;int chroma_w, chroma_h;int shift_slice_position;int shift_height;// 标记 draw_horiz_band 被调用draw_horiz_band_called = 1;// 获取像素格式描述信息pix_fmt_desc = av_pix_fmt_desc_get(ctx->pix_fmt);// 计算色度分量宽高chroma_w = -((-ctx->width) >> pix_fmt_desc->log2_chroma_w);chroma_h = -((-height) >> pix_fmt_desc->log2_chroma_h);/*ctx->width 表示视频帧的宽度,height 表示视频帧的高度,而 pix_fmt_desc->log2_chroma_w 和 pix_fmt_desc->log2_chroma_h 分别表示色度分量宽度和高度的对数值(即以2为底的对数)。
举个例子,假设视频帧的宽度 ctx->width 为 1920,高度 height 为 1080,而色度分量的采样率为 4:2:0(常见的视频编码格式之一),即色度分量的宽度和高度都是亮度分量的一半。
现在假设 pix_fmt_desc->log2_chroma_w 和 pix_fmt_desc->log2_chroma_h 都为 1(因为 2^1 = 2,所以色度分量的宽度和高度都是亮度分量的一半)。
根据这些假设,我们来看一下这两行代码的计算过程:首先,将视频帧的宽度 ctx->width 取反,即 -1920。然后右移 pix_fmt_desc->log2_chroma_w 位,
即右移 1 位,得到 -960。再次取反,得到最终的 chroma_w 值为 960。将视频帧的高度 height 取反,即 -1080。然后右移 pix_fmt_desc->log2_chroma_h 位,即右移 1 位,
得到 -540。再次取反,得到最终的 chroma_h 值为 540。*/// 计算偏移值shift_slice_position = -((-slice_position) >> pix_fmt_desc->log2_chroma_h);shift_height = -((-ctx->height) >> pix_fmt_desc->log2_chroma_h);// 处理 Y 分量数据for (i = 0; i < height; i++) {// 拷贝 Y 分量数据到缓冲区memcpy(slice_byte_buffer + ctx->width * slice_position + i * ctx->width,fr->data[0] + offset[0] + i * fr->linesize[0], ctx->width);}// 处理 U 分量数据for (i = 0; i < chroma_h; i++) {// 拷贝 U 分量数据到缓冲区memcpy(slice_byte_buffer + ctx->width * ctx->height + chroma_w * shift_slice_position + i * chroma_w,fr->data[1] + offset[1] + i * fr->linesize[1], chroma_w);}// 处理 V 分量数据for (i = 0; i < chroma_h; i++) {// 拷贝 V 分量数据到缓冲区memcpy(slice_byte_buffer + ctx->width * ctx->height + chroma_w * shift_height + chroma_w * shift_slice_position + i * chroma_w,fr->data[2] + offset[2] + i * fr->linesize[2], chroma_w);}
}

video_decode

static int video_decode(const char *input_filename)
{AVCodec *codec = NULL; // 视频编解码器AVCodecContext *ctx = NULL; // 编解码器上下文AVCodecParameters *origin_par = NULL; // 视频流参数uint8_t *byte_buffer = NULL; // 存储解码后图像数据的缓冲区AVFrame *fr = NULL; // 存储解码后图像帧的结构体AVPacket pkt; // 存储视频数据的数据包AVFormatContext *fmt_ctx = NULL; // 存储格式相关的上下文信息int number_of_written_bytes; // 写入字节数int video_stream; // 视频流索引int got_frame = 0; // 是否解码到一帧图像int byte_buffer_size; // 缓冲区大小int result; // 操作结果int end_of_stream = 0; // 是否到达视频流末尾draw_horiz_band_called = 0; // 标志位,用于检查 draw_horiz_band 函数是否被调用过// 打开输入文件并获取格式相关的上下文信息result = avformat_open_input(&fmt_ctx, input_filename, NULL, NULL);if (result < 0) {av_log(NULL, AV_LOG_ERROR, "Can't open file\n");return result;}// 获取流信息result = avformat_find_stream_info(fmt_ctx, NULL);if (result < 0) {av_log(NULL, AV_LOG_ERROR, "Can't get stream info\n");return result;}// 找到视频流video_stream = av_find_best_stream(fmt_ctx, AVMEDIA_TYPE_VIDEO, -1, -1, NULL, 0);if (video_stream < 0) {av_log(NULL, AV_LOG_ERROR, "Can't find video stream in input file\n");return -1;}// 获取视频流的参数origin_par = fmt_ctx->streams[video_stream]->codecpar;// 查找视频编解码器codec = avcodec_find_decoder(origin_par->codec_id);if (!codec) {av_log(NULL, AV_LOG_ERROR, "Can't find decoder\n");return -1;}// 分配编解码器上下文ctx = avcodec_alloc_context3(codec);if (!ctx) {av_log(NULL, AV_LOG_ERROR, "Can't allocate decoder context\n");return AVERROR(ENOMEM);}// 将流参数拷贝到编解码器上下文result = avcodec_parameters_to_context(ctx, origin_par);if (result) {av_log(NULL, AV_LOG_ERROR, "Can't copy decoder context\n");return result;}// 设置 draw_horiz_band 函数ctx->draw_horiz_band = draw_horiz_band;ctx->thread_count = 1; // 设置线程数量为 1// 打开编解码器result = avcodec_open2(ctx, codec, NULL);if (result < 0) {av_log(ctx, AV_LOG_ERROR, "Can't open decoder\n");return result;}// 分配图像帧结构体fr = av_frame_alloc();if (!fr) {av_log(NULL, AV_LOG_ERROR, "Can't allocate frame\n");return AVERROR(ENOMEM);}// 分配图像数据缓冲区byte_buffer_size = av_image_get_buffer_size(ctx->pix_fmt, ctx->width, ctx->height, 32);byte_buffer = av_malloc(byte_buffer_size);if (!byte_buffer) {av_log(NULL, AV_LOG_ERROR, "Can't allocate buffer\n");return AVERROR(ENOMEM);}// 分配 slice_byte_buffer 存储 slice 数据slice_byte_buffer = av_malloc(byte_buffer_size);if (!slice_byte_buffer) {av_log(NULL, AV_LOG_ERROR, "Can't allocate buffer\n");return AVERROR(ENOMEM);}memset(slice_byte_buffer, 0, byte_buffer_size);slice_byte_buffer_size = byte_buffer_size;// 初始化数据包av_init_packet(&pkt);do {// 读取数据包if (!end_of_stream) {if (av_read_frame(fmt_ctx, &pkt) < 0) {end_of_stream = 1;}}if (end_of_stream) {pkt.data = NULL;pkt.size = 0;}// 解码视频帧if (pkt.stream_index == video_stream || end_of_stream) {got_frame = 0;result = avcodec_decode_video2(ctx, fr, &got_frame, &pkt);if (result < 0) {av_log(NULL, AV_LOG_ERROR, "Error decoding frame\n");return result;}// 如果解码到一帧图像if (got_frame) {// 处理解码后的图像数据process_frame(fr, byte_buffer, byte_buffer_size);}}// 释放数据包av_packet_unref(&pkt);} while (!end_of_stream || got_frame);// 释放资源avcodec_free_context(&ctx);avformat_close_input(&fmt_ctx);av_frame_free(&fr);av_free(byte_buffer);av_free(slice_byte_buffer);return 0;
}

这篇关于ffmpeg api-band-test.c 讲解的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/584150

相关文章

HTML5 getUserMedia API网页录音实现指南示例小结

《HTML5getUserMediaAPI网页录音实现指南示例小结》本教程将指导你如何利用这一API,结合WebAudioAPI,实现网页录音功能,从获取音频流到处理和保存录音,整个过程将逐步... 目录1. html5 getUserMedia API简介1.1 API概念与历史1.2 功能与优势1.3

Java进程CPU使用率过高排查步骤详细讲解

《Java进程CPU使用率过高排查步骤详细讲解》:本文主要介绍Java进程CPU使用率过高排查的相关资料,针对Java进程CPU使用率高的问题,我们可以遵循以下步骤进行排查和优化,文中通过代码介绍... 目录前言一、初步定位问题1.1 确认进程状态1.2 确定Java进程ID1.3 快速生成线程堆栈二、分析

Python使用FFmpeg实现高效音频格式转换工具

《Python使用FFmpeg实现高效音频格式转换工具》在数字音频处理领域,音频格式转换是一项基础但至关重要的功能,本文主要为大家介绍了Python如何使用FFmpeg实现强大功能的图形化音频转换工具... 目录概述功能详解软件效果展示主界面布局转换过程截图完成提示开发步骤详解1. 环境准备2. 项目功能结

SpringBoot使用ffmpeg实现视频压缩

《SpringBoot使用ffmpeg实现视频压缩》FFmpeg是一个开源的跨平台多媒体处理工具集,用于录制,转换,编辑和流式传输音频和视频,本文将使用ffmpeg实现视频压缩功能,有需要的可以参考... 目录核心功能1.格式转换2.编解码3.音视频处理4.流媒体支持5.滤镜(Filter)安装配置linu

javascript fetch 用法讲解

《javascriptfetch用法讲解》fetch是一个现代化的JavaScriptAPI,用于发送网络请求并获取资源,它是浏览器提供的全局方法,可以替代传统的XMLHttpRequest,这篇... 目录1. 基本语法1.1 语法1.2 示例:简单 GET 请求2. Response 对象3. 配置请求

Java Stream.reduce()方法操作实际案例讲解

《JavaStream.reduce()方法操作实际案例讲解》reduce是JavaStreamAPI中的一个核心操作,用于将流中的元素组合起来产生单个结果,:本文主要介绍JavaStream.... 目录一、reduce的基本概念1. 什么是reduce操作2. reduce方法的三种形式二、reduce

使用Python实现调用API获取图片存储到本地的方法

《使用Python实现调用API获取图片存储到本地的方法》开发一个自动化工具,用于从JSON数据源中提取图像ID,通过调用指定API获取未经压缩的原始图像文件,并确保下载结果与Postman等工具直接... 目录使用python实现调用API获取图片存储到本地1、项目概述2、核心功能3、环境准备4、代码实现

无法启动此程序因为计算机丢失api-ms-win-core-path-l1-1-0.dll修复方案

《无法启动此程序因为计算机丢失api-ms-win-core-path-l1-1-0.dll修复方案》:本文主要介绍了无法启动此程序,详细内容请阅读本文,希望能对你有所帮助... 在计算机使用过程中,我们经常会遇到一些错误提示,其中之一就是"api-ms-win-core-path-l1-1-0.dll丢失

CSS引入方式和选择符的讲解和运用小结

《CSS引入方式和选择符的讲解和运用小结》CSS即层叠样式表,是一种用于描述网页文档(如HTML或XML)外观和格式的样式表语言,它主要用于将网页内容的呈现(外观)和结构(内容)分离,从而实现... 目录一、前言二、css 是什么三、CSS 引入方式1、行内样式2、内部样式表3、链入外部样式表四、CSS 选

python通过curl实现访问deepseek的API

《python通过curl实现访问deepseek的API》这篇文章主要为大家详细介绍了python如何通过curl实现访问deepseek的API,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编... API申请和充值下面是deepeek的API网站https://platform.deepsee