基于CAPL的S19文件解析

2024-04-23 19:36
文章标签 解析 s19 capl

本文主要是介绍基于CAPL的S19文件解析,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

  • 🍅 我是蚂蚁小兵,专注于车载诊断领域,尤其擅长于对CANoe工具的使用
  • 🍅 寻找组织 ,答疑解惑,摸鱼聊天,博客源码,点击加入👉【相亲相爱一家人】
  • 🍅 玩转CANoe,博客目录大全,点击跳转👉

📘前言

  • 🍅 车载测试必不可少的是刷写,行业内有很多格式的刷写文件,S19,HEX,BIN,还有一些主机厂自定义的比如Volvo/GeeaVBFCheryCBF

  • 🍅 本章节先了解S19文件

请添加图片描述

目录

  • 📘前言
  • 📙 S19 文件的格式简介
    • 🍅 标准解释
    • 🍅 实例说明
    • 🍅 HEX View 神器
  • 📙CAPL解析S19文件源码
  • 🌎总结

请添加图片描述


📙 S19 文件的格式简介

🍅 标准解释

  • Motorola S-record是由Motorola创建的一种文件格式,它以 ASCII十六进制文本形式传送二进制信息。这种文件格式也可以称为SRECORD、SREC、S19、S28、S37。它通常用于对微控制器、EPROM 和其他类型的可编程逻辑设备进行编程。

  • S-record格式是在1970年代中期为 Motorola 6800处理器创建的。该处理器和其他嵌入式处理器的软件开发工具将生成S-record格式的可执行代码和数据。程序员将读取S-record格式并将数据“刻录”到嵌入式系统中使用的PROM或EPROM中

在这里插入图片描述


  • S19文件的每一行数据由下列五个部分组成:
    在这里插入图片描述

  • type(记录类型):用来描述记录的类型 (S0,S1,S2,S3,S5,S7,S8,S9)。

  • count(字节计数):2个字符,表示记录的其余部分(address + data + checksum)的字节数,该字段的最小值为 3,最大值为 255 。通常记录有 0x20 个数据字节。

  • address(地址):4或6或8个字符。由记录类型 type(记录类型)` 决定。对于S1和S9类型(S19),地址字段为 4 个十六进制数字(2 个字节)。对于S2和S8 record(S28),地址字段为 6 个十六进制数字(3个字节),对于S3和S7 record(S37),地址字段为 8 个十六进制数字(4 个字节)。地址首先以 MSB 发送。地址字节以大端格式排列。

  • data(数据):0—64字符。用来组成和说明一个代表了内存载入数据或者描述信息的16进制的值。

  • checksum(校验和):一个字节。Checksum = 取补码( (uint8_t)(Byte count + Address + Data) )。


🍅 实例说明

  • Notepad++ 打开选择语言,自动识别,根据颜色可以看出S19的记录格式
  • 看到的是16进制显示的ASCII文本格式

在这里插入图片描述
在这里插入图片描述


  • 重点说下S19的Type类型
  • S0是文件的第一行,头信息
  • 如果数据是S1开头,则地址占2个字节(文本字符串用4个字节表示),则文件最后一行的尾信息的开头就是用S9表示
  • 如果数据是S2开头,则地址占3个字节(文本字符串用6个字节表示),则文件最后一行的尾信息的开头就是用S8表示
  • 如果数据是S3开头,则地址占4个字节(文本字符串用8个字节表示),则文件最后一行的尾信息的开头就是用S7表示

再看下面的一个type 是S2的小实例 :地址占6个字节(注意这是ASCII文本表示的,实际地址是0x708000 )
S2 24 708000 18A718A718A718A718A718A718A718A718A718A718A718A718A718A718A718A7 FB

再看下面的一个type 是S1的小实例 ,地址占4个字节(注意这是ASCII文本表示的,实际地址是0x0020)
S1 23 0020 1A6416AE01DA6426AE024A6E01B6AE01EEDE029A6416AE01FA6406AE025A6436 21


🍅 HEX View 神器

  • HEX View 是一款专业的解析S19文件,HEX文件的工具,可以很方便的看出打开文件的Block块,起始地址和地址块的长度等信息
    在这里插入图片描述

📙CAPL解析S19文件源码


  • 核心变量解释下:
  • F_SegmentInfor[10]:用来存放解析S19文件的Block的信息,一般情况下,刷写文件的地址是不连续的,那么就会分成几个Block块,每个Block块我们要记录下该Block起止地址数据大小,因为这是我们UDS 34服务下载的必须数据,这里定义数组大小为10,足够大了,具体有多少个Block块,由变量SegCounter记录
  • FlsData_BufferArr[0x1FFFFFF]: 这个数组是记录是s19文件的所有字节,数组大小可由刷写文件具体大小设置,因为这个数组存放的是所有Block块的数据,那么当我下载的时候我怎么区分,去取数据呢,那就是 上面说的结构体中的 dword data_offset;这个变量来控制的,
  • AllDataBytes:该文件所有的数据字节数。
  • 我为什么没有这样定义 结构体呢?这样分段信息不是更加明确,刷写时取数据也更加方便直观吗?想一想为什么? struct FlsData_Segment
    {
    byte seg_index;
    dword start_address;
    dword data_size;
    byte FlsData_BufferArr[0x1FFFFFF];
    } F_SegmentInfor[10];//暂时定数组为10
/*@!Encoding:936*/variables
{ dword fileHandle;const dword  text_module = 0;const dword  binary_module = 1;enum File_Type { file_header, file_data,file_tail };struct  FlsData_Segment {byte  seg_index;dword start_address;dword data_size;dword data_offset;     } F_SegmentInfor[10];//暂时定数组为10long   SegCounter;       //记录文件被分成多少个段long   AllDataBytes;     // 文件所有的数据字节数byte  FlsData_BufferArr[0x1FFFFFF]; //文件中的所有字节被解析后放在该数组  
}on key 'a'
{Flash_Parse_S19("E:\\demo.s19");}long Flash_Parse_S19(char f_path[])
{long i;char tmpBuffer[5000];char temStr[255];byte AddressSize;          // s19文件的地址占多少个字节,S1是2个;S2是3个;S3是4个dword DataSize_PerLine_0;  // 两个地址之间的插值,是个固定值,比如0x20dword DataSize_PerLine_1;  // 每行数据的第2-3,两个字节,是改行的数据长度(包含地址,数据,和校验)dword DataSize_PerLine_2;  // 每行纯数据段的长度byte  RawData_Line[255];   // 解析后每行数据内容dword FlsData_CurrentAddress;dword FlsData_PreviousAddress;  long   file_line_num;    // 文件有多少行long   SegmentDataSize;  //记录当前段的字节数,临时变量/*初始化变量*/file_line_num = 0;SegCounter = 0;AllDataBytes = 0; SegmentDataSize = 0;  FlsData_CurrentAddress = 0x00000000;fileHandle = OpenFileRead(f_path,text_module);if (fileHandle == 0 ) {write("Failed to open File %s !",f_path);return 0 ;}write("File:%s Opened",f_path);while ( fileGetString(tmpBuffer,elcount(tmpBuffer),fileHandle) != 0){file_line_num++; //数据行计数器if(S19_Record_Type(tmpBuffer[1],AddressSize) == file_header){write("文件头数据:%s",tmpBuffer);}else if(S19_Record_Type(tmpBuffer[1],AddressSize) == file_data){FlsData_PreviousAddress = FlsData_CurrentAddress;substr_cpy_off(temStr, 0, tmpBuffer, 2, 2, elcount(tmpBuffer));        // 截取字符串,取出数据长度snprintf(temStr, elcount(temStr), "0x%s",temStr);       strtoul(temStr,DataSize_PerLine_1);  //将数据长度 字符串转为数值substr_cpy_off(temStr, 0, tmpBuffer, 4, AddressSize, elcount(tmpBuffer)); // 截取字符串,取出当前行的地址snprintf(temStr, elcount(temStr), "0x%s",temStr);       strtoul(temStr,FlsData_CurrentAddress);  //将当前行的地址 字符串转为数值if (file_line_num == 2) //只执行一次,获取S19文件 第一段的刷写地址,和数据长度{DataSize_PerLine_0 = DataSize_PerLine_1; //DataSize_PerLine_0  是标准数据长度,DataSize_PerLine_1最后一行数据可能不等于标准数据长度F_SegmentInfor[SegCounter].start_address = FlsData_CurrentAddress;F_SegmentInfor[SegCounter].data_offset = 0; }//分段处理if(((FlsData_CurrentAddress - FlsData_PreviousAddress) > DataSize_PerLine_0) && (FlsData_PreviousAddress != 0x00000000)) {   write("Previous Address:0x%2X,Current Addresses:0x%2X ",FlsData_PreviousAddress,FlsData_CurrentAddress);F_SegmentInfor[SegCounter].data_size   = SegmentDataSize;  //上一段结束,保存上一段的字节数                                          SegCounter++;            F_SegmentInfor[SegCounter].start_address = FlsData_CurrentAddress; //保存下一段的首地址  F_SegmentInfor[SegCounter].data_offset += SegmentDataSize; //相对数组FlsData_BufferArr的开始索引地址 SegmentDataSize = 0;     // 重置计数变量,为这一段字节计数准备}// DataSize_PerLine_0 - AddressSize -1  : Byte count: 一个字节,表示后面其余部分(地址+数据+校验和)的字节数DataSize_PerLine_2 =  DataSize_PerLine_1*2 - AddressSize - 2 ;substr_cpy_off(temStr, 0, tmpBuffer, 4+AddressSize,DataSize_PerLine_2 , elcount(tmpBuffer)); // 截取字符串,取出当前行的数据    HexStrToByteArr(temStr,RawData_Line);for(i=0;i<DataSize_PerLine_2/2;i++){FlsData_BufferArr[AllDataBytes] = RawData_Line[i];AllDataBytes ++ ; SegmentDataSize ++ ;}  }else if(S19_Record_Type(tmpBuffer[1],AddressSize) == file_tail){write("文件尾数据:%s\n",tmpBuffer);//最后一段的数据长度F_SegmentInfor[SegCounter].data_size = SegmentDataSize;F_SegmentInfor[SegCounter].data_offset = AllDataBytes - SegmentDataSize; //相对数组FlsData_BufferArr的开始索引地址   fileClose(fileHandle);SegCounter++;write("文件总行数:%d",file_line_num);write("文件总字节数:%d",AllDataBytes);write("文件总分段数:%d",SegCounter);for(i = 0; i < SegCounter; i++){write("数据块:%d,  起始地址:0x%X, 结束地址:0x%X, 数据长度:%6d字节\r\n", i+1, F_SegmentInfor[i].start_address, F_SegmentInfor[i].start_address + F_SegmentInfor[i].data_size - 1, F_SegmentInfor[i].data_size);}}else{write("S19为定义格式!");fileClose(fileHandle);return 0 ;}}return 1 ;
}long S19_Record_Type(byte type ,byte &address_size)   
{if(type == '0') //s19文件的头部{return file_header; }else if((type == '7') || (type == '8') || (type == '9') ) //s19文件的结束{return file_tail;  }else if((type == '1') || (type == '2') || (type == '3') ) //s19文件的数据{if(type== '1'){address_size = 4 ;  //地址占 4个字节      }else if(type == '2'){address_size = 6 ; //地址占6个字节    }else if(type == '3'){address_size = 8 ; //地址占 8个字节   }return file_data;  }else{write("Not Defined!"); }return -1;  
}byte HexStrToByteArr(char hexRawData[], byte outByteArr[])
{word i;word offset;word hexLength;word byteIndex;byte tmpVal;byte retVal;  for (i = 0; i < elcount(outByteArr); i++){outByteArr[i] = 0;}// get the hex lengthhexLength = elcount(hexRawData);if( hexRawData[0] == '0' && hexRawData[1] == 'x' )offset = 2;   elseoffset = 0; if ( elcount(outByteArr) <  (hexLength - offset)/2 ){write("Out Arrary too Small.");return 0;}else {  //All checks went fine, convert datafor (i = offset; i < hexLength; i++){// The byte index to use for accessing output arraybyteIndex = (i - offset) / 2 ;         // convert the Hex data and validity check ittmpVal = (byte)hexRawData[i];if (tmpVal >= 0x30 && tmpVal <= 0x39)tmpVal = tmpVal - 0x30;else if(tmpVal >= 'A' && tmpVal <= 'F')tmpVal = tmpVal - 0x37;else if (tmpVal >= 'a' && tmpVal <= 'f')tmpVal = tmpVal - 0x57;else{return 0;}       if (0 == (i % 2)){outByteArr[byteIndex] = tmpVal << 4;}else{outByteArr[byteIndex] = outByteArr[byteIndex] | tmpVal;}}}return 1;
}

  • CAPL脚本跑出来的结果和HexView对比,结果一致,说明我们解析没问题

在这里插入图片描述

在这里插入图片描述

🌎总结

23

  • 🍅 有需要演示中所用demo工程的,可以关注下方公众号网盘自取啦,感谢阅读。

7

  • 🚩要有最朴素的生活,最遥远的梦想,即使明天天寒地冻,路遥马亡!

  • 🚩如果这篇博客对你有帮助,请 “点赞” “评论”“收藏”一键三连 哦!码字不易,大家的支持就是我坚持下去的动力。
    18

这篇关于基于CAPL的S19文件解析的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/929686

相关文章

Java中Redisson 的原理深度解析

《Java中Redisson的原理深度解析》Redisson是一个高性能的Redis客户端,它通过将Redis数据结构映射为Java对象和分布式对象,实现了在Java应用中方便地使用Redis,本文... 目录前言一、核心设计理念二、核心架构与通信层1. 基于 Netty 的异步非阻塞通信2. 编解码器三、

Java HashMap的底层实现原理深度解析

《JavaHashMap的底层实现原理深度解析》HashMap基于数组+链表+红黑树结构,通过哈希算法和扩容机制优化性能,负载因子与树化阈值平衡效率,是Java开发必备的高效数据结构,本文给大家介绍... 目录一、概述:HashMap的宏观结构二、核心数据结构解析1. 数组(桶数组)2. 链表节点(Node

Java 虚拟线程的创建与使用深度解析

《Java虚拟线程的创建与使用深度解析》虚拟线程是Java19中以预览特性形式引入,Java21起正式发布的轻量级线程,本文给大家介绍Java虚拟线程的创建与使用,感兴趣的朋友一起看看吧... 目录一、虚拟线程简介1.1 什么是虚拟线程?1.2 为什么需要虚拟线程?二、虚拟线程与平台线程对比代码对比示例:三

一文解析C#中的StringSplitOptions枚举

《一文解析C#中的StringSplitOptions枚举》StringSplitOptions是C#中的一个枚举类型,用于控制string.Split()方法分割字符串时的行为,核心作用是处理分割后... 目录C#的StringSplitOptions枚举1.StringSplitOptions枚举的常用

Python函数作用域与闭包举例深度解析

《Python函数作用域与闭包举例深度解析》Python函数的作用域规则和闭包是编程中的关键概念,它们决定了变量的访问和生命周期,:本文主要介绍Python函数作用域与闭包的相关资料,文中通过代码... 目录1. 基础作用域访问示例1:访问全局变量示例2:访问外层函数变量2. 闭包基础示例3:简单闭包示例4

MyBatis延迟加载与多级缓存全解析

《MyBatis延迟加载与多级缓存全解析》文章介绍MyBatis的延迟加载与多级缓存机制,延迟加载按需加载关联数据提升性能,一级缓存会话级默认开启,二级缓存工厂级支持跨会话共享,增删改操作会清空对应缓... 目录MyBATis延迟加载策略一对多示例一对多示例MyBatis框架的缓存一级缓存二级缓存MyBat

前端缓存策略的自解方案全解析

《前端缓存策略的自解方案全解析》缓存从来都是前端的一个痛点,很多前端搞不清楚缓存到底是何物,:本文主要介绍前端缓存的自解方案,文中通过代码介绍的非常详细,需要的朋友可以参考下... 目录一、为什么“清缓存”成了技术圈的梗二、先给缓存“把个脉”:浏览器到底缓存了谁?三、设计思路:把“发版”做成“自愈”四、代码

Java集合之Iterator迭代器实现代码解析

《Java集合之Iterator迭代器实现代码解析》迭代器Iterator是Java集合框架中的一个核心接口,位于java.util包下,它定义了一种标准的元素访问机制,为各种集合类型提供了一种统一的... 目录一、什么是Iterator二、Iterator的核心方法三、基本使用示例四、Iterator的工

Java JDK Validation 注解解析与使用方法验证

《JavaJDKValidation注解解析与使用方法验证》JakartaValidation提供了一种声明式、标准化的方式来验证Java对象,与框架无关,可以方便地集成到各种Java应用中,... 目录核心概念1. 主要注解基本约束注解其他常用注解2. 核心接口使用方法1. 基本使用添加依赖 (Maven

Java中的分布式系统开发基于 Zookeeper 与 Dubbo 的应用案例解析

《Java中的分布式系统开发基于Zookeeper与Dubbo的应用案例解析》本文将通过实际案例,带你走进基于Zookeeper与Dubbo的分布式系统开发,本文通过实例代码给大家介绍的非常详... 目录Java 中的分布式系统开发基于 Zookeeper 与 Dubbo 的应用案例一、分布式系统中的挑战二