java自动化测试-接口响应内容处理技巧:json转DTO

2024-06-06 06:44

本文主要是介绍java自动化测试-接口响应内容处理技巧:json转DTO,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

背景:某个交易自动化案例需要检查关联系统的交易结果,可以通过接口请求结果来断言。
一般处理是转成json格式一层层获取自己想要的,但这样子很麻烦而且容易记错层级或字段。这里介绍一种非常通用且方便的方式。

假设接口返回数据如下:
{
“itemId”:3454234,
“specification”[{
“id”:234,
“price”:666.66}],
“attribute”[{
“attributeId”:212,
“name”:“中码”
}]
}

json转dto步骤如下:
1、先为里面层数据创建引用dto SpecificationDto 和AttributeDto
2、创建 ItemDto ,引用上述dto
3、把请求结果转成dto

1、先为底层数据创建引用dto SpecificationDto 和AttributeDto

import java.math.BigDecimal;public class SpecificationDto {
private Long id;
private BigDecimal price;
public Long getid(){
return id;
}
public void setId(Long id) {
this.id = id;
}
public BigDecimal getprice() {
return price;
}
public void setprice(BigDecimal price){
this.price = price;
}}
public class AttributeDto {
private Long attributeid; 
private string name;public Long getAttributeId() {
return attributeld;}
public void setAttributeId(Long attributeId) {
this.attributeId = attributeId;}public string getName() {
return name;}
public void setName(String name){
this.name = name;
}}

2、创建 ItemDto ,引用上述dto

import java.util.List;public class ItemDto {
private Long itemId;
private List<SpecificationDto> specification; 
private List<AttributeDto> attribute;public Long.getItemId() {
return itemid;}
public void setId(Long itemid) {
this.itemId = itemId;}public List<specificationDto>getspecification( ){
return specification;}
public void setspecification(List<SpecificationDto>specification){
this.specification=specification;}public List<AttributeDto>getAttribute() {
return attribute; }
public void setAttribute(List<AttributeDto>attribute) {
this.attribute =attribute;
}}

3、把请求结果转成dto

// 将接口返回数据res转成dto
ItemDto itemDto = JSONObject.parse0bject(res.toJSONString()ItenDto.class);
//过滤得到想要的规格数据
Specification specificationList = itenDto.getspecification().stream().filter(dto -> dto.getId().equals("234")).collect(Collectors.tolist());
//汇总统计返回规格的总价
BigDecimal tot = itemDto.getspecification().stream( ).map(dto -> dto.getProdVo1()).reduce(BigDecimal.ZERO,BigDecimal::add);

转dto的好处很多:

  • 代码少,可阅读性友好。
  • 输入xxDto.get会出现提示框,能快捷获取字段,不会出错。非常方便获取第n层的字段。
  • 通过stream api处理列表数据非常方便高效。
  • 如果需要汇总统计,自动转成bigDecimal类型后非常方便计算和统一。
  • 最最能取巧的是,一般开发也需要包装一样结构的dto数据,大部分时候,我们可以不用自己写dto,直接复制开发的文件过来用即可!

这篇关于java自动化测试-接口响应内容处理技巧:json转DTO的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1035370

相关文章

SpringBoot通过main方法启动web项目实践

《SpringBoot通过main方法启动web项目实践》SpringBoot通过SpringApplication.run()启动Web项目,自动推断应用类型,加载初始化器与监听器,配置Spring... 目录1. 启动入口:SpringApplication.run()2. SpringApplicat

Java利用@SneakyThrows注解提升异常处理效率详解

《Java利用@SneakyThrows注解提升异常处理效率详解》这篇文章将深度剖析@SneakyThrows的原理,用法,适用场景以及隐藏的陷阱,看看它如何让Java异常处理效率飙升50%,感兴趣的... 目录前言一、检查型异常的“诅咒”:为什么Java开发者讨厌它1.1 检查型异常的痛点1.2 为什么说

基于Java开发一个极简版敏感词检测工具

《基于Java开发一个极简版敏感词检测工具》这篇文章主要为大家详细介绍了如何基于Java开发一个极简版敏感词检测工具,文中的示例代码简洁易懂,感兴趣的小伙伴可以跟随小编一起学习一下... 目录你是否还在为敏感词检测头疼一、极简版Java敏感词检测工具的3大核心优势1.1 优势1:DFA算法驱动,效率提升10

MySQL中查询和展示LONGBLOB类型数据的技巧总结

《MySQL中查询和展示LONGBLOB类型数据的技巧总结》在MySQL中LONGBLOB是一种二进制大对象(BLOB)数据类型,用于存储大量的二进制数据,:本文主要介绍MySQL中查询和展示LO... 目录前言1. 查询 LONGBLOB 数据的大小2. 查询并展示 LONGBLOB 数据2.1 转换为十

Java使用正则提取字符串中的内容的详细步骤

《Java使用正则提取字符串中的内容的详细步骤》:本文主要介绍Java中使用正则表达式提取字符串内容的方法,通过Pattern和Matcher类实现,涵盖编译正则、查找匹配、分组捕获、数字与邮箱提... 目录1. 基础流程2. 关键方法说明3. 常见场景示例场景1:提取所有数字场景2:提取邮箱地址4. 高级

使用SpringBoot+InfluxDB实现高效数据存储与查询

《使用SpringBoot+InfluxDB实现高效数据存储与查询》InfluxDB是一个开源的时间序列数据库,特别适合处理带有时间戳的监控数据、指标数据等,下面详细介绍如何在SpringBoot项目... 目录1、项目介绍2、 InfluxDB 介绍3、Spring Boot 配置 InfluxDB4、I

基于Java和FFmpeg实现视频压缩和剪辑功能

《基于Java和FFmpeg实现视频压缩和剪辑功能》在视频处理开发中,压缩和剪辑是常见的需求,本文将介绍如何使用Java结合FFmpeg实现视频压缩和剪辑功能,同时去除数据库操作,仅专注于视频处理,需... 目录引言1. 环境准备1.1 项目依赖1.2 安装 FFmpeg2. 视频压缩功能实现2.1 主要功

使用Java读取本地文件并转换为MultipartFile对象的方法

《使用Java读取本地文件并转换为MultipartFile对象的方法》在许多JavaWeb应用中,我们经常会遇到将本地文件上传至服务器或其他系统的需求,在这种场景下,MultipartFile对象非... 目录1. 基本需求2. 自定义 MultipartFile 类3. 实现代码4. 代码解析5. 自定

Spring-DI依赖注入全过程

《Spring-DI依赖注入全过程》SpringDI是核心特性,通过容器管理依赖注入,降低耦合度,实现方式包括组件扫描、构造器/设值/字段注入、自动装配及作用域配置,支持灵活的依赖管理与生命周期控制,... 目录1. 什么是Spring DI?2.Spring如何做的DI3.总结1. 什么是Spring D

Python利用PySpark和Kafka实现流处理引擎构建指南

《Python利用PySpark和Kafka实现流处理引擎构建指南》本文将深入解剖基于Python的实时处理黄金组合:Kafka(分布式消息队列)与PySpark(分布式计算引擎)的化学反应,并构建一... 目录引言:数据洪流时代的生存法则第一章 Kafka:数据世界的中央神经系统消息引擎核心设计哲学高吞吐