TensorFlow on Android(4): 输入数据预处理和Inference

2024-02-10 20:48

本文主要是介绍TensorFlow on Android(4): 输入数据预处理和Inference,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Graph,Op, Tensor

在开始输入数据之前,我们先简单讲一下TensorFlow中的一些概念

一个 TensorFlow 的计算任务, 叫做Graph, 一个Graph由很多节点(Op)组成, Op通过Tensor获取输入,Op完成计算以后再通过Tensor把输出传递到下一个节点。

Tensor一般来说是一个数组(1维或多维),我们用Feed操作将一个Tensor的数据输入到一个Op, 用Fetch操作将Op的输出提取到Tensor当中

那么回到我们的项目中来,为了进行物体的识别,我们要做就是相应的Op中输入图片数据, 然后从相应的Op提取识别结果

我们在这里可以找到我们使用的模型的大致架构
enter image description here
那么可以这样说, 我们向名为“image_tensor”的Op中输入图片数据, 然后从多个Op中获取识别结果,这样的Op有4个

  • “detection_boxes”, 输出识别物体的矩形框
  • “detection_scores”, 输出识别物体的Confidence, 用来衡量识别得准确性有多大
  • “detection_classes”, 识别物体的种类
  • “num_detections”, 识别物体的数量

明白了我们该怎么做以后, 我们开始写代码吧!

设计界面

首先我们需要设计一个界面, 有一个Button用来呼出相册, 以及一个ImageView来显示图片和识别结果, 大致是这样的
enter image description here

然后我们需要写一些代码来实现从相册从提取图片,并显示在ImageView上面
因为这些代码都很简单,而且很多现成代码可以参考,这里就不再详述了。

数据预处理

在将图片数据Feed到我们的模型之前,我们还需要对图片数据进行一些处理,将它转换为我们模型能够识别和处理的数据。我们用Bitmap作为最原始的输入数据,我们需要做下面的一些处理:

第一步是图片尺寸, 每一个图片的长宽都是不一样的,但是我们希望把所有的输入图片都处理成一样的尺寸,比如说300X300,所以我们需要写一些图片尺寸转换的代码,这样的代码如果自己不会写,在网上也可以找到很多现成的代码,下面也是从开源的代码里面参考来的转换函数:

public class Utils {
public static Matrix getImageTransformationMatrix(final int srcWidth,final int srcHeight,final int dstWidth,final int dstHeight,final int applyRotation,final boolean maintainAspectRatio) {final Matrix matrix = new Matrix();if (applyRotation != 0) {matrix.postTranslate(-srcWidth / 2.0f, -srcHeight / 2.0f);matrix.postRotate(applyRotation);}final boolean transpose = (Math.abs(applyRotation) + 90) % 180 == 0;final int inWidth = transpose ? srcHeight : srcWidth;final int inHeight = transpose ? srcWidth : srcHeight;if (inWidth != dstWidth || inHeight != dstHeight) {final float scaleFactorX = dstWidth / (float) inWidth;final float scaleFactorY = dstHeight / (float) inHeight;if (maintainAspectRatio) {final float scaleFactor = Math.max(scaleFactorX, scaleFactorY);matrix.postScale(scaleFactor, scaleFactor);} else {matrix.postScale(scaleFactorX, scaleFactorY);}}if (applyRotation != 0) {matrix.postTranslate(dstWidth / 2.0f, dstHeight / 2.0f);}return matrix;}
}

这个函数会返回进行图片尺寸转换所需要的Matrix对象,这很有用,我们在后面可视化识别结果的时候用的着。然后我们通过下面的代码来完成转换

Bitmap bitmapInput = Bitmap.createBitmap(300, 300, Bitmap.Config.ARGB_8888);
final Matrix originToInput = Utils.getImageTransformationMatrix(originImage.getWidth(), originImage.getHeight(), 300, 300,0, false);
final Canvas canvas = new Canvas(bitmapInput);
canvas.drawBitmap(originImage, originToInput, null);

第二步是将二维的位图数据转换为一维的数组, 我们的模型接受的输入是由图片的像素点RGB值组成的一维数组, 比如说有2个像素点(用(R,G,B)表示),(1,2,3),(4,5,6),那么正确的输入数组应该是[1, 2, 3, 4, 5, 6], 我们可以通过下面的代码来完成

int[] pixels = new int[300 * 300];
bitmapInput.getPixels(pixels, 0, bitmapInput.getWidth(), 0, 0, bitmapInput.getWidth(), bitmapInput.getHeight());
byte[] byteInput = new byte[pixels.length * 3];
for (int i = 0; i < pixels.length; ++i) {byteInput[i * 3 + 2] = (byte) (pixels[i] & 0xFF);byteInput[i * 3 + 1] = (byte) ((pixels[i] >> 8) & 0xFF);byteInput[i * 3 + 0] = (byte) ((pixels[i] >> 16) & 0xFF);}

我们先通过getPixels获取位图所有像素的一维数组,再通过位操作分别提取每个像素的RGB值,然后赋值到byteInput数组的相应位置中, byteInput数组就是处理好的,准备Inference的数据了

Inference

我们通过调用TensorFlowInferenceInterface的Feed方法来向模型中输入数据

inferenceInterface.feed("image_tensor", byteInput, 1, 300, 300, 3);

这个代码的意思是向名为“image_tensor”的Op输入相应的数据: 图片数据,值为 byteInput; batch_size, 我们输入的是一张图片的数据,所以值为1; 图片的高和宽,都是300;通道数,因为我们使用RGB,所以值为3

接下来我们分配一些数组(Tensor)来准备接受Inference的结果,我们只取物体位置, 分数,物体类型的数据, 在这里我们最多取前100个识别结果:

float[] boxes = new float[100 * 4];
float[] scores = new float[100];
float[] classes = new float[100];

因为一个矩形框(box)是由(top,left, botton,right)的4元组表示的,所以boxes数组的大小应该是 100X4。分配好数组以后, 我们就可以开始inference, 并从相应的Op里面提取识别结果, 代码如下:

inferenceInterface.run(new String[]{"detection_boxes", "detection_scores","detection_classes"}, false);
float[] boxes = new float[MAX_RESULTS * 4];
float[] scores = new float[MAX_RESULTS];
float[] classes = new float[MAX_RESULTS];
inferenceInterface.fetch("detection_boxes", boxes);
inferenceInterface.fetch("detection_scores", scores);
inferenceInterface.fetch("detection_classes", classes);

我们使用TensorFlowInferenceInterface的Run方法来启动从之前用Feed注册的输入节点(image_tensor)到由参数指定的输出节点(detection_boxes, detection_scores,detection_classes)的Inference, 对我们来说,就是从输入的图片数据,识别出物体的位置,类别,和分数。然后我们用 Fetch方法来提取相应的输出数据。

现在我们已经得到了识别结果,接下来准备把结果可视化吧!

这篇关于TensorFlow on Android(4): 输入数据预处理和Inference的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/698043

相关文章

SpringBoot分段处理List集合多线程批量插入数据方式

《SpringBoot分段处理List集合多线程批量插入数据方式》文章介绍如何处理大数据量List批量插入数据库的优化方案:通过拆分List并分配独立线程处理,结合Spring线程池与异步方法提升效率... 目录项目场景解决方案1.实体类2.Mapper3.spring容器注入线程池bejsan对象4.创建

PHP轻松处理千万行数据的方法详解

《PHP轻松处理千万行数据的方法详解》说到处理大数据集,PHP通常不是第一个想到的语言,但如果你曾经需要处理数百万行数据而不让服务器崩溃或内存耗尽,你就会知道PHP用对了工具有多强大,下面小编就... 目录问题的本质php 中的数据流处理:为什么必不可少生成器:内存高效的迭代方式流量控制:避免系统过载一次性

C#实现千万数据秒级导入的代码

《C#实现千万数据秒级导入的代码》在实际开发中excel导入很常见,现代社会中很容易遇到大数据处理业务,所以本文我就给大家分享一下千万数据秒级导入怎么实现,文中有详细的代码示例供大家参考,需要的朋友可... 目录前言一、数据存储二、处理逻辑优化前代码处理逻辑优化后的代码总结前言在实际开发中excel导入很

MyBatis-plus处理存储json数据过程

《MyBatis-plus处理存储json数据过程》文章介绍MyBatis-Plus3.4.21处理对象与集合的差异:对象可用内置Handler配合autoResultMap,集合需自定义处理器继承F... 目录1、如果是对象2、如果需要转换的是List集合总结对象和集合分两种情况处理,目前我用的MP的版本

GSON框架下将百度天气JSON数据转JavaBean

《GSON框架下将百度天气JSON数据转JavaBean》这篇文章主要为大家详细介绍了如何在GSON框架下实现将百度天气JSON数据转JavaBean,文中的示例代码讲解详细,感兴趣的小伙伴可以了解下... 目录前言一、百度天气jsON1、请求参数2、返回参数3、属性映射二、GSON属性映射实战1、类对象映

C# LiteDB处理时间序列数据的高性能解决方案

《C#LiteDB处理时间序列数据的高性能解决方案》LiteDB作为.NET生态下的轻量级嵌入式NoSQL数据库,一直是时间序列处理的优选方案,本文将为大家大家简单介绍一下LiteDB处理时间序列数... 目录为什么选择LiteDB处理时间序列数据第一章:LiteDB时间序列数据模型设计1.1 核心设计原则

Android协程高级用法大全

《Android协程高级用法大全》这篇文章给大家介绍Android协程高级用法大全,本文结合实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友跟随小编一起学习吧... 目录1️⃣ 协程作用域(CoroutineScope)与生命周期绑定Activity/Fragment 中手

Java+AI驱动实现PDF文件数据提取与解析

《Java+AI驱动实现PDF文件数据提取与解析》本文将和大家分享一套基于AI的体检报告智能评估方案,详细介绍从PDF上传、内容提取到AI分析、数据存储的全流程自动化实现方法,感兴趣的可以了解下... 目录一、核心流程:从上传到评估的完整链路二、第一步:解析 PDF,提取体检报告内容1. 引入依赖2. 封装

MySQL中查询和展示LONGBLOB类型数据的技巧总结

《MySQL中查询和展示LONGBLOB类型数据的技巧总结》在MySQL中LONGBLOB是一种二进制大对象(BLOB)数据类型,用于存储大量的二进制数据,:本文主要介绍MySQL中查询和展示LO... 目录前言1. 查询 LONGBLOB 数据的大小2. 查询并展示 LONGBLOB 数据2.1 转换为十

使用SpringBoot+InfluxDB实现高效数据存储与查询

《使用SpringBoot+InfluxDB实现高效数据存储与查询》InfluxDB是一个开源的时间序列数据库,特别适合处理带有时间戳的监控数据、指标数据等,下面详细介绍如何在SpringBoot项目... 目录1、项目介绍2、 InfluxDB 介绍3、Spring Boot 配置 InfluxDB4、I