使用SpringBoot+InfluxDB实现高效数据存储与查询

本文主要是介绍使用SpringBoot+InfluxDB实现高效数据存储与查询,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

《使用SpringBoot+InfluxDB实现高效数据存储与查询》InfluxDB是一个开源的时间序列数据库,特别适合处理带有时间戳的监控数据、指标数据等,下面详细介绍如何在SpringBoot项目...

1、项目介绍

本项目使用 Spring Boot + InfluxDB 2.x 来存储和查询时间序列数据,适用于 物联网(IoT)、实时监控、日志分析 等场景。

2、 InfluxDB 介绍

InfluxDB 是一个高性能的时间序列数据库(TSDB),适用于存储温度、传感器数据、日志、监控指标等。

特点

  • 采用 Flux 查询语言
  • 高吞吐量,支持 批量写入
  • Tag(索引)+ Field(数据) 结构,提高查询效率
  • 精确时间戳(支持纳秒级)

3、Spring Boot 配置 InfluxDB

application.yml 中配置 InfluxDB 连接:

# China编程InfluxDB 独立配置
influxdb:
  url: http://192.168.1.1xx:28086/  # InfluxDB 服务器地址
  token: _7FZlXGJJcd8Ayox-F-hvbDdXb_a5SI3530x1DdFKZfQ65uOhnpQciJWHpd7ULhpAOcgj5oV2jsR-Xf0qTtAxg==
  org: xxx     # 组织名称
  bucket: xxx  # 存储桶名称
  # InfluxDB 客户端日志级别
  # ERROR: 仅js记录错误日志
  # WARN: 记录警告和错误日志
  # INFO: 记录普通信息、警告和错误日志
  # DEBUG: 记录调试级别的详细日志
  # BODY: 记录完整的 HTTP 请求和响应主体
  # TRACE: 记录极其详细的跟踪日志
  # ALL: 记录所有日志级别(视客户端而定)
  logLevel: BODY

4、InfluxDB 连接配置

InfluxDBConfig.Java 中配置 InfluxDB 客户端:

import com.influxdb.client.InfluxDBClient;
import com.influxdb.client.InfluxDBClientFactory;
import org.springframework.beans.factory.annotation.Value;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
 
@Configuration
public class InfluxDBConfig {
 
    @Value("${influxdb.url}")
    private String url;
 
    @Value("${influxdb.token}")
    private String token;
 
    @Value("${influxdb.org}")
    private String org;
 
    @Value("${influxdb.bucket}")
    private String bucket;
 
    @Bean
    public InfluxDBClient influxDBClient() {
        return InfluxDBClientFactory.create(url, token.toCharArray(), org, bucket);
    }
}

说明

  • InfluxDBClientFactory.create(url, token, org, bucket) 创建 InfluxDB 客户端
  • @Value 读取 application.yml 配置

5、Service 层:数据写入 & 查询

5.1 单条数据写入

public void writeSingleData(TemperatureDTO temperatureDTO) {
    WriteApiblocking writeApi = influxDBClient.getWriteApiBlocking();
    
    Point point = Point.measurement("temperature")
            .addTag("location", temperatureDTO.getLocation()) // 添加标签(索引)
            .addField("value", temperatureDTO.getValue()) // 添加字段(数据)
            .time(Instant.now(), WritePrecision.NS); // 记录当前时间戳
 
    writeApi.writePoint(point);
}

5.2 批量写入(异步)

public void writeBATchData(List<TemperatureDTO> temperatureDTOs) {
    WriteApi writeApi = influxDBClient.makeWriteApi(); // 获取异步 API
 
    List<Point> points = temperatureDTOs.stream()
            .map(dto -> Point.measurement("temperature")
                    .addTag("location", dto.getLocation())
                    .addField("value", dto.getValue())
                    .time(Instant.now(), WritePrecision.NS))
            .collect(Collectors.toList());
 
    CompletableFuture<Void> future = CompletableFuture.runAsync(() -> writeApi.writePoints(points));
    future.whenComplete((result, error) -> {
        if (error != null) {
            System.err.println(" 写入失败:" + error.getMessage());
        } else {
            writeApi.close();  // 关闭 API 避免资源泄露
            log.info("✅ 批量数据写入成功(异步)");
        }
    });
}

说明

  • 异步写入 不会阻塞主线程,提高吞吐量
  • 异常回调 捕获写入失败的信息
  • 使用 writeApi.close() 避免资源泄露

5.3 查询数据

public List<TemperatureVO> queryTemperatureData() {
    String query = "from(bucket: \"test\") |> range(start: -1h)";
    QueryApi queryApi = influxDBClient.getQueryApi();
 
    return queryApi.query(query)
            .stream()
            .flatMjuFXaap(fluxTable -> fluxTable.getRecords().stream()) // 遍历 FluxTable
            .map(record -> {
                TemperatureVO vo = new TempythonperatureVO();
                vo.setLocation((String) record.getValueByKey("location")); // 获取标签信息
                Object valueObj = record.getValueByKey("_value");
                vo.setValue(valueObj != null ? ((Number) valueObj).doubleValue() : 0.0);
                vo.setTimestamp(record.getTime().toString());
                return vo;
            })
            .collect(Collectors.toList());
}

说明

  • Flux 查询 过去 1h 内的数据
  • 遍历 FluxTable 提取 标签 + 字段 数据

6、Controller 层:API 设计

@RestController
@RequestMapping("/api/influxdb")
public class InfluxDBController {
 
   编程 @Autowired
    private TestService influxDBService;
 
    @PostMapping("/write")
    public String writeData(@RequestBody TemperatureDTO temperatureDTO) {
        influxDBService.writeSingleData(temperatureDTO);
        return "✅ 单条数据写入成功!";
    }
 
    @PostMapping("/write-batch")
    public String writeBatchData() {
        List<TemperatureDTO> data = generateTestData(10000);
        influxDBService.writeBatchData(data);
        return "✅ 10,000 条数据成功写入!";
    }
 
    @GetMapping("/query")
    public List<TemperatureVO> queryTemperatureData() {
        return influxDBService.queryTemperatureData();
    }
 
    private List<TemperatureDTO> generateTestData(int count) {
        List<TemperatureDTO> dataList = new ArrayList<>();
        Random random = new Random();
        for (int i = 0; i < count; i++) {
            TemperatureDTO dto = new TemperatureDTO();
            dto.setLocation("office-" + (random.nextInt(1000) + 1));
            dto.setValue(15 + (random.nextDouble() * 10));
            dataList.add(dto);
        }
        return dataList;
    }
}

说明

  • /write单条写入
  • /write-batch生成 10,000 条数据并写入
  • /query查询过去 1 小时数据

7、运行 & 测试

7.1 启动项目

mvn spring-boot:run 

7.2 使用 Postman 进行测试

1、写入单条数据

POST http://localhost:8080/api/influxdb/write

{
  "location": "office-1",
  "value": 22.5
}

2、批量写入

POST http://localhost:8080/api/influxdb/write-batch

3、查询数据

GET http://localhost:8080/api/influxdb/query

以上就是使用SpringBoot+InfluxDB实现高效数据存储与查询的详细内容,更多关于SpringBoot InfluxDB数据存储与查询的资料请关注编程China编程(www.chinasem.cn)其它相关文章!

这篇关于使用SpringBoot+InfluxDB实现高效数据存储与查询的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1155781

相关文章

基于Java和FFmpeg实现视频压缩和剪辑功能

《基于Java和FFmpeg实现视频压缩和剪辑功能》在视频处理开发中,压缩和剪辑是常见的需求,本文将介绍如何使用Java结合FFmpeg实现视频压缩和剪辑功能,同时去除数据库操作,仅专注于视频处理,需... 目录引言1. 环境准备1.1 项目依赖1.2 安装 FFmpeg2. 视频压缩功能实现2.1 主要功

使用Java读取本地文件并转换为MultipartFile对象的方法

《使用Java读取本地文件并转换为MultipartFile对象的方法》在许多JavaWeb应用中,我们经常会遇到将本地文件上传至服务器或其他系统的需求,在这种场景下,MultipartFile对象非... 目录1. 基本需求2. 自定义 MultipartFile 类3. 实现代码4. 代码解析5. 自定

使用Python实现无损放大图片功能

《使用Python实现无损放大图片功能》本文介绍了如何使用Python的Pillow库进行无损图片放大,区分了JPEG和PNG格式在放大过程中的特点,并给出了示例代码,JPEG格式可能受压缩影响,需先... 目录一、什么是无损放大?二、实现方法步骤1:读取图片步骤2:无损放大图片步骤3:保存图片三、示php

Spring-DI依赖注入全过程

《Spring-DI依赖注入全过程》SpringDI是核心特性,通过容器管理依赖注入,降低耦合度,实现方式包括组件扫描、构造器/设值/字段注入、自动装配及作用域配置,支持灵活的依赖管理与生命周期控制,... 目录1. 什么是Spring DI?2.Spring如何做的DI3.总结1. 什么是Spring D

使用Python实现一个简易计算器的新手指南

《使用Python实现一个简易计算器的新手指南》计算器是编程入门的经典项目,它涵盖了变量、输入输出、条件判断等核心编程概念,通过这个小项目,可以快速掌握Python的基础语法,并为后续更复杂的项目打下... 目录准备工作基础概念解析分步实现计算器第一步:获取用户输入第二步:实现基本运算第三步:显示计算结果进

Python多线程实现大文件快速下载的代码实现

《Python多线程实现大文件快速下载的代码实现》在互联网时代,文件下载是日常操作之一,尤其是大文件,然而,网络条件不稳定或带宽有限时,下载速度会变得很慢,本文将介绍如何使用Python实现多线程下载... 目录引言一、多线程下载原理二、python实现多线程下载代码说明:三、实战案例四、注意事项五、总结引

Python利用PySpark和Kafka实现流处理引擎构建指南

《Python利用PySpark和Kafka实现流处理引擎构建指南》本文将深入解剖基于Python的实时处理黄金组合:Kafka(分布式消息队列)与PySpark(分布式计算引擎)的化学反应,并构建一... 目录引言:数据洪流时代的生存法则第一章 Kafka:数据世界的中央神经系统消息引擎核心设计哲学高吞吐

spring AMQP代码生成rabbitmq的exchange and queue教程

《springAMQP代码生成rabbitmq的exchangeandqueue教程》使用SpringAMQP代码直接创建RabbitMQexchange和queue,并确保绑定关系自动成立,简... 目录spring AMQP代码生成rabbitmq的exchange and 编程queue执行结果总结s

C++ STL-string类底层实现过程

《C++STL-string类底层实现过程》本文实现了一个简易的string类,涵盖动态数组存储、深拷贝机制、迭代器支持、容量调整、字符串修改、运算符重载等功能,模拟标准string核心特性,重点强... 目录实现框架一、默认成员函数1.默认构造函数2.构造函数3.拷贝构造函数(重点)4.赋值运算符重载函数

Java调用Python脚本实现HelloWorld的示例详解

《Java调用Python脚本实现HelloWorld的示例详解》作为程序员,我们经常会遇到需要在Java项目中调用Python脚本的场景,下面我们来看看如何从基础到进阶,一步步实现Java与Pyth... 目录一、环境准备二、基础调用:使用 Runtime.exec()2.1 实现步骤2.2 代码解析三、