从北京到南京:偶数在能源行业的数据迁移实践

2023-10-21 04:20

本文主要是介绍从北京到南京:偶数在能源行业的数据迁移实践,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

能源行业的数字化转型

当前,大数据技术在以电力为代表的能源行业不断推进,同时,分布式能源、储能、电网技术不断改进,电力行业的数字化转型充满了机遇和挑战。

一方面,电力行业本身自动化程度高、信息化基础好、系统完备,电力企业在数字化转型上,更加关注通过物联网、大数据、人工智能等新技术的应用挖掘数据的价值。另一方面,在信息化建设和数字化转型的过程中,智能传感器生态链尚不完善,海量数据闲置无法发挥价值,错综复杂的系统形成信息孤岛无法有效融合。

因此,为了充分挖掘,实现数据价值,电力企业首先要考虑如何实现数据的高效整合,以及如何形成数据资产。

在这个背景下,偶数科技为国内某大型能源集团进行了数据迁移并成功实现了大数据底座的优化升级。


平台升级改造迫在眉睫

2023年,该能源集团数据中心在经过多年的使用后即将进行升级改造。由于业务调整,数据中心的地理位置也随之变更,需要将原北京数据中心迁移至南京的新数据中心。同时,当前数据平台系统已经遇到瓶颈,无法有效满足业务需求,亟需对管理架构进行升级改造。


平台技术瓶颈定位

1. 平台拓展能力受限,当前集群规模已达到上限,形成性能瓶颈,如果拓展节点就需要增加新的集群,不仅系统变得复杂,管理维护也变得异常困难。2. 平台数据更新能力受制约,需要原生支持 HDFS 存储上的 Update/Delete 操作。3. 原平台达到性能瓶颈,需要新平台能大幅改善数据库系统插入和查询的性能。


核心组件选型

在对现有分析型国产数据库进行横向调研和测评后,该能源集团对 OushuDB 新产品特性产生了极大的兴趣和期待。一方面是 OushuDB 产品本身对 HDFS 操作的灵活支持,另一方面客户非常认可偶数自研存储的性能及其可插拔存储架构。经过多轮的沟通和测试,确定了以 OushuDB 为核心的数据平台解决方案,并正式进入了数据迁移改造阶段。


整体迁移方案

由于北京数据中心原来的服务器机型老旧,不兼容南京数据中心即将搭建的新集群,因此本次迁移通过搭建临时集群的方式,在北京数据中心将原有数据文件同步至临时集群,再将临时集群搬迁至南京数据中心,临时集群和南京集群组建新的OushuDB 集群,导入备份数据。最后补录迁移期间数据,完成整体迁移。

平台迁移时间线

迁移实施过程

本次大数据平台搬迁实施总体目标是完成大数据平台由北京机房搬迁至南京机房,本次迁移分为两个主要步骤,第一是北京机房的数据备份,迁移至南京机房,第二是新集群的部署和系统及数据验证,再进行业务切换。

北京机房搭建临时集群

为了保证搬迁效率和控制成本,在搭建临时大数据集群时采用规模最小原则,根据数据实际情况,本次项目使用了5台服务器以支撑数据迁移。

在临时集群搭建完毕后,通过数据快照的方式,将北京机房通过万兆局域网进行跨集群数据迁移,数据由原大数据平台迁移至新集群环境。

临时集群搬迁

待北京机房新大数据新集群数据迁移完成后,将新集群下电搬迁至南京机房。将5个节点新集群下架,通过物流运输的方式,将5个节点组成的临时集群搬迁至南京机房。

南京机房集群部署及运行

同步进行部署在虚拟化集群的大数据平台应用功能迁移,新集群重新加电启动,进行系统和数据验证后,依托广域网络完成增量数据迁移,完成系统功能和数据验证。

1. 在南京机房上架新服务器

将10台服务器进行上架。设备网络互联、设备电源连接、打印标签。服务器安装操作系统,网络设备配置、调试;

2. 大数据平台虚拟化应用部署

在南京机房虚拟化集群部署大数据平台的各应用及服务;

3. 新大数据集群搬迁及扩容

待5节点集群迁移至南京机房,进行设备网络互联、设备电源连接、打印标签、启动设备,对集群平台进行功能验证,并将南京机房现有的服务器10台纳入新大数据集群,形成15节点集群;

4. 增量数据同步,新、旧集群并列运行

通过大数据平台数据补招和离线文件导入功能,将大数据搬迁期间增量运行数据迁移至新集群,并进行新集群业务功能验证;核实数据无问题后,将剩余相关业务整体切换至南京机房大数据集群。


平台能力提升
布局实时分析和人工智能

通过本次数据迁移,该客户不仅实现了从北京机房到南京机房无损、平稳的数据搬迁,同时还通过这次契机实现了大数据平台的升级,并在以下几个方面得到了显著提升。

1. 平台性能大幅提升,更换采用新一代向量化执行引擎,让硬件资源得以充分释放,减少了业务分析的延迟。2. 平台可靠性得到有力保障,通过多活主节点保证更高的系统可用性,规避单主节点的故障风险。3. 平台动态水平扩展,通过存算分离、可拓展技术架构解决了集群规模受限的长期困扰。4. 共享一份数据,解决数据孤岛,减少冗余。通过开放的存储格式让所有数据形成统一的一份数据,减少了不同集群之间底层数据存储不兼容的问题。

除了以上平台能力建设的大幅提升,该客户基于平台开放格式的统一数据存储,还可以选用和优化不同大数据组件(如处理结构化数据、非结构化数据和流式数据的不同计算引擎),可落地的多引擎融合能力,让该客户在能源领域提早布局实时分析和人工智能,抓住数字化转型先机。

这篇关于从北京到南京:偶数在能源行业的数据迁移实践的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/251871

相关文章

SQLite3命令行工具最佳实践指南

《SQLite3命令行工具最佳实践指南》SQLite3是轻量级嵌入式数据库,无需服务器支持,具备ACID事务与跨平台特性,适用于小型项目和学习,sqlite3.exe作为命令行工具,支持SQL执行、数... 目录1. SQLite3简介和特点2. sqlite3.exe使用概述2.1 sqlite3.exe

SQL Server修改数据库名及物理数据文件名操作步骤

《SQLServer修改数据库名及物理数据文件名操作步骤》在SQLServer中重命名数据库是一个常见的操作,但需要确保用户具有足够的权限来执行此操作,:本文主要介绍SQLServer修改数据... 目录一、背景介绍二、操作步骤2.1 设置为单用户模式(断开连接)2.2 修改数据库名称2.3 查找逻辑文件名

canal实现mysql数据同步的详细过程

《canal实现mysql数据同步的详细过程》:本文主要介绍canal实现mysql数据同步的详细过程,本文通过实例图文相结合给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的... 目录1、canal下载2、mysql同步用户创建和授权3、canal admin安装和启动4、canal

SQL中JOIN操作的条件使用总结与实践

《SQL中JOIN操作的条件使用总结与实践》在SQL查询中,JOIN操作是多表关联的核心工具,本文将从原理,场景和最佳实践三个方面总结JOIN条件的使用规则,希望可以帮助开发者精准控制查询逻辑... 目录一、ON与WHERE的本质区别二、场景化条件使用规则三、最佳实践建议1.优先使用ON条件2.WHERE用

Springboot整合Redis主从实践

《Springboot整合Redis主从实践》:本文主要介绍Springboot整合Redis主从的实例,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录前言原配置现配置测试LettuceConnectionFactory.setShareNativeConnect

使用SpringBoot整合Sharding Sphere实现数据脱敏的示例

《使用SpringBoot整合ShardingSphere实现数据脱敏的示例》ApacheShardingSphere数据脱敏模块,通过SQL拦截与改写实现敏感信息加密存储,解决手动处理繁琐及系统改... 目录痛点一:痛点二:脱敏配置Quick Start——Spring 显示配置:1.引入依赖2.创建脱敏

java中Optional的核心用法和最佳实践

《java中Optional的核心用法和最佳实践》Java8中Optional用于处理可能为null的值,减少空指针异常,:本文主要介绍java中Optional核心用法和最佳实践的相关资料,文中... 目录前言1. 创建 Optional 对象1.1 常规创建方式2. 访问 Optional 中的值2.1

详解如何使用Python构建从数据到文档的自动化工作流

《详解如何使用Python构建从数据到文档的自动化工作流》这篇文章将通过真实工作场景拆解,为大家展示如何用Python构建自动化工作流,让工具代替人力完成这些数字苦力活,感兴趣的小伙伴可以跟随小编一起... 目录一、Excel处理:从数据搬运工到智能分析师二、PDF处理:文档工厂的智能生产线三、邮件自动化:

Nginx Location映射规则总结归纳与最佳实践

《NginxLocation映射规则总结归纳与最佳实践》Nginx的location指令是配置请求路由的核心机制,其匹配规则直接影响请求的处理流程,下面给大家介绍NginxLocation映射规则... 目录一、Location匹配规则与优先级1. 匹配模式2. 优先级顺序3. 匹配示例二、Proxy_pa

Python数据分析与可视化的全面指南(从数据清洗到图表呈现)

《Python数据分析与可视化的全面指南(从数据清洗到图表呈现)》Python是数据分析与可视化领域中最受欢迎的编程语言之一,凭借其丰富的库和工具,Python能够帮助我们快速处理、分析数据并生成高质... 目录一、数据采集与初步探索二、数据清洗的七种武器1. 缺失值处理策略2. 异常值检测与修正3. 数据