大数据之Trino高可用方案

2024-02-27 10:12
文章标签 数据 可用 方案 trino

本文主要是介绍大数据之Trino高可用方案,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

系统架构

在这里插入图片描述

2、keepalive安装

2.1、安装(2台机器)

 yum install -y keepalived
useradd keepalived_script
echo keepalived_script | passwd --stdin keepalived_script

2.2、编写coordinator服务存活检测脚本(两台机器都需要)

vim /usr/bin/check_trino_alive.sh
#!/bin/shPATH=/bin:/sbin:/usr/bin:/usr/sbin#port_test=`nc -z -v  localhost 18080|grep succeeded -c`;
port_test=`ss -nlp | grep 18080 | wc -l`;if [ $port_test -eq 0 ]thenecho 'trino coordinator is died'systemctl stop keepalived.serviceexit 1
elseexit 0
fichmod +x /usr/bin/check_trino_alive.sh

2.3、机器trino coordinator1的配置

[root@hdpapcuat01v ~]# cat /etc/keepalived/keepalived.conf 
! Configuration File for keepalivedvrrp_script check_trino_alive {script "/usr/bin/check_trino_alive.sh"interval 3weight -10
}global_defs {router_id LVS_TRINO #运行keepalived机器的一个标识#script_user root#enable_script_security
}vrrp_instance VI_1 {interface eth0 #设置实例绑定的网卡state BACKUP  #指定哪个为master,哪个为backupvirtual_router_id 92 #VPID标记,主备必须一样mcast_src_ip 127.0.0.1priority 170 #优先级,高优先级竞选为master#vrrp_unicast_bind 127.0.0.1#vrrp_unicast_peer 127.0.0.2authentication {auth_type PASS  #认证方式auth_pass afafa12384CDEad #认证密码}virtual_ipaddress {## 设置VIP,必须是同一网段虚拟IP127.0.0.3}track_script {check_trino_alive #trino存活检查}}

2.4、机器trino coordinator2的配置

[trino@localhost1 trino]$ cat  /etc/keepalived/keepalived.conf
! Configuration File for keepalivedvrrp_script check_trino_alive {script "/usr/bin/check_trino_alive.sh"interval 3weight -10
}global_defs {router_id LVS_TRINO #运行keepalived机器的一个标识#script_user root#enable_script_security
}vrrp_instance VI_1 {interface eth0 #设置实例绑定的网卡state BACKUP  #指定哪个为master,哪个为backupvirtual_router_id 92 #VPID标记,主备必须一样mcast_src_ip 127.0.0.2priority 170 #优先级,高优先级竞选为master#vrrp_unicast_bind 127.0.0.1#vrrp_unicast_peer 127.0.0.2authentication {auth_type PASS  #认证方式auth_pass afafa12384CDEad #认证密码}virtual_ipaddress {## 设置VIP,必须是同一网段虚拟IP127.0.0.3}track_script {check_trino_alive #trino存活检查}}	[root@localhost1 etc]# chmod +x /etc/keepalived/keepalived.conf

2.5、重启 keepalive 生效(两台机器都执行)

systemctl restart  keepalived.service 
systemctl status keepalived.service

2.6、验证

在这里插入图片描述

3、配置Trino

3.1、coordinator1

vi config.properties 
# 该节点是否作为coordinator
coordinator=true
# coordinator是否同时作为worker节点
node-scheduler.include-coordinator=false
# http连接端口
http-server.http.port=18080
#每个查询可以使用的最大分布式内存量。
query.max-memory=38GB
#查询可在任何一台计算机上使用的最大用户内存量
query.max-memory-per-node=16GB
memory.heap-headroom-per-node=12GB
# 服务发现的地址
discovery.uri=http://localhostvip.daemon.com:18080

3.2、coordinator2

vi config.properties 
# 该节点是否作为coordinator
coordinator=true
# coordinator是否同时作为worker节点
node-scheduler.include-coordinator=false
# http连接端口
http-server.http.port=18080
#每个查询可以使用的最大分布式内存量。
query.max-memory=38GB
#查询可在任何一台计算机上使用的最大用户内存量
query.max-memory-per-node=16GB
memory.heap-headroom-per-node=12GB
# 服务发现的地址
discovery.uri=http://localhostvip.daemon.com:18080

3.3、其他worker节点

vi config.properties 
# 该节点是否作为coordinator
coordinator=false
# coordinator是否同时作为worker节点
node-scheduler.include-coordinator=true
# http连接端口http-server.http.port=18080
#每个查询可以使用的最大分布式内存量。
query.max-memory=38GB
#查询可在任何一台计算机上使用的最大用户内存量
query.max-memory-per-node=16GB
memory.heap-headroom-per-node=12GB# 服务发现的地址discovery.uri=http://localhostvip.daemon.com:18080

3.4、启动

/opt/apache-hadoop/trino/bin/launcher restart
/opt/apache-hadoop/trino/bin/launcher start
/opt/apache-hadoop/trino/bin/launcher status

3.5、验证

停止各个节点测试

节点类型服务状态
127.0.0.1节点1停止正常
127.0.0.2节点2正常停止
127.0.0.3VIP正常正常

Client访问

[trino@localhost ~]$ trino-cli --server localhostvip.daemon.com:18080 --catalog hive

在这里插入图片描述

这篇关于大数据之Trino高可用方案的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/752055

相关文章

Redis客户端连接机制的实现方案

《Redis客户端连接机制的实现方案》本文主要介绍了Redis客户端连接机制的实现方案,包括事件驱动模型、非阻塞I/O处理、连接池应用及配置优化,具有一定的参考价值,感兴趣的可以了解一下... 目录1. Redis连接模型概述2. 连接建立过程详解2.1 连php接初始化流程2.2 关键配置参数3. 最大连

SpringBoot多环境配置数据读取方式

《SpringBoot多环境配置数据读取方式》SpringBoot通过环境隔离机制,支持properties/yaml/yml多格式配置,结合@Value、Environment和@Configura... 目录一、多环境配置的核心思路二、3种配置文件格式详解2.1 properties格式(传统格式)1.

解决pandas无法读取csv文件数据的问题

《解决pandas无法读取csv文件数据的问题》本文讲述作者用Pandas读取CSV文件时因参数设置不当导致数据错位,通过调整delimiter和on_bad_lines参数最终解决问题,并强调正确参... 目录一、前言二、问题复现1. 问题2. 通过 on_bad_lines=‘warn’ 跳过异常数据3

C#监听txt文档获取新数据方式

《C#监听txt文档获取新数据方式》文章介绍通过监听txt文件获取最新数据,并实现开机自启动、禁用窗口关闭按钮、阻止Ctrl+C中断及防止程序退出等功能,代码整合于主函数中,供参考学习... 目录前言一、监听txt文档增加数据二、其他功能1. 设置开机自启动2. 禁止控制台窗口关闭按钮3. 阻止Ctrl +

java如何实现高并发场景下三级缓存的数据一致性

《java如何实现高并发场景下三级缓存的数据一致性》这篇文章主要为大家详细介绍了java如何实现高并发场景下三级缓存的数据一致性,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 下面代码是一个使用Java和Redisson实现的三级缓存服务,主要功能包括:1.缓存结构:本地缓存:使

在MySQL中实现冷热数据分离的方法及使用场景底层原理解析

《在MySQL中实现冷热数据分离的方法及使用场景底层原理解析》MySQL冷热数据分离通过分表/分区策略、数据归档和索引优化,将频繁访问的热数据与冷数据分开存储,提升查询效率并降低存储成本,适用于高并发... 目录实现冷热数据分离1. 分表策略2. 使用分区表3. 数据归档与迁移在mysql中实现冷热数据分

C#解析JSON数据全攻略指南

《C#解析JSON数据全攻略指南》这篇文章主要为大家详细介绍了使用C#解析JSON数据全攻略指南,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录一、为什么jsON是C#开发必修课?二、四步搞定网络JSON数据1. 获取数据 - HttpClient最佳实践2. 动态解析 - 快速

MyBatis-Plus通用中等、大量数据分批查询和处理方法

《MyBatis-Plus通用中等、大量数据分批查询和处理方法》文章介绍MyBatis-Plus分页查询处理,通过函数式接口与Lambda表达式实现通用逻辑,方法抽象但功能强大,建议扩展分批处理及流式... 目录函数式接口获取分页数据接口数据处理接口通用逻辑工具类使用方法简单查询自定义查询方法总结函数式接口

MySQL 迁移至 Doris 最佳实践方案(最新整理)

《MySQL迁移至Doris最佳实践方案(最新整理)》本文将深入剖析三种经过实践验证的MySQL迁移至Doris的最佳方案,涵盖全量迁移、增量同步、混合迁移以及基于CDC(ChangeData... 目录一、China编程JDBC Catalog 联邦查询方案(适合跨库实时查询)1. 方案概述2. 环境要求3.

SpringBoot3.X 整合 MinIO 存储原生方案

《SpringBoot3.X整合MinIO存储原生方案》本文详细介绍了SpringBoot3.X整合MinIO的原生方案,从环境搭建到核心功能实现,涵盖了文件上传、下载、删除等常用操作,并补充了... 目录SpringBoot3.X整合MinIO存储原生方案:从环境搭建到实战开发一、前言:为什么选择MinI