机器学习之利用k-means算法对点云数据进行目标分割,提取其中的建筑物、房屋等

本文主要是介绍机器学习之利用k-means算法对点云数据进行目标分割,提取其中的建筑物、房屋等,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

原始点云数据在CloudCompare的显示如下:

  利用k-means算法提取出其中的建筑物、房屋等,我这里的代码是根据k-means算法的原理编写的代码,这样有助于大家对k-means算法的运行原理有一个深层次的了解,当然也可以直接调用sklearn里的算法,但是那样的话对于将来发展是不利的,毕竟知道算法的原理并根据原理编写代码学到的知识还是更多一些的。

代码如下:

#Author ZTY
import csv
import numpy as np
def kmean(x,k,maxtimes):m,n = np.shape(x)# 建立一个比数据集多一列的零矩阵,多的一列用来存放标签dataset = np.zeros([m,n+1])dataset[:,:-1] = x#根据要聚类的数量,初始化相应数量的中心点,可以随机选择n个,也可以选前n个作为初始点#middle = dataset[np.random.randint(m,size=k),:]middle = dataset[0:3,:]#为选定的中心点赋予标签middle[:,-1] = range(1,k+1)times = 0oldmiddle = None#迭代更新中心点时,判断何时停止while not shouldstop(oldmiddle,middle,times,maxtimes):print('times:',times)print('dataset:',dataset)print('middle:',middle)oldmiddle = np.copy(middle)times = times + 1#根据中心点,更新其他各个点的标签update(dataset,middle)#获取新的中心点middle = getmiddles(dataset,k)return datasetdef shouldstop(oldmiddle,middle,times,maxtimes):if times > maxtimes:return Truereturn np.array_equal(oldmiddle,middle)def update(dataset,middle):m,n =dataset.shapefor i in range(0,m):dataset[i,-1] = getLabelFromCloestCentroid(dataset[i,:-1],middle)#找出各个点距离最近的中心点,将中心点的标签赋予当前点
def getLabelFromCloestCentroid(datasetRow,middle):label = middle[0,-1]minDist = np.linalg.norm(datasetRow - middle[0,:-1])#np.linalg.norm(a-b)用来计算a,b两点之间的距离,a.b如果是list,必须要np.array(a)进行格式转换for i in range(1,middle.shape[0]):dist = np.linalg.norm(datasetRow - middle[i,:-1])if dist < minDist:minDist = distlabel = middle[i,-1]print('minDist',minDist)print('label',label)return labeldef getmiddles(datatset,k):result = np.zeros((k,datatset.shape[1]))for i in range(1,k+1):oneCluster = datatset[datatset[:,-1]==i,:-1]result[i-1,:-1] = np.mean(oneCluster,axis=0)result[i-1,-1] = ireturn resultfile = open(r'全部点云数据.csv','r')
reader = csv.reader(file)
reader = list(reader)
m,n = np.shape(reader)
for i in range(0,m):for j in range(0,3):#转换数据类型reader[i][j] = float(reader[i][j])
m,n = np.shape(reader)
list1 = np.zeros([m,2])
for i in range(0,m):for j in range(2,4):#获取数据的z指与强度值list1[i][j-2] = reader[i][j]# x = np.vstack((a,b,c,d))
result = kmean(list1,3,10)
print('result:',result[0])
print(reader[0])
reader0 = np.zeros([m,5])
for i in range(0,m):for j in range(0,4):reader0[i][j] = reader[i][j]
for i in range(0,m):reader0[i][-1] = int(result[i][-1])
print(reader0)w1=open("1.txt","w")
w2=open("2.txt","w")
w3=open("3.txt","w")
w4=open("4.txt","w")for i in range(m):if(reader0[i][-1]==1):w1.write("%s %s %s %s\n"%(reader0[i][0],reader0[i][1],reader0[i][2],reader0[i][3]))if(reader0[i][-1]==2):w2.write("%s %s %s %s\n" % (reader0[i][0], reader0[i][1], reader0[i][2],reader0[i][3]))if (reader0[i][-1] ==3):w3.write("%s %s %s %s\n" % (reader0[i][0], reader0[i][1], reader0[i][2],reader0[i][3]))if (reader0[i][-1] == 4):w4.write("%s %s %s %s\n" % (reader0[i][0], reader0[i][1], reader0[i][2],reader0[i][3]))

  以上代码将k值设置为4,也就是将点云聚成4类。输出为4个txt数据,加载进软件,效果图如下,分别是提取的道路,建筑物:

还是利用上述代码,将道路数据放进代码,将K设置为2,可以将道路数据聚类为两类,提取出道路的主干和边界:

PS:附上数据链接  https://download.csdn.net/download/qq_39343904/10863193

 

 

这篇关于机器学习之利用k-means算法对点云数据进行目标分割,提取其中的建筑物、房屋等的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/523270

相关文章

批量导入txt数据到的redis过程

《批量导入txt数据到的redis过程》用户通过将Redis命令逐行写入txt文件,利用管道模式运行客户端,成功执行批量删除以Product*匹配的Key操作,提高了数据清理效率... 目录批量导入txt数据到Redisjs把redis命令按一条 一行写到txt中管道命令运行redis客户端成功了批量删除k

SpringBoot多环境配置数据读取方式

《SpringBoot多环境配置数据读取方式》SpringBoot通过环境隔离机制,支持properties/yaml/yml多格式配置,结合@Value、Environment和@Configura... 目录一、多环境配置的核心思路二、3种配置文件格式详解2.1 properties格式(传统格式)1.

解决pandas无法读取csv文件数据的问题

《解决pandas无法读取csv文件数据的问题》本文讲述作者用Pandas读取CSV文件时因参数设置不当导致数据错位,通过调整delimiter和on_bad_lines参数最终解决问题,并强调正确参... 目录一、前言二、问题复现1. 问题2. 通过 on_bad_lines=‘warn’ 跳过异常数据3

Python进行JSON和Excel文件转换处理指南

《Python进行JSON和Excel文件转换处理指南》在数据交换与系统集成中,JSON与Excel是两种极为常见的数据格式,本文将介绍如何使用Python实现将JSON转换为格式化的Excel文件,... 目录将 jsON 导入为格式化 Excel将 Excel 导出为结构化 JSON处理嵌套 JSON:

Python实现批量提取BLF文件时间戳

《Python实现批量提取BLF文件时间戳》BLF(BinaryLoggingFormat)作为Vector公司推出的CAN总线数据记录格式,被广泛用于存储车辆通信数据,本文将使用Python轻松提取... 目录一、为什么需要批量处理 BLF 文件二、核心代码解析:从文件遍历到数据导出1. 环境准备与依赖库

Python实现PDF按页分割的技术指南

《Python实现PDF按页分割的技术指南》PDF文件处理是日常工作中的常见需求,特别是当我们需要将大型PDF文档拆分为多个部分时,下面我们就来看看如何使用Python创建一个灵活的PDF分割工具吧... 目录需求分析技术方案工具选择安装依赖完整代码实现使用说明基本用法示例命令输出示例技术亮点实际应用场景扩

C#监听txt文档获取新数据方式

《C#监听txt文档获取新数据方式》文章介绍通过监听txt文件获取最新数据,并实现开机自启动、禁用窗口关闭按钮、阻止Ctrl+C中断及防止程序退出等功能,代码整合于主函数中,供参考学习... 目录前言一、监听txt文档增加数据二、其他功能1. 设置开机自启动2. 禁止控制台窗口关闭按钮3. 阻止Ctrl +

java如何实现高并发场景下三级缓存的数据一致性

《java如何实现高并发场景下三级缓存的数据一致性》这篇文章主要为大家详细介绍了java如何实现高并发场景下三级缓存的数据一致性,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 下面代码是一个使用Java和Redisson实现的三级缓存服务,主要功能包括:1.缓存结构:本地缓存:使

在MySQL中实现冷热数据分离的方法及使用场景底层原理解析

《在MySQL中实现冷热数据分离的方法及使用场景底层原理解析》MySQL冷热数据分离通过分表/分区策略、数据归档和索引优化,将频繁访问的热数据与冷数据分开存储,提升查询效率并降低存储成本,适用于高并发... 目录实现冷热数据分离1. 分表策略2. 使用分区表3. 数据归档与迁移在mysql中实现冷热数据分

C#解析JSON数据全攻略指南

《C#解析JSON数据全攻略指南》这篇文章主要为大家详细介绍了使用C#解析JSON数据全攻略指南,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录一、为什么jsON是C#开发必修课?二、四步搞定网络JSON数据1. 获取数据 - HttpClient最佳实践2. 动态解析 - 快速