大数据支持的数据集洞见-医疗-心率和呼吸分类(一)

2023-11-11 12:10

本文主要是介绍大数据支持的数据集洞见-医疗-心率和呼吸分类(一),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1、数据集

本次心率数据在少量设备情况下,在几天的数据量已经达到了上几百万数据,如何从中找到有用的,并且规划出元数据来进行实验和分析是最终目的。需要做的是:
1 数据清除
2 数据规划元数据
3 数据分析和洞见
4 实验

前面很多文章和实验都表明我们要制作一个数据集是非常困难的,数据库里面的数据只是一个存储集合,谈不上大数据集合。如下表所示,将数据集导入csv文件,并做过滤
在这里插入图片描述
我们的数据集和应将type类型变为元数据字段:
1 心率
2 呼吸
3 安静系数
4 是否辗转
最后一个是结果

心率呼吸安静系数是否辗转结果
67143500
64133510
561214611

1.2 心率和呼吸以及安静系数的关系

1 呼吸渐渐缓和,安静系统线性提高,心率降低,表明即将入睡,但是入睡的点并不是非常精确的,无论是"熟睡",“浅睡”,都是我们自己的定义,偏差依理解不同,但误差并不会很多。
2 呼吸增多,安静系数降低,心率缓慢增加,辗转发生,表示出睡,这是我自己的定义,但并不表示就是一定醒过来。

1.3 使用线性分类实验

import numpy as np
import sklearn.cluster as sc
import matplotlib.pyplot as plt
import pandas as pd
from sklearn import svm
from sklearn.pipeline import Pipeline
from sklearn.preprocessing import StandardScaler            # 导入sklearn包的相应模块
# 安静系数 心率均值
X = np.array([[35,64], [53,67],[120,70],[150,67],[178,54]])
Y = np.array([0,0,0,1,1])clf = Pipeline((("scaler",StandardScaler()),("linear_svc",svm.LinearSVC(C=1,loss="hinge")),
))
clf.fit(X,Y)
print (clf.predict([[123,62]]))     
print (clf.predict([[135,52]]))     
print (clf.predict([[140,52]]))     
print (clf.predict([[110,60]]))    
print (clf.predict([[120,60]])) 
print (clf.predict([[35,60]])) 

结果如下:
(base) python testheart.py
[1]
[1]
[1]
[1]
[1]
[0]
svc
可见线性分类在数据量非常小的情况下没有非常好的明确的界限,最后一个值因远低于均值,所以被分类为零。

1.3 使用svc和svr

import numpy as np
import sklearn.cluster as sc
import matplotlib.pyplot as plt
import pandas as pd
from sklearn import svm
from sklearn.pipeline import Pipeline
from sklearn.preprocessing import StandardScaler            # 导入sklearn包的相应模块
#安静系数 心率均值
X = np.array([[35,64], [53,67],[120,70],[150,67],[178,54]])
Y = np.array([0,0,0,1,1])clf = Pipeline((("scaler",StandardScaler()),("linear_svc",svm.LinearSVC(C=1,loss="hinge")),
))
clf.fit(X,Y)
print (clf.predict([[123,62]]))     
print (clf.predict([[135,52]]))     
print (clf.predict([[140,52]]))     
print (clf.predict([[110,60]]))    
print (clf.predict([[120,60]])) 
print (clf.predict([[35,60]])) print("svc\n")
clf = svm.SVC()                    
clf.fit(X,Y)
print (clf.predict([[123,62]]))     
print (clf.predict([[135,52]]))     
print (clf.predict([[140,52]]))     
print (clf.predict([[110,60]]))    
print (clf.predict([[120,60]]))    
#print (clf.support_vectors_)       # 查看支持向量
#print (clf.support_)               # 查看支持向量类别
#print (clf.n_support_)             # 查看每个类别支持向量个数clf=svm.SVR()print("svr\n")
clf.fit(X,Y)
print (clf.predict([[123,62]]))     
print (clf.predict([[135,52]]))     
print (clf.predict([[140,52]]))     
print (clf.predict([[110,60]]))    
print (clf.predict([[120,60]])) 

结果
(base) python testheart.py
[1]
[1]
[1]
[1]
[1]
[0]
svc

[0]
[1]
[1]
[0]
[0]
svr

[0.26229048]
[0.47259546]
[0.55099675]
[0.09001326]
[0.2214764]

可见svc方法的结果和输入的值非常符合,但svc基于libsvm, 训练复杂度较高,数据量变大时,速度和效率会下降很多。而svr也是和svc类似,数据比较符合,但训练复杂度较高。

2、结论

1 、在大数据下,需要更多地仔细观察数据,梳理数据,并且输出更多的小数据集,在大量的实验下得出结论

这篇关于大数据支持的数据集洞见-医疗-心率和呼吸分类(一)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/389977

相关文章

Linux下利用select实现串口数据读取过程

《Linux下利用select实现串口数据读取过程》文章介绍Linux中使用select、poll或epoll实现串口数据读取,通过I/O多路复用机制在数据到达时触发读取,避免持续轮询,示例代码展示设... 目录示例代码(使用select实现)代码解释总结在 linux 系统里,我们可以借助 select、

C#使用iText获取PDF的trailer数据的代码示例

《C#使用iText获取PDF的trailer数据的代码示例》开发程序debug的时候,看到了PDF有个trailer数据,挺有意思,于是考虑用代码把它读出来,那么就用到我们常用的iText框架了,所... 目录引言iText 核心概念C# 代码示例步骤 1: 确保已安装 iText步骤 2: C# 代码程

Pandas处理缺失数据的方式汇总

《Pandas处理缺失数据的方式汇总》许多教程中的数据与现实世界中的数据有很大不同,现实世界中的数据很少是干净且同质的,本文我们将讨论处理缺失数据的一些常规注意事项,了解Pandas如何表示缺失数据,... 目录缺失数据约定的权衡Pandas 中的缺失数据None 作为哨兵值NaN:缺失的数值数据Panda

C++中处理文本数据char与string的终极对比指南

《C++中处理文本数据char与string的终极对比指南》在C++编程中char和string是两种用于处理字符数据的类型,但它们在使用方式和功能上有显著的不同,:本文主要介绍C++中处理文本数... 目录1. 基本定义与本质2. 内存管理3. 操作与功能4. 性能特点5. 使用场景6. 相互转换核心区别

python库pydantic数据验证和设置管理库的用途

《python库pydantic数据验证和设置管理库的用途》pydantic是一个用于数据验证和设置管理的Python库,它主要利用Python类型注解来定义数据模型的结构和验证规则,本文给大家介绍p... 目录主要特点和用途:Field数值验证参数总结pydantic 是一个让你能够 confidentl

JAVA实现亿级千万级数据顺序导出的示例代码

《JAVA实现亿级千万级数据顺序导出的示例代码》本文主要介绍了JAVA实现亿级千万级数据顺序导出的示例代码,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面... 前提:主要考虑控制内存占用空间,避免出现同时导出,导致主程序OOM问题。实现思路:A.启用线程池

SpringBoot分段处理List集合多线程批量插入数据方式

《SpringBoot分段处理List集合多线程批量插入数据方式》文章介绍如何处理大数据量List批量插入数据库的优化方案:通过拆分List并分配独立线程处理,结合Spring线程池与异步方法提升效率... 目录项目场景解决方案1.实体类2.Mapper3.spring容器注入线程池bejsan对象4.创建

PHP轻松处理千万行数据的方法详解

《PHP轻松处理千万行数据的方法详解》说到处理大数据集,PHP通常不是第一个想到的语言,但如果你曾经需要处理数百万行数据而不让服务器崩溃或内存耗尽,你就会知道PHP用对了工具有多强大,下面小编就... 目录问题的本质php 中的数据流处理:为什么必不可少生成器:内存高效的迭代方式流量控制:避免系统过载一次性

C#实现千万数据秒级导入的代码

《C#实现千万数据秒级导入的代码》在实际开发中excel导入很常见,现代社会中很容易遇到大数据处理业务,所以本文我就给大家分享一下千万数据秒级导入怎么实现,文中有详细的代码示例供大家参考,需要的朋友可... 目录前言一、数据存储二、处理逻辑优化前代码处理逻辑优化后的代码总结前言在实际开发中excel导入很

MyBatis-plus处理存储json数据过程

《MyBatis-plus处理存储json数据过程》文章介绍MyBatis-Plus3.4.21处理对象与集合的差异:对象可用内置Handler配合autoResultMap,集合需自定义处理器继承F... 目录1、如果是对象2、如果需要转换的是List集合总结对象和集合分两种情况处理,目前我用的MP的版本