<机器学习>基于Julia和随机森林的多分类实战

2024-03-31 22:48

本文主要是介绍<机器学习>基于Julia和随机森林的多分类实战,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

数据集

  • 数据集地址:UCI Steel Plates Faults Data Set
  • 文件说明:
该数据集包含了7种带钢缺陷类型。这个数据集不是图像数据,而是带钢缺陷的28种特征数据。
Faults.NNA				数据集(特征+分类标签)
Faults27x7_var			特征和分类类别名称

随机森林实现多分类

  • 使用的包
using DataFrames
using DecisionTree
using CSV
using Base
using Lathe.preprocess:TrainTestSplit

注:如果没有安装包,使用脚本进行安装

import Pkg
Pkg.add([PKG NAME]) 	#example:Pkg.add("CSV")
  • 加载数据集
#数据读取 data--数据集  var--参数说明
data=CSV.read("F:\\数据集\\钢板缺陷数据集\\data.txt",DataFrame)
var=CSV.read("F:\\数据集\\钢板缺陷数据集\\var.txt",DataFrame)
var=Matrix(var)[27:33]#分割数据集为训练样本及测试样本
train,test=TrainTestSplit(data,0.9)train=Matrix(train)
#数据集[1:27]为特征 [28:34]为类别标签
features=convert(Array,train[:,1:27])
labels=convert(Array,train[:,28:34])#将多维类别标签转换为一维
train_labels=Array{String}(undef,size(labels,1))
for i= 1:size(labels,1)for j=1:size(labels[i,:],1)if labels[i,j]==1global train_labels[i]=var[j]endend
end

在这里插入图片描述
在这里插入图片描述

  • 建立随机森林模型
#建立随机森林模型
#=
function build_forest(labels              :: AbstractVector{T},features            :: AbstractMatrix{S},n_subfeatures       = -1,                   特征的数量n_trees             = 10,                   树的棵数partial_sampling    = 0.7,                  每棵树使用的样本比例max_depth           = -1,                   树的最大深度min_samples_leaf    = 5,                    叶子节点含有的最少样本,若叶子节点样本数小于则对该叶子节点和兄弟叶子节点进行剪枝,只留下该叶子节点的父节点min_samples_split   = 2,                    节点可分的最小样本数,默认值是2min_purity_increase = 0.0;                  节点划分的最小不纯度。假设不纯度用信息增益表示,若某节点划分时的信息增益大于等于min_impurity_decrease,那么该节点还可以再划分;反之,则不能划分。rng                 = Random.GLOBAL_RNG)
=#
model=DecisionTree.build_forest(train_labels,features,-1,19,1,-1,1,2)
  • 测试集预测
#测试集处理
test=Matrix(test)
testfeatures=convert(Array,test[:,1:27])
testlabels=convert(Array,test[:,28:34])
test_labels=Array{String}(undef,size(testlabels,1))
for i= 1:size(testlabels,1)for j=1:size(testlabels[i,:],1)if testlabels[i,j]==1global test_labels[i]=var[j]endend
end#预测测试集
predtest=DecisionTree.apply_forest(model,testfeatures)#计算准确率
numacc=0
for i = 1:size(test_labels,1)if predtest[i]==test_labels[i]#全局变量 需加globalglobal  numaccnumacc+=1end
end
acc=numacc/size(test_labels,1)
println("准确率=",acc)

输出:

准确率=0.7891891891891892

完整代码

using DataFrames
using DecisionTree
using CSV
using Base
using Lathe.preprocess:TrainTestSplit#数据读取 data--数据集  var--参数说明
data=CSV.read("F:\\数据集\\钢板缺陷数据集\\data.txt",DataFrame)
var=CSV.read("F:\\数据集\\钢板缺陷数据集\\var.txt",DataFrame)
var=Matrix(var)[27:33]#分割数据集为训练样本及测试样本
train,test=TrainTestSplit(data,0.9)train=Matrix(train)
#数据集[1:27]为特征 [28:34]为类别标签
features=convert(Array,train[:,1:27])
labels=convert(Array,train[:,28:34])#将多维类别标签转换为一维
train_labels=Array{String}(undef,size(labels,1))
for i= 1:size(labels,1)for j=1:size(labels[i,:],1)if labels[i,j]==1global train_labels[i]=var[j]endend
end#建立随机森林模型
#=
function build_forest(labels              :: AbstractVector{T},features            :: AbstractMatrix{S},n_subfeatures       = -1,                   特征的数量n_trees             = 10,                   树的棵数partial_sampling    = 0.7,                  每棵树使用的样本比例max_depth           = -1,                   树的最大深度min_samples_leaf    = 5,                    叶子节点含有的最少样本,若叶子节点样本数小于则对该叶子节点和兄弟叶子节点进行剪枝,只留下该叶子节点的父节点min_samples_split   = 2,                    节点可分的最小样本数,默认值是2min_purity_increase = 0.0;                  节点划分的最小不纯度。假设不纯度用信息增益表示,若某节点划分时的信息增益大于等于min_impurity_decrease,那么该节点还可以再划分;反之,则不能划分。rng                 = Random.GLOBAL_RNG)
=#
model=DecisionTree.build_forest(train_labels,features,-1,19,1,-1,1,2)#测试集处理
test=Matrix(test)
testfeatures=convert(Array,test[:,1:27])
testlabels=convert(Array,test[:,28:34])
test_labels=Array{String}(undef,size(testlabels,1))
for i= 1:size(testlabels,1)for j=1:size(testlabels[i,:],1)if testlabels[i,j]==1global test_labels[i]=var[j]endend
end#预测测试集
predtest=DecisionTree.apply_forest(model,testfeatures)#计算准确率
numacc=0
for i = 1:size(test_labels,1)if predtest[i]==test_labels[i]#全局变量 需加globalglobal  numaccnumacc+=1end
end
acc=numacc/size(test_labels,1)
println("准确率=",acc)

这篇关于<机器学习>基于Julia和随机森林的多分类实战的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/865554

相关文章

SpringBoot实现接口数据加解密的三种实战方案

《SpringBoot实现接口数据加解密的三种实战方案》在金融支付、用户隐私信息传输等场景中,接口数据若以明文传输,极易被中间人攻击窃取,SpringBoot提供了多种优雅的加解密实现方案,本文将从原... 目录一、为什么需要接口数据加解密?二、核心加解密算法选择1. 对称加密(AES)2. 非对称加密(R

Spring Boot集成Logback终极指南之从基础到高级配置实战指南

《SpringBoot集成Logback终极指南之从基础到高级配置实战指南》Logback是一个可靠、通用且快速的Java日志框架,作为Log4j的继承者,由Log4j创始人设计,:本文主要介绍... 目录一、Logback简介与Spring Boot集成基础1.1 Logback是什么?1.2 Sprin

重新对Java的类加载器的学习方式

《重新对Java的类加载器的学习方式》:本文主要介绍重新对Java的类加载器的学习方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录1、介绍1.1、简介1.2、符号引用和直接引用1、符号引用2、直接引用3、符号转直接的过程2、加载流程3、类加载的分类3.1、显示

Linux高并发场景下的网络参数调优实战指南

《Linux高并发场景下的网络参数调优实战指南》在高并发网络服务场景中,Linux内核的默认网络参数往往无法满足需求,导致性能瓶颈、连接超时甚至服务崩溃,本文基于真实案例分析,从参数解读、问题诊断到优... 目录一、问题背景:当并发连接遇上性能瓶颈1.1 案例环境1.2 初始参数分析二、深度诊断:连接状态与

C#实现高性能Excel百万数据导出优化实战指南

《C#实现高性能Excel百万数据导出优化实战指南》在日常工作中,Excel数据导出是一个常见的需求,然而,当数据量较大时,性能和内存问题往往会成为限制导出效率的瓶颈,下面我们看看C#如何结合EPPl... 目录一、技术方案核心对比二、各方案选型建议三、性能对比数据四、核心代码实现1. MiniExcel

POI从入门到实战轻松完成EasyExcel使用及Excel导入导出功能

《POI从入门到实战轻松完成EasyExcel使用及Excel导入导出功能》ApachePOI是一个流行的Java库,用于处理MicrosoftOffice格式文件,提供丰富API来创建、读取和修改O... 目录前言:Apache POIEasyPoiEasyExcel一、EasyExcel1.1、核心特性

SpringBoot中四种AOP实战应用场景及代码实现

《SpringBoot中四种AOP实战应用场景及代码实现》面向切面编程(AOP)是Spring框架的核心功能之一,它通过预编译和运行期动态代理实现程序功能的统一维护,在SpringBoot应用中,AO... 目录引言场景一:日志记录与性能监控业务需求实现方案使用示例扩展:MDC实现请求跟踪场景二:权限控制与

Python开发文字版随机事件游戏的项目实例

《Python开发文字版随机事件游戏的项目实例》随机事件游戏是一种通过生成不可预测的事件来增强游戏体验的类型,在这篇博文中,我们将使用Python开发一款文字版随机事件游戏,通过这个项目,读者不仅能够... 目录项目概述2.1 游戏概念2.2 游戏特色2.3 目标玩家群体技术选择与环境准备3.1 开发环境3

Java学习手册之Filter和Listener使用方法

《Java学习手册之Filter和Listener使用方法》:本文主要介绍Java学习手册之Filter和Listener使用方法的相关资料,Filter是一种拦截器,可以在请求到达Servl... 目录一、Filter(过滤器)1. Filter 的工作原理2. Filter 的配置与使用二、Listen

Pandas使用AdaBoost进行分类的实现

《Pandas使用AdaBoost进行分类的实现》Pandas和AdaBoost分类算法,可以高效地进行数据预处理和分类任务,本文主要介绍了Pandas使用AdaBoost进行分类的实现,具有一定的参... 目录什么是 AdaBoost?使用 AdaBoost 的步骤安装必要的库步骤一:数据准备步骤二:模型