<机器学习>基于Julia和随机森林的多分类实战

2024-03-31 22:48

本文主要是介绍<机器学习>基于Julia和随机森林的多分类实战,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

数据集

  • 数据集地址:UCI Steel Plates Faults Data Set
  • 文件说明:
该数据集包含了7种带钢缺陷类型。这个数据集不是图像数据,而是带钢缺陷的28种特征数据。
Faults.NNA				数据集(特征+分类标签)
Faults27x7_var			特征和分类类别名称

随机森林实现多分类

  • 使用的包
using DataFrames
using DecisionTree
using CSV
using Base
using Lathe.preprocess:TrainTestSplit

注:如果没有安装包,使用脚本进行安装

import Pkg
Pkg.add([PKG NAME]) 	#example:Pkg.add("CSV")
  • 加载数据集
#数据读取 data--数据集  var--参数说明
data=CSV.read("F:\\数据集\\钢板缺陷数据集\\data.txt",DataFrame)
var=CSV.read("F:\\数据集\\钢板缺陷数据集\\var.txt",DataFrame)
var=Matrix(var)[27:33]#分割数据集为训练样本及测试样本
train,test=TrainTestSplit(data,0.9)train=Matrix(train)
#数据集[1:27]为特征 [28:34]为类别标签
features=convert(Array,train[:,1:27])
labels=convert(Array,train[:,28:34])#将多维类别标签转换为一维
train_labels=Array{String}(undef,size(labels,1))
for i= 1:size(labels,1)for j=1:size(labels[i,:],1)if labels[i,j]==1global train_labels[i]=var[j]endend
end

在这里插入图片描述
在这里插入图片描述

  • 建立随机森林模型
#建立随机森林模型
#=
function build_forest(labels              :: AbstractVector{T},features            :: AbstractMatrix{S},n_subfeatures       = -1,                   特征的数量n_trees             = 10,                   树的棵数partial_sampling    = 0.7,                  每棵树使用的样本比例max_depth           = -1,                   树的最大深度min_samples_leaf    = 5,                    叶子节点含有的最少样本,若叶子节点样本数小于则对该叶子节点和兄弟叶子节点进行剪枝,只留下该叶子节点的父节点min_samples_split   = 2,                    节点可分的最小样本数,默认值是2min_purity_increase = 0.0;                  节点划分的最小不纯度。假设不纯度用信息增益表示,若某节点划分时的信息增益大于等于min_impurity_decrease,那么该节点还可以再划分;反之,则不能划分。rng                 = Random.GLOBAL_RNG)
=#
model=DecisionTree.build_forest(train_labels,features,-1,19,1,-1,1,2)
  • 测试集预测
#测试集处理
test=Matrix(test)
testfeatures=convert(Array,test[:,1:27])
testlabels=convert(Array,test[:,28:34])
test_labels=Array{String}(undef,size(testlabels,1))
for i= 1:size(testlabels,1)for j=1:size(testlabels[i,:],1)if testlabels[i,j]==1global test_labels[i]=var[j]endend
end#预测测试集
predtest=DecisionTree.apply_forest(model,testfeatures)#计算准确率
numacc=0
for i = 1:size(test_labels,1)if predtest[i]==test_labels[i]#全局变量 需加globalglobal  numaccnumacc+=1end
end
acc=numacc/size(test_labels,1)
println("准确率=",acc)

输出:

准确率=0.7891891891891892

完整代码

using DataFrames
using DecisionTree
using CSV
using Base
using Lathe.preprocess:TrainTestSplit#数据读取 data--数据集  var--参数说明
data=CSV.read("F:\\数据集\\钢板缺陷数据集\\data.txt",DataFrame)
var=CSV.read("F:\\数据集\\钢板缺陷数据集\\var.txt",DataFrame)
var=Matrix(var)[27:33]#分割数据集为训练样本及测试样本
train,test=TrainTestSplit(data,0.9)train=Matrix(train)
#数据集[1:27]为特征 [28:34]为类别标签
features=convert(Array,train[:,1:27])
labels=convert(Array,train[:,28:34])#将多维类别标签转换为一维
train_labels=Array{String}(undef,size(labels,1))
for i= 1:size(labels,1)for j=1:size(labels[i,:],1)if labels[i,j]==1global train_labels[i]=var[j]endend
end#建立随机森林模型
#=
function build_forest(labels              :: AbstractVector{T},features            :: AbstractMatrix{S},n_subfeatures       = -1,                   特征的数量n_trees             = 10,                   树的棵数partial_sampling    = 0.7,                  每棵树使用的样本比例max_depth           = -1,                   树的最大深度min_samples_leaf    = 5,                    叶子节点含有的最少样本,若叶子节点样本数小于则对该叶子节点和兄弟叶子节点进行剪枝,只留下该叶子节点的父节点min_samples_split   = 2,                    节点可分的最小样本数,默认值是2min_purity_increase = 0.0;                  节点划分的最小不纯度。假设不纯度用信息增益表示,若某节点划分时的信息增益大于等于min_impurity_decrease,那么该节点还可以再划分;反之,则不能划分。rng                 = Random.GLOBAL_RNG)
=#
model=DecisionTree.build_forest(train_labels,features,-1,19,1,-1,1,2)#测试集处理
test=Matrix(test)
testfeatures=convert(Array,test[:,1:27])
testlabels=convert(Array,test[:,28:34])
test_labels=Array{String}(undef,size(testlabels,1))
for i= 1:size(testlabels,1)for j=1:size(testlabels[i,:],1)if testlabels[i,j]==1global test_labels[i]=var[j]endend
end#预测测试集
predtest=DecisionTree.apply_forest(model,testfeatures)#计算准确率
numacc=0
for i = 1:size(test_labels,1)if predtest[i]==test_labels[i]#全局变量 需加globalglobal  numaccnumacc+=1end
end
acc=numacc/size(test_labels,1)
println("准确率=",acc)

这篇关于<机器学习>基于Julia和随机森林的多分类实战的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/865554

相关文章

从原理到实战深入理解Java 断言assert

《从原理到实战深入理解Java断言assert》本文深入解析Java断言机制,涵盖语法、工作原理、启用方式及与异常的区别,推荐用于开发阶段的条件检查与状态验证,并强调生产环境应使用参数验证工具类替代... 目录深入理解 Java 断言(assert):从原理到实战引言:为什么需要断言?一、断言基础1.1 语

Java MQTT实战应用

《JavaMQTT实战应用》本文详解MQTT协议,涵盖其发布/订阅机制、低功耗高效特性、三种服务质量等级(QoS0/1/2),以及客户端、代理、主题的核心概念,最后提供Linux部署教程、Sprin... 目录一、MQTT协议二、MQTT优点三、三种服务质量等级四、客户端、代理、主题1. 客户端(Clien

在Spring Boot中集成RabbitMQ的实战记录

《在SpringBoot中集成RabbitMQ的实战记录》本文介绍SpringBoot集成RabbitMQ的步骤,涵盖配置连接、消息发送与接收,并对比两种定义Exchange与队列的方式:手动声明(... 目录前言准备工作1. 安装 RabbitMQ2. 消息发送者(Producer)配置1. 创建 Spr

深度解析Spring Boot拦截器Interceptor与过滤器Filter的区别与实战指南

《深度解析SpringBoot拦截器Interceptor与过滤器Filter的区别与实战指南》本文深度解析SpringBoot中拦截器与过滤器的区别,涵盖执行顺序、依赖关系、异常处理等核心差异,并... 目录Spring Boot拦截器(Interceptor)与过滤器(Filter)深度解析:区别、实现

深度解析Spring AOP @Aspect 原理、实战与最佳实践教程

《深度解析SpringAOP@Aspect原理、实战与最佳实践教程》文章系统讲解了SpringAOP核心概念、实现方式及原理,涵盖横切关注点分离、代理机制(JDK/CGLIB)、切入点类型、性能... 目录1. @ASPect 核心概念1.1 AOP 编程范式1.2 @Aspect 关键特性2. 完整代码实

MySQL中的索引结构和分类实战案例详解

《MySQL中的索引结构和分类实战案例详解》本文详解MySQL索引结构与分类,涵盖B树、B+树、哈希及全文索引,分析其原理与优劣势,并结合实战案例探讨创建、管理及优化技巧,助力提升查询性能,感兴趣的朋... 目录一、索引概述1.1 索引的定义与作用1.2 索引的基本原理二、索引结构详解2.1 B树索引2.2

从入门到精通MySQL 数据库索引(实战案例)

《从入门到精通MySQL数据库索引(实战案例)》索引是数据库的目录,提升查询速度,主要类型包括BTree、Hash、全文、空间索引,需根据场景选择,建议用于高频查询、关联字段、排序等,避免重复率高或... 目录一、索引是什么?能干嘛?核心作用:二、索引的 4 种主要类型(附通俗例子)1. BTree 索引(

Java Web实现类似Excel表格锁定功能实战教程

《JavaWeb实现类似Excel表格锁定功能实战教程》本文将详细介绍通过创建特定div元素并利用CSS布局和JavaScript事件监听来实现类似Excel的锁定行和列效果的方法,感兴趣的朋友跟随... 目录1. 模拟Excel表格锁定功能2. 创建3个div元素实现表格锁定2.1 div元素布局设计2.

Redis 配置文件使用建议redis.conf 从入门到实战

《Redis配置文件使用建议redis.conf从入门到实战》Redis配置方式包括配置文件、命令行参数、运行时CONFIG命令,支持动态修改参数及持久化,常用项涉及端口、绑定、内存策略等,版本8... 目录一、Redis.conf 是什么?二、命令行方式传参(适用于测试)三、运行时动态修改配置(不重启服务

Python并行处理实战之如何使用ProcessPoolExecutor加速计算

《Python并行处理实战之如何使用ProcessPoolExecutor加速计算》Python提供了多种并行处理的方式,其中concurrent.futures模块的ProcessPoolExecu... 目录简介完整代码示例代码解释1. 导入必要的模块2. 定义处理函数3. 主函数4. 生成数字列表5.