Shark源码分析(十一):随机森林算法

2024-04-27 00:48

本文主要是介绍Shark源码分析(十一):随机森林算法,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Shark源码分析(十一):随机森林算法

关于这个算法的介绍,可以参看我之前关于集成算法的博客。因为Shark中关于决策树算法只实现了CART算法,所以随机森林算法中也只包含了CART算法。如果你已经看过了我之前写的关于CART算法源码分析的博客,看到后面就会发现它与随机森林算法的代码其实差不多。只是在选择最优划分属性时多了一个随机选取候选集的过程。这也是随机森林算法的一大特点。因为CART算法既可以用于分类任务中也可以用于回归任务中,所以基于CART算法的随机森林也能用于这两个任务。这里我们只介绍其用于分类任务中的代码。

MeanModel类

这个类应该算是集成算法的基类,表示如何将多个基学习器的输出结果综合起来。该类定义在<include/shark/Models/MeanModel.h>中。

template<class ModelType> // ModelType表示基学习器的类型
class MeanModel : public AbstractModel<typename ModelType::InputType, typename ModelType::OutputType>
{
private:typedef AbstractModel<typename ModelType::InputType, typename ModelType::OutputType> base_type;
public:MeanModel():m_weightSum(0){}std::string name() const{ return "MeanModel"; }using base_type::eval;// 输出集成学习器的结果,与决策树输出的结果一样,是对于每一个类别的所属概率void eval(typename base_type::BatchInputType const& patterns, typename base_type::BatchOutputType& outputs)const{m_models[0].eval(patterns,outputs);outputs *=m_weight[0];for(std::size_t i = 1; i != m_models.size(); i++) noalias(outputs) += m_weight[i] * m_models[i](patterns);outputs /= m_weightSum;}void eval(typename base_type::BatchInputType const& patterns, typename base_type::BatchOutputType& outputs, State& state)const{eval(patterns,outputs);}RealVector parameterVector() const {return RealVector();}void setParameterVector(const RealVector& param) {SHARK_ASSERT(param.size() == 0);}void read(InArchive& archive){archive >> m_models;archive >> m_weight;archive >> m_weightSum;}void write(OutArchive& archive)const{archive << m_models;archive << m_weight;archive << m_weightSum;}void clearModels(){m_models.clear();m_weight.clear();m_weightSum = 0.0;}// 增加一个基学习器void addModel(ModelType const& model, double weight = 1.0){SHARK_CHECK(weight > 0, "Weights must be positive");m_models.push_back(model);m_weight.push_back(weight);m_weightSum+=weight;}double const& weight(std::size_t i)const{return m_weight[i];}void setWeight(std::size_t i, double newWeight){m_weightSum=newWeight - m_weight[i];m_weight[i] = newWeight;}std::size_t numberOfModels()const{return m_models.size();}protected:// 表示所有的基学习器,这里要求它们的类型是一致的,但是在实际的应用中,其实是可以不一样的std::vector<ModelType> m_models;// 表示各个基学习器的权重std::vector<double> m_weight;// 所有权重之和double m_weightSum;
};

RFClassifier类

该类是用来表示一个随机森林,定义在<include/shark/Models/Trees/RFClassifier.h>中。

class RFClassifier : public MeanModel<CARTClassifier<RealVector> >
{
public:std::string name() const{ return "RFClassifier"; }// 计算模型的平均OOB误差,将基学习器的OOB误差累加起来,再除以基学习器的个数void computeOOBerror(){std::size_t n_trees = numberOfModels();m_OOBerror = 0;for(std::size_t j=0;j!=n_trees;++j){m_OOBerror += m_models[j].OOBerror();}m_OOBerror /= n_trees;}// 综合基学习器每一维的重要程度,得到集成学习器每一维的重要程度void computeFeatureImportances(){m_featureImportances.resize(m_inputDimension);std::size_t n_trees = numberOfModels();for(std::size_t i=0;i!=m_inputDimension;++i){m_featureImportances[i] = 0;for(std::size_t j=0;j!=n_trees;++j){m_featureImportances[i] += m_models[j].featureImportances()[i];}m_featureImportances[i] /= n_trees;}}double const OOBerror() const {return m_OOBerror;}RealVector const& featureImportances() const {return m_featureImportances;}// 统计对于所有的基学习器,每一个特征在选择最优划分属性时被使用的次数UIntVector countAttributes() const {std::size_t n = m_models.size();if(!n) return UIntVector();UIntVector r = m_models[0].countAttributes();for(std::size_t i=1; i&l

这篇关于Shark源码分析(十一):随机森林算法的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/939114

相关文章

Android 缓存日志Logcat导出与分析最佳实践

《Android缓存日志Logcat导出与分析最佳实践》本文全面介绍AndroidLogcat缓存日志的导出与分析方法,涵盖按进程、缓冲区类型及日志级别过滤,自动化工具使用,常见问题解决方案和最佳实... 目录android 缓存日志(Logcat)导出与分析全攻略为什么要导出缓存日志?按需过滤导出1. 按

Linux中的HTTPS协议原理分析

《Linux中的HTTPS协议原理分析》文章解释了HTTPS的必要性:HTTP明文传输易被篡改和劫持,HTTPS通过非对称加密协商对称密钥、CA证书认证和混合加密机制,有效防范中间人攻击,保障通信安全... 目录一、什么是加密和解密?二、为什么需要加密?三、常见的加密方式3.1 对称加密3.2非对称加密四、

MySQL中读写分离方案对比分析与选型建议

《MySQL中读写分离方案对比分析与选型建议》MySQL读写分离是提升数据库可用性和性能的常见手段,本文将围绕现实生产环境中常见的几种读写分离模式进行系统对比,希望对大家有所帮助... 目录一、问题背景介绍二、多种解决方案对比2.1 原生mysql主从复制2.2 Proxy层中间件:ProxySQL2.3

python使用Akshare与Streamlit实现股票估值分析教程(图文代码)

《python使用Akshare与Streamlit实现股票估值分析教程(图文代码)》入职测试中的一道题,要求:从Akshare下载某一个股票近十年的财务报表包括,资产负债表,利润表,现金流量表,保存... 目录一、前言二、核心知识点梳理1、Akshare数据获取2、Pandas数据处理3、Matplotl

python panda库从基础到高级操作分析

《pythonpanda库从基础到高级操作分析》本文介绍了Pandas库的核心功能,包括处理结构化数据的Series和DataFrame数据结构,数据读取、清洗、分组聚合、合并、时间序列分析及大数据... 目录1. Pandas 概述2. 基本操作:数据读取与查看3. 索引操作:精准定位数据4. Group

MySQL中EXISTS与IN用法使用与对比分析

《MySQL中EXISTS与IN用法使用与对比分析》在MySQL中,EXISTS和IN都用于子查询中根据另一个查询的结果来过滤主查询的记录,本文将基于工作原理、效率和应用场景进行全面对比... 目录一、基本用法详解1. IN 运算符2. EXISTS 运算符二、EXISTS 与 IN 的选择策略三、性能对比

MySQL 内存使用率常用分析语句

《MySQL内存使用率常用分析语句》用户整理了MySQL内存占用过高的分析方法,涵盖操作系统层确认及数据库层bufferpool、内存模块差值、线程状态、performance_schema性能数据... 目录一、 OS层二、 DB层1. 全局情况2. 内存占js用详情最近连续遇到mysql内存占用过高导致

深度解析Nginx日志分析与499状态码问题解决

《深度解析Nginx日志分析与499状态码问题解决》在Web服务器运维和性能优化过程中,Nginx日志是排查问题的重要依据,本文将围绕Nginx日志分析、499状态码的成因、排查方法及解决方案展开讨论... 目录前言1. Nginx日志基础1.1 Nginx日志存放位置1.2 Nginx日志格式2. 499

Olingo分析和实践之EDM 辅助序列化器详解(最佳实践)

《Olingo分析和实践之EDM辅助序列化器详解(最佳实践)》EDM辅助序列化器是ApacheOlingoOData框架中无需完整EDM模型的智能序列化工具,通过运行时类型推断实现灵活数据转换,适用... 目录概念与定义什么是 EDM 辅助序列化器?核心概念设计目标核心特点1. EDM 信息可选2. 智能类

Olingo分析和实践之OData框架核心组件初始化(关键步骤)

《Olingo分析和实践之OData框架核心组件初始化(关键步骤)》ODataSpringBootService通过初始化OData实例和服务元数据,构建框架核心能力与数据模型结构,实现序列化、URI... 目录概述第一步:OData实例创建1.1 OData.newInstance() 详细分析1.1.1