隔离林中的基本估计量

如何解决隔离林中的基本估计量

在隔离森林的背景下,我正在努力理解“基本估计量”的含义。

scikit-learn中的“隔离林”方法的参数之一是n_estimators;其在sklearn docs中的描述如下:

集合中基本估计量的数量。

我试图解释Sklearn上的文档以及Google和Youtube上的内容 了解此术语,但没有运气。有人可以解释一下IF的含义吗?

解决方法

tl; dr :这是一种特殊的决策树,在original paper中称为 Isolation Tree(iTree)

我们在本文中证明,可以有效地构建树结构来隔离每个实例。 [...]树的这种隔离特性构成了我们检测异常的方法的基础,我们将此树称为隔离树或iTree。

提议的方法称为隔离森林或iForest,它为给定的数据集构建一组iTree [...]


所有集成方法(隔离林belongs都由基本估计量组成(即,它们恰好是基本估计量的集合);来自sklearn guide

集成方法的目标是将使用给定学习算法构建的多个基本估计量的预测相结合,以提高单个估计量的通用性/鲁棒性。

例如,在Random Forest(可以说是“隔离森林”这个名字的灵感)中,此基本估计量是一个简单的决策树:

n_estimators: int,默认为100

森林中的树木数量。

Gradient Boosting Trees之类的算法类似(尽管scikit-learn文档将它们称为“ 增强阶段”,但它们仍是决策树),Extra Trees等。

在所有这些算法中,基本估计量都是固定的(尽管其特定参数可能会随着集合参数中的设置而变化)。还有另一类集成方法,其中也可以通过相应的自变量base_estimator设置要用作基本估计量的确切模型;例如,这是Bagging Classifier

base_estimator:对象,默认=无

适合数据集随机子集的基本估计量。如果为None,则基本估计量为决策树。

AdaBoost

base_estimator:对象,默认=无

构建增强后的合奏的基本估计量。 [...]如果为None,则基本估算值为DecisionTreeClassifier(max_depth=1)

从历史上讲,第一个合奏是使用决策树的各种版本构建的,可以说今天仍然是决策树(或变体,例如iTrees)几乎完全用于此类合奏。引用我在Execution time of AdaBoost with SVM base classifier中的另一个答案:

使用决策树作为基本分类器(更具体地说,决策树桩,即深度仅为1的DT),构想了Adaboost(和类似的集成方法);有充分的理由说明为什么今天仍然存在,如果您未明确指定base_classifier参数,则该参数将假定值为DecisionTreeClassifier(max_depth=1)。 DT很适合此类集合,因为它们本质上是不稳定分类器,而SVM则不是这种分类器,因此,在用作基本分类器时,预计不会提供太多。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


使用本地python环境可以成功执行 import pandas as pd import matplotlib.pyplot as plt # 设置字体 plt.rcParams['font.sans-serif'] = ['SimHei'] # 能正确显示负号 p
错误1:Request method ‘DELETE‘ not supported 错误还原:controller层有一个接口,访问该接口时报错:Request method ‘DELETE‘ not supported 错误原因:没有接收到前端传入的参数,修改为如下 参考 错误2:cannot r
错误1:启动docker镜像时报错:Error response from daemon: driver failed programming external connectivity on endpoint quirky_allen 解决方法:重启docker -> systemctl r
错误1:private field ‘xxx‘ is never assigned 按Altʾnter快捷键,选择第2项 参考:https://blog.csdn.net/shi_hong_fei_hei/article/details/88814070 错误2:启动时报错,不能找到主启动类 #
报错如下,通过源不能下载,最后警告pip需升级版本 Requirement already satisfied: pip in c:\users\ychen\appdata\local\programs\python\python310\lib\site-packages (22.0.4) Coll
错误1:maven打包报错 错误还原:使用maven打包项目时报错如下 [ERROR] Failed to execute goal org.apache.maven.plugins:maven-resources-plugin:3.2.0:resources (default-resources)
错误1:服务调用时报错 服务消费者模块assess通过openFeign调用服务提供者模块hires 如下为服务提供者模块hires的控制层接口 @RestController @RequestMapping("/hires") public class FeignControl
错误1:运行项目后报如下错误 解决方案 报错2:Failed to execute goal org.apache.maven.plugins:maven-compiler-plugin:3.8.1:compile (default-compile) on project sb 解决方案:在pom.
参考 错误原因 过滤器或拦截器在生效时,redisTemplate还没有注入 解决方案:在注入容器时就生效 @Component //项目运行时就注入Spring容器 public class RedisBean { @Resource private RedisTemplate<String
使用vite构建项目报错 C:\Users\ychen\work>npm init @vitejs/app @vitejs/create-app is deprecated, use npm init vite instead C:\Users\ychen\AppData\Local\npm-
参考1 参考2 解决方案 # 点击安装源 协议选择 http:// 路径填写 mirrors.aliyun.com/centos/8.3.2011/BaseOS/x86_64/os URL类型 软件库URL 其他路径 # 版本 7 mirrors.aliyun.com/centos/7/os/x86
报错1 [root@slave1 data_mocker]# kafka-console-consumer.sh --bootstrap-server slave1:9092 --topic topic_db [2023-12-19 18:31:12,770] WARN [Consumer clie
错误1 # 重写数据 hive (edu)> insert overwrite table dwd_trade_cart_add_inc > select data.id, > data.user_id, > data.course_id, > date_format(
错误1 hive (edu)> insert into huanhuan values(1,'haoge'); Query ID = root_20240110071417_fe1517ad-3607-41f4-bdcf-d00b98ac443e Total jobs = 1
报错1:执行到如下就不执行了,没有显示Successfully registered new MBean. [root@slave1 bin]# /usr/local/software/flume-1.9.0/bin/flume-ng agent -n a1 -c /usr/local/softwa
虚拟及没有启动任何服务器查看jps会显示jps,如果没有显示任何东西 [root@slave2 ~]# jps 9647 Jps 解决方案 # 进入/tmp查看 [root@slave1 dfs]# cd /tmp [root@slave1 tmp]# ll 总用量 48 drwxr-xr-x. 2
报错1 hive> show databases; OK Failed with exception java.io.IOException:java.lang.RuntimeException: Error in configuring object Time taken: 0.474 se
报错1 [root@localhost ~]# vim -bash: vim: 未找到命令 安装vim yum -y install vim* # 查看是否安装成功 [root@hadoop01 hadoop]# rpm -qa |grep vim vim-X11-7.4.629-8.el7_9.x
修改hadoop配置 vi /usr/local/software/hadoop-2.9.2/etc/hadoop/yarn-site.xml # 添加如下 <configuration> <property> <name>yarn.nodemanager.res