预印 文章 版本1 这个版本没有经过同行评审

近似最优稀疏神经树

版本1:收到:2021年5月4日/批准:2021年5月6日/出版:2021年5月6日(17:09:47 CEST)

如何引用:Chakraborty t;近似最优稀疏神经树。预印本2021, 2021050117 (doi: 10.20944/preprints202105.0117.v1)。Chakraborty t;近似最优稀疏神经树。Preprints 2021, 2021050117 (doi: 10.20944/preprints202105.0117.v1)。

摘要

自20世纪80年代初以来,决策树算法一直是可解释(透明)机器学习最流行的算法之一。另一方面,深度学习方法提高了机器学习算法的能力,现在正被用于各种应用领域的重要应用。但是通过梯度下降反向传播来训练一个全连接的深度前馈网络是缓慢的,并且需要任意选择隐藏单元和层的数量。在本文中,我们提出了近似最优的神经回归树,目的是使它比深度前馈网络快得多,并且不需要预先指定神经网络隐含层中隐含单元的数量。其关键思想是构造决策树,然后用神经网络对决策树进行模拟。本研究旨在建立一种神经树的数学公式,并获得稀疏最优决策树和神经树的互补优势。我们提出了具有渐近一致性和鲁棒性的近似最优稀疏神经树(NSNT)。此外,所提出的NSNT模型获得了一个快速的收敛速度,接近最优的对数因子。我们在UCI机器学习存储库的80个数据集(40个分类数据集和40个回归数据集)的样本上全面地对提出的方法进行基准测试。我们发现,在大多数数据集上,所提出的方法很可能优于当前最先进的方法(随机森林、XGBoost、最优分类树和近似最优非线性树)。

补充及相关资料

主题领域

决策树;深前馈网络;神经树;一致性;最优收敛速度。

评论(0)

我们鼓励来自广大读者的评论和反馈。看到标准的评论和我们的多样性声明。

留下公众评论
给作者发送私人评论
的观点 0
下载 0
评论 0
指标 0


×
警报
如果这篇文章有更新,或者发表了同行评议版本,请通知我。
我们在我们的网站上使用cookie,以确保您获得最佳的体验。
阅读更多关于我们的饼干在这里