模糊数学

 翻译样例中心 >> 数学翻译样例 >> 模糊数学

翻译样例: 基于粗集的混和变量决策树构造算法研究
版权信息   版权信息

传统决策树构造算法对每个结点采用启发式函数(即属性选择判据)选择分裂属性生成子结点以获得较为理想的结果。研究人员已提出很多属性选择判据,如ID3算法的信息熵[1]、C4.5的信息增益函数[2]等,这些判据都是基于信息论度量的,存在种类偏见问题[1]且容易陷于局部最优。另外,传统的单变量决策树构造算法在一个结点只选择一个属性进行分裂,忽略了属性之间的相互关系,因而可能引起重复子树问题,且某些属性可能被多次检验[7]。为此,出现了多变量归纳学习系统,即在树的各结点选择多个属性的组合作为分裂属性,一般表现为通过数学或逻辑算子将一些属性组合起来形成新的属性作为分裂属性,因而称这样形成的决策树为多变量决策树[3]。这种方法可以减小决策树的规模,并且对于解决属性间的交互作用和重复子树问题有良好的效果,然而,可能会导致搜索空间变大,计算复杂性增加。比较有代表性的多变量决策树算法的构造方法及其性能如下:OC1算法[3]采用动荡算法调整属性的系数来组合属性。由于动荡的顺序和次数不定,因而存在不确定性。FRINGE算法[4]用逻辑算子组合属性以构造新的属性,仅允许一个结点的属性与其父结点或祖父结点的属性合并。该算法可能会构造出更复杂的决策树。Revest[5]研究了用属性的合取来表示布尔函数的问题,在算法中必须事先规定合取项的最大值,如选择不当会影响算法的效率。

由Pawlak Z.于1982年提出的粗糙集合理论[6]从新的视角对知识进行了定义,把知识看作是关于论域的划分,引入等价关系来讨论知识。该理论主要用于知识的约简及知识依赖性分析,因而可以作为机器学习和复杂数据分析的工具。将粗集理论用于决策树优化已经出现了很多结合点,如初始属性的约简和预剪枝等,还出现了基于粗集的增量式决策树,而利用粗集理论作为属性选择判据也得到了关注并出现了一些算法。文献[7]中利用条件属性相对于决策属性的核,用相对泛化的概念进行多变量分裂,可以构造非常简单的树。但是,当核中的属性较多时,决策树结点中的属性过多,因而对结点分裂条件的描述十分困难,使所构造的决策树难以理解。基于粗集的单变量决策树HACRs算法[8]选择能明确分类实例最多的属性作为结点的分裂属性,然而由于受到属性分类能力的限制,在很多情况下,单个属性的正域为空,不能对任何实例明确分类,最终回归到传统的决策树算法,因而不能达到预期的效果。因此,选择属性的方法成为重要的问题。

收稿邮箱: sotrans@126.com
QQ: 1169561052    MSN: jesczhao@hotmail. com

最新翻译样例

相关翻译样例

专业英语词汇频道