主要内容

参考书目

[1] Agresti,。分类数据分析,第二次。Hoboken,NJ:John Wiley&Sons,Inc。,2002年。

艾尔温,E.夏皮尔,Y.辛格。《将多类减少为二进制:一种统一的保证金分类方法》。机床学习研究.卷。1,2000,pp。113-141。

[3] Alpaydin, E.《结合5 × 2 CV F检验比较监督分类学习算法》。神经计算,卷。11,1999年第8,199,PP。1885-1992。

布莱克沃德,J. A.和D. J.迪恩。“人工神经网络和判别分析在从地图变量预测森林覆盖类型中的比较精度”。农业计算机和电子产品卷。24,第399款,第131-151页。

[5]柏杜、林志仁。"金宝app支持向量机求解器"大规模内核机(L. Bottou,O. Chapelle,D. Decoste和J. Weston,EDS。)。剑桥,马:MIT Press,2007年。

[6] Bouckaert。R.“基于校准测试的两个学习算法选择。”国际机会学习会议,pp。51-58,2003。

[7] Bouckaert,R.和E. Frank。“评估用于比较学习算法的重要性测试的可复制性。”知识发现与数据挖掘进展,第八届亚太学术会议,2004年,第3-12页。

[8] Breiman,L.“袋装预测器。”机器学习第26,1996,PP。123-140。

[9] Breiman, L。“随机森林。”机器学习45,2001,第5-32页。

布雷曼,J. H. Friedman, R. A. Olshen, C. J. Stone。分类和回归树。Boca Raton,FL:Chapman&Hall,1984年。

[12] Christianini,N.和J. Shawe-Taylor。支持向量机和基于内核的学习方法的介绍金宝app.英国剑桥:剑桥大学出版社,2000年。

[13] Dietterich, T.“用于比较监督分类学习算法的近似统计检验”。神经计算,卷。10,1998年7月7日,第1895-1923页。

[14] Dietterich,T.和G. Bakiri。“通过纠错输出代码来解决多字母学习问题。”人工智能研究杂志.卷。2,1995,第263-286页。

Pujol, S. Escalera, S. O. Pujol, P. Radeva。《论三元纠错输出码的译码过程》。模式分析与机器智能学报.卷。32,第7号,2010年第70页,第120-134页。

Pujol, S. Escalera, S. O. Pujol, P. Radeva。用于纠错输出码稀疏设计的三元码的可分性。模式识别.2009年第30卷第3期285-297页。

[17]球迷,R.-E。,林志信。陈,C.-J。林。使用二阶信息进行训练支持向量机的工作集选择金宝app机床学习研究,Vol 6,2005,pp.1889-1918。

[18] Fagerlan, m.w., S Lydersen, P. Laake。二元配对数据的McNemar检验:中p和渐近比精确条件更好医学研究方法.卷。13,2013,pp。1-8。

[19] Freund, Y。“一个更健壮的助推算法”,arXiv:0905.2138v1, 2009。

[20] Freund,Y.和R. Schire。“关于在线学习的决策概括和促进申请。”J.计算机与系统科学,第55卷,1997年,119-139页。

[21]弗里德曼,J。“贪婪函数近似:梯度升压机。”年报的统计数据,第29卷第5期,2001年,第1189-1232页。

Friedman, J., T. Hastie,和R. Tibshirani。加性逻辑回归:助推的统计学观点统计年鉴, Vol. 28, No. 2, 2000, pp. 337-407。

Hastie, T.和R. Tibshirani。“两两耦合分类”。统计年鉴.卷。26,第298页,第451-471页。

[24] Hastie,T.,R. Tibshirani和J. Friedman。统计学习的要素, 第二版。纽约:斯普林斯,2008年。

Ho c.h.和Lin c.j.。“大规模线性支持向量回归。”金宝app机床学习研究,卷。13,2012,第3323-3348页。

[26] HO,T.K。“建设决策林的随机子空间方法。”图案分析和机器智能的IEEE交易,第20卷第8期,1998年,第832-844页。

[27] Hsieh,C.J.,K.W.张,C.J.Lin,S.S. Keerthi和S. Sundararajan。“用于大规模线性SVM的双坐标滴定方法。”第25届国际机器学习会议论文集,ICML’08,2001年,第408-415页。

[28]徐湖,志伟,千涌昌,和志仁林。支持矢量分类的实用指南金宝app.可用AT.https://www.csie.ntu.edu.tw/~cjlin/papers/guide/guide.pdf.

[29]胡,Q.,X. Che,L. Zhang和D. Yu。“基于邻域软边距的特征评估和选择。”Neurocomputing.Vol. 73, 2010, pp. 2114-2124。

[30] Kecman V.,T. -M。黄,和M. Vogt。“巨大数据集训练内核机器的迭代单数据算法:理论与性能。”在金宝app支持向量机:理论与应用.王力波主编,255-274。柏林:斯普林格出版社,2005年版。

[31] Kohavi, R. <扩大朴素贝叶斯分类器的准确性:一种决策树混合>。第二届知识发现和数据挖掘会议的诉讼程序1996年。

[32]兰开斯特,H.O.“在离散分布中的意义测试。”JASA,第56卷第294期,1961年,第223-234页。

[33] Langford,J.,L. Li,以及T.张。“通过截断的渐变稀疏在线学习。”j·马赫。学习。Res。, 2009年第10卷,第777-801页。

[34] Loh, W.Y., <具有无偏变量选择和交互检测的回归树>Statistica中央研究院,卷。12,2002,第361-386页。

[35] LOH,W.Y.和Y.S.Shih。“分类树的分离选择方法。”Statistica中央研究院, 1997年第7卷,第815-840页。

[36] McNemar, Q.《关于相关比例或百分比差异的抽样误差的注释》。心理测量学,第12卷,第2期,1947年,153-157页。

[37] Meinshausen,N。“斯蒂利回归森林。”机床学习研究,卷。7,2006,第983-999页。

[38]罗斯勒,F。“测量药物主观反应的一些统计问题”。生物识别学,第8卷第3期,1952年,220-226页。

Nocedal, J.和S. J. Wright。数值优化,第二次,纽约:春天,2006年。

Schapire, r.e.等。“扩大差额:对投票方法有效性的新解释。”年报的统计数据,1998年第26卷第5期,第1651-1686页。

[41] Schapire,R.和Y.歌手。“利用信心预测改进了提升算法。”机器学习,第37卷第3期,1999年,第297-336页。

谢勒夫-施瓦茨,S. Y.辛格和N.斯雷布罗。Pegasos:支持向量机的原始估计次梯度求解器第24届国际机器学习会议论文集,ICML’07, 2007,第807-814页。

[43] Seiffert,C.,T.Khoshgoftaar,J. Hulse和A. Napolitano。“Rusboost:在训练数据倾斜时提高分类性能。”第19届国际模式识别会议,2008年,页1 - 4。

[44]温穆特,廖建军,陈志强。“完全正确的助推算法,使利润最大化。”Proc。23 int'l。Conf。在机器学习,ACM,纽约,2006,页1001-1008。

吴廷锋,林春杰,翁仁。“基于成对耦合的多类别分类的概率估计”。机床学习研究.第5卷,2004年,975-1005页。

[46] Wright,S.J.,R. D. Nowak和M. A.T. Tipueiredo。“通过可分离近似稀疏重建。”反式。Proc团体。,卷。57,2009年7月7日,第2479-2493。

肖[47],林。“正则化随机学习和在线优化的双重平均方法”。j·马赫。学习。Res。,卷。2010年11月11日,第2543-2596。

[48]徐,魏。“基于平均随机梯度下降的最优一次大规模学习”。相关系数、abs / 1107.2490, 2011年。

[49] zrozny,“通过耦合概率估计将多类分解为二进制”。神经信息处理系统研究进展14, 2001,第1041-1048页。

Zadrozny, B., J. Langford, N. Abe。“基于成本比例例子加权的成本敏感学习”。第三届IEEE数据挖掘国际会议,435-442。2003年。

[51]周,Z.-H。和X.-Y。刘。《关于多班成本敏感学习》计算智能。第26卷,第3期,2010年,232-257页