主要内容

参考书目

[1] Agresti, A。分类数据分析,第二版。霍博肯,新泽西州:约翰威利父子公司,2002年。

[2]奥尔温,E., R. Schapire, Y. Singer。将多类简化为二进制:边距分类器的统一方法。机器学习研究杂志.Vol. 1, 2000, pp. 113-141。

[3] Alpaydin, E.“比较监督分类学习算法的组合5 x 2 CV F检验”。神经计算, 1999年第11卷第8期,第1885-1992页。

布莱克德,J. A.和D. J.迪恩。“从地图变量预测森林覆盖类型的人工神经网络和判别分析的比较准确性”。农业中的计算机和电子学第24卷,1999年第3期,第131-151页。

[5]波头,L.和林志仁。“金宝app支持向量机求解器。”大型内核机(L.博图、O.夏贝尔、D.德克斯特和J.韦斯顿编)。马萨诸塞州剑桥:麻省理工学院出版社,2007年。

bouckaer[6]。R.《基于校准测试的两种学习算法之间的选择》机器学习国际会议,第51-58页,2003。

[7]鲍卡尔特,R. E.弗兰克。比较学习算法的显著性检验的可复制性评估知识发现与数据挖掘研究进展,第八届亚太会议, 2004,第3-12页。

[8]布莱曼,L。“装袋预测”。机器学习26, 1996,第123-140页。

[9]布莱曼,L。“随机森林。”机器学习45, 2001,第5-32页。

[11]布雷曼,L. J. H.弗里德曼,R. A.奥尔申和C. J.斯通。分类和回归树。佛罗里达州博卡拉顿:查普曼和霍尔,1984年。

[12]克里斯汀尼,N.和J.肖-泰勒。支持向量机和其他基于核的学习方法简介金宝app.英国剑桥:剑桥大学出版社,2000年。

[13] Dietterich, T. <比较监督分类学习算法的近似统计检验>。神经计算, 1998年第10卷第7期,1895-1923页。

[14]迪特里希,T., G.巴基里。《通过纠错输出代码解决多类学习问题》人工智能研究杂志.第2卷,1995,第263-286页。

[15] Escalera, S., O. Pujol, P. Radeva。三进制纠错输出码的解码过程。模式分析与机器智能汇刊.Vol. 32, Issue 7, 2010, pp. 120-134。

[16] Escalera, S., O. Pujol, P. Radeva。纠错输出码的稀疏设计的三进制码的可分性。模式Recogn.第30卷,第3期,2009年,页285-297。

[17]范,r.e。,林志信。陈和c - j。林。“使用二阶信息训练支持向量机的工作集选择。”金宝app机器学习研究杂志, 2005年第6卷,第1889-1918页。

[18]法格兰m.w., S Lydersen, P. Laake。“二元配对数据的McNemar检验:中-p和渐近优于精确条件。”医学研究方法学.Vol. 13, 2013, pp. 1-8。

[19]弗洛因德,Y。“一个更健壮的增强算法。”arXiv:0905.2138v1, 2009。

[20]弗洛因德,Y.和R. E.夏丕尔。在线学习的决策理论推广及其在辅助学习中的应用计算机与系统科学专业, Vol. 55, 1997, pp. 119-139。

[21]弗里德曼J。“贪婪函数逼近:梯度增强机。”统计年鉴,第29卷,第5期,2001,第1189-1232页。

[22]弗里德曼,J., T.哈斯蒂,R.蒂布谢拉尼。“加法逻辑回归:促进的统计观点。”统计年鉴, Vol. 28 No. 2, 2000, pp. 337-407。

[23]哈斯蒂,T.和R.蒂布谢拉尼。“成对耦合分类。”统计年鉴.第26卷,第2期,1998年,第451-471页。

哈斯蒂、T.、R.蒂布谢拉尼和J.弗里德曼。统计学习的要素,第二版。纽约:施普林格,2008。

[25]何超海、林超杰。“大规模线性支持向量回归。”金宝app机器学习研究杂志, Vol. 13, 2012, pp. 3323-3348。

[26] Ho, t.k。“构建决策森林的随机子空间方法。”模式分析与机器智能汇刊,卷20,1998年第8期,第832-844页。

[27]谢长杰,张桂文,林长杰,s.s. Keerthi, s.s Sundararajan。大规模线性支持向量机的双坐标下降方法。第25届国际机器学习会议论文集,ICML ' 08, 2001, pp. 408-415。

[28]徐志伟,张志忠,林志仁。支持向量分类的实用指南金宝app.可以在https://www.csie.ntu.edu.tw/~cjlin/papers/guide/guide.pdf

[29]胡庆林,车祥林,张良,于东。“基于邻域软边缘的特征评估与选择”。Neurocomputing.Vol. 73, 2010, pp. 2114-2124。

[30]凯克曼V. -M。黄和M.沃格特。从庞大数据集训练核心机器的迭代单数据算法:理论和性能。在金宝app支持向量机:理论与应用.王立波编辑,255-274。柏林:斯普林格出版社,2005年。

[31] Kohavi, R.“扩大朴素贝叶斯分类器的准确性:一种决策树混合。”第二届知识发现与数据挖掘国际会议论文集, 1996年。

[32]兰卡斯特,H.O.《离散分布中的显著性检验》。JASA,第56卷,第294号,1961年,第223-234页。

[33] Langford, J., Li ., and T. Zhang。“通过截断梯度的稀疏在线学习。”j·马赫。学习。Res。, Vol. 10, 2009, pp. 777-801。

[34] Loh, W.Y.,“无偏变量选择和交互检测的回归树”。Statistica中央研究院, Vol. 12, 2002, pp. 361-386。

[35]罗永安、施永信。分类树的分割选择方法Statistica中央研究院, Vol. 7, 1997, pp. 815-840。

[36] McNemar, Q.《关于相关比例或百分比之间差异的抽样误差的注释》。心理测量学,第12卷,第2期,1947年,第153-157页。

[37] Meinshausen, N.“分位数回归森林。”机器学习研究杂志, Vol. 7, 2006, pp. 983-999。

[38] Mosteller, F.《衡量药物主观反应的一些统计问题》。生物识别技术, 1952年第8卷第3期,第220-226页。

[39]诺西德尔,J.和S. J.赖特。数值优化,第二版,纽约:施普林格,2006。

[40] Schapire, R. E.等。“提高利润率:对投票方法有效性的新解释。”统计年鉴,第26卷第5期,1998年,第1651-1686页。

[41]夏皮尔,R.和Y.辛格。“改进了使用信心评级预测的增强算法。”机器学习,第37卷第3期,1999年,第297-336页。

[42]沙利夫-施瓦兹,S. Y.辛格和N.斯雷布罗。Pegasos:支持向量机的原始估计次梯度求解器第24届机器学习国际会议论文集,ICML ' 07, 2007,第807-814页。

[43]塞弗特,C.霍什戈夫塔尔,J.赫尔斯和A.纳波利塔诺。“RUSBoost:在训练数据倾斜时提高分类性能。”第19届模式识别国际会议,2008,第1-4页。

[44]沃穆斯,M.廖J., G.拉奇。“完全正确的提升算法,最大限度地提高利润率。”国际第23号程序。机器学习大会,美国计算机学会,纽约,2006,第1001-1008页。

[45]吴廷峰,林昌杰,翁瑞麟。基于成对耦合的多类分类概率估计机器学习研究杂志.Vol. 5, 2004, pp. 975-1005。

[46]赖特,S. J. R. D.诺瓦克,M. A. T.菲格雷多。"可分离近似的稀疏重建"反式。Proc团体。,卷57,第7期,2009,第2479-2493页。

小,林。正则化随机学习和在线优化的双平均方法j·马赫。学习。Res。, Vol. 11, 2010, pp. 2543-2596。

徐伟。“用平均随机梯度下降法实现最优一次大规模学习”相关系数, abs/1107.2490, 2011。

[49] Zadrozny, B.“通过耦合概率估计将多类简化为二进制”。NIPS 2001:神经信息处理系统进展, 2001,第1041-1048页。

[50]扎德罗兹尼,B.朗福德和N.亚伯。“成本敏感学习的成本比例示例加权。”第三届IEEE数据挖掘国际会议, 435 - 442。2003.

[51]周振华。和X.-Y。刘。《论多课成本敏感学习》计算智能。Vol. 26,第3期,2010,pp. 232-257。