学生休息室

分享学生如何在日常项目中使用MATLAB和Simulink的技术和现实例子#学生成功#金宝app

基于MATLAB的WiDS数据马拉松2023天气预报

在今天的博客中,恩典Woolson让我们了解如何开始使用机器学习和MATLAB天气预报来接受WiDS数据马拉松2023的挑战。格蕾丝,交给你了。

简介

今天,我将展示一个如何使用MATLAB的例子WiDS数据马拉松2023.今年的挑战赛要求参赛者创建一个可以预测长期温度预报的模型,这可以帮助社区适应气候变化引起的极端天气事件。WiDS参与者将提交他们的预测Kaggle.本教程将通过以下步骤的模型制作过程:
  1. 导入表格数据集
  2. 数据预处理
  3. 训练和评估机器学习模型
  4. 做出新的预测并输出预测
MathWorks很高兴通过提供免费的MAT金宝appLAB许可证、教程、研讨会和其他资源来支持2023年数据科学女性数据马拉松的参与者。要为您和您的队友请求免费许可证,请转到此 MathWorks网站 ,按“索取软件”键,填写索取软件表格。
要注册比赛并访问数据集,请转到Kaggle网页、登入或注册帐户,然后按“参加比赛”按钮。通过接受比赛规则,您将能够在“数据”选项卡上下载挑战数据集。

导入数据

首先,我们需要将训练数据带入MATLAB工作区。在本教程中,我将使用整个挑战数据集的一个子集,因此下面所示的文件将与您提供的文件不同。我将使用的数据集是:
  • 训练数据(train.xlsx)
  • 测试数据(test.xlsx)
数据是表格形式的,所以我们可以使用readtable函数导入数据。
trainingData = readtable(“train.xlsx”“VariableNamingRule”“保存”);
testingData =可读数据(“test.xlsx”“VariableNamingRule”“保存”);
由于表非常大,我们不想一次显示整个数据集,因为它会占用整个屏幕!让我们使用函数显示表的前8行,这样我们就可以了解我们正在处理什么数据。
头(trainingData)
纬度 start_date cancm3_0_x cancm4_0_x ccsm3_0_x ccsm4_0_x cfsv2_0_x gfdl-flor-a_0_x gfdl-flor-b_0_x gfdl_0_x nasa_0_x nmme0_mean_x cancm3_x cancm4_x ccsm3_x ccsm4_x cfsv2_x gfdl_x gfdl-flor-a_x gfdl-flor-b_x nasa_x nmme_mean_x cancm3_y cancm4_y ccsm3_y ccsm4_y cfsv2_y gfdl_y gfdl-flor-a_y gfdl-flor-b_y nasa_y nmme_mean_y cancm3_0_y cancm4_0_y ccsm3_0_y ccsm4_0_y cfsv2_0_y gfdl-flor-a_0_y gfdl-flor-b_0_y gfdl_0_y nasa_0_y nmme0_mean_y cancm3_0_x_1 cancm4_0_x_1 ccsm3_0_x_1 ccsm4_0_x_1 cfsv2_0_x_1 gfdl-flor-a_0_x_1 gfdl-flor-b_0_x_1 gfdl_0_x_1 nasa_0_x_1 nmme0_mean_x_1 tmp2m cancm3_x_1 cancm4_x_1 ccsm3_x_1 ccsm4_x_1 cfsv2_x_1 gfdl_x_1 gfdl-flor-a_x_1 gfdl-flor-b_x_1 nasa_x_1 nmme_mean_x_1 cancm3_y_1 cancm4_y_1 ccsm3_y_1 ccsm4_y_1 cfsv2_y_1 gfdl_y_1 gfdl-flor-a_y_1 gfdl-flor-b_y_1 nasa_y_1 nmme_mean_y_1 cancm3_0_y_1 cancm4_0_y_1 ccsm3_0_y_1 ccsm4_0_y_1 cfsv2_0_y_1 gfdl-flor-a_0_y_1 gfdl-flor-b_0_y_1 gfdl_0_y_1 nasa_0_y_1 nmme0_mean_y_1
___ ___ ___________ __________ __________ _____ _____ _____ _______________ _______________ ________ ________ ____________ ________ ________ _________ _________ _________ ______ _____________ _____________ ______ ___________ ________ ________ _________ _________ _________ ______ _____________ _____________ ______ ___________ __________ __________ _____ _____ _____ _______________ _______________ ________ ________ ____________ ____________ ____________ ___________ ___________ ___________ _________________ _________________ __________ __________ ______________ ______ __________ __________ _____ _____ _____ ________ _______________ _______________ ________ _____________ __________ __________ _____ _____ _____ ________ _______________ _______________ ________ _____________ ____________ ____________ ___________ ___________ ___________ _________________ _________________ __________ __________ ______________27 261 01- 01- 2016 10.801 12.686 11.962 13.5 13.012 11.99 12.29 8.5611 13.64 12.049 9.8245 11.061 10.498 10.408 11.857 11.3761 11.315 11.775 12.281 10.822 13.191 16.105 30.301 26.116 43.048 40.308 24.571 26.924 27.397 28.155 30.717 34.552 28.183 28.298 28.652 34.429 37.595 31.748 25.938 16.519 23.387 21.876 39.836 21.261 14.133 36.942 29.398 25.477 12.044 29.098 21.265 42.821 28.159 62.355 24.896 24.944 10.616 10.461 11.401 7.7597 12.194 11.66412.213 10.886 16.57 18.283 15.485 18.897 17.87 16.714 17.432 13.391 20.003 17.183
27 261 02- january 2016 10.801 12.686 11.962 13.5 13.012 11.99 12.29 8.5611 13.64 12.049 9.8245 11.061 10.498 10.408 11.875 11.875 12.281 10.822 13.191 16.105 30.301 26.116 43.048 40.308 24.571 26.924 27.397 28.155 30.717 34.552 28.183 28.298 28.652 34.429 37.595 31.748 25.938 16.519 23.387 21.876 39.836 21.261 14.133 36.942 29.398 25.477 12.631 29.098 21.265 42.821 28.971 9.2255 24.896 24.944 10.616 10.461 11.401 7.7597 12.194 11.66412.213 10.886 16.57 18.283 15.485 18.897 17.87 16.714 17.432 13.391 20.003 17.183
27 261 03- 01 2016 10.801 12.686 11.962 13.5 13.012 11.99 12.29 8.5611 13.64 12.049 9.8245 11.061 10.498 10.408 11.857 11.861 11.315 11.775 12.281 10.822 13.191 16.105 30.301 26.116 43.048 40.308 24.571 26.924 27.397 28.155 30.717 34.552 28.183 28.717 34.652 34.429 37.595 31.748 25.938 16.519 23.387 21.876 39.836 21.261 14.133 36.942 29.998 25.477 13.305 29.098 22.981 32.971 9.2255 24.896 24.944 10.616 10.461 11.401 7.7597 12.194 11.66412.213 10.886 16.57 18.283 15.485 18.897 17.87 16.714 17.432 13.391 20.003 17.183
27 261 04- 01 2016 10.801 12.686 11.962 13.5 13.012 11.99 12.29 8.5611 13.64 12.049 9.8245 11.061 10.498 10.408 11.857 11.861 11.315 11.775 12.281 10.822 13.191 16.105 30.301 26.116 43.048 40.308 24.571 26.924 27.397 28.155 30.717 34.552 28.183 28.298 28.652 34.429 37.595 31.748 25.938 16.519 23.387 21.876 39.836 21.261 29.398 25.477 13.396 29.981 32.971 9.2255 24.896 24.944 10.616 10.461 11.401 7.7597 12.194 11.66412.213 10.886 16.57 18.283 15.485 18.897 17.87 16.714 17.432 13.391 20.003 17.183
27 261 05- 01 2016 10.801 12.686 11.962 13.5 13.012 11.99 12.29 8.5611 13.64 12.049 9.8245 11.061 10.498 10.408 11.315 11.775 12.281 10.822 13.191 16.105 30.301 26.116 43.048 40.308 24.571 26.924 27.397 28.155 30.717 34.552 28.183 28.298 28.652 34.429 37.595 31.748 25.938 16.519 23.387 21.876 39.836 21.261 29.398 25.477 13.627 29.981 32.971 9.2255 24.896 24.944 10.616 10.461 11.401 7.7597 12.194 11.66412.213 10.886 16.57 18.283 15.485 18.897 17.87 16.714 17.432 13.391 20.003 17.183
27 261 06- 01 2016 10.801 12.686 11.962 13.5 13.012 11.99 12.29 8.5611 13.64 12.049 9.2216 12.444 10.644 10.616 10.461 11.401 7.7597 12.194 11.644 10.644 10.616 10.461 43.048 40.007 26.308 24.571 26.924 27.397 25.938 16.519 23.387 21.876 39.836 21.261 36.942 29.398 25.477 25.938 16.519 23.387 21.876 39.836 21.261 14.133 36.942 29.398 25.477 13.999 13.191 16.105 30.301 25.461 43.048 40.007 26.308 24.571 26.924 10.616 10.461 11.401 7.7597 12.194 11.66412.213 10.886 10.801 12.686 11.962 13.5 13.012 11.99 12.29 8.5611 13.64 12.049
27 261 07- january 2016 10.801 12.686 11.962 13.5 13.012 11.99 12.29 8.5611 13.64 12.049 9.2216 12.444 10.644 10.616 10.461 11.401 7.7597 12.194 11.644 10.644 10.616 10.461 43.048 40.007 26.308 24.571 26.924 27.397 25.938 16.519 23.387 21.876 39.836 21.261 14.133 36.942 29.398 25.477 25.938 16.519 23.387 21.876 39.836 21.261 14.133 36.942 29.398 25.477 14.223 13.191 16.105 30.301 26.116 43.048 40.007 26.308 24.571 26.924 10.616 10.461 11.401 7.7597 12.194 11.66412.213 10.886 10.801 12.686 11.962 13.5 13.012 11.99 12.29 8.5611 13.64 12.049
27 261 08- 01 2016 10.801 12.686 11.962 13.5 13.012 11.99 12.29 8.5611 13.64 12.049 9.2216 12.444 10.644 10.616 10.461 11.401 7.7597 12.194 11.644 10.664 10.861 11.401 7.7597 12.194 10.461 11.401 7.7597 12.194 10.461 11.401 7.7597 12.194 10.861 11.401 7.7597 12.194 11.66412.213 10.886 10.801 12.686 11.962 13.5 13.012 11.99 12.29 8.5611 13.64 12.049
头(testingData)
纬度 start_date cancm3_0_x cancm4_0_x ccsm3_0_x ccsm4_0_x cfsv2_0_x gfdl-flor-a_0_x gfdl-flor-b_0_x gfdl_0_x nasa_0_x nmme0_mean_x cancm3_x cancm4_x ccsm3_x ccsm4_x cfsv2_x gfdl_x gfdl-flor-a_x gfdl-flor-b_x nasa_x nmme_mean_x cancm3_y cancm4_y ccsm3_y ccsm4_y cfsv2_y gfdl_y gfdl-flor-a_y gfdl-flor-b_y nasa_y nmme_mean_y cancm3_0_y cancm4_0_y ccsm3_0_y ccsm4_0_y cfsv2_0_y gfdl-flor-a_0_y gfdl-flor-b_0_y gfdl_0_y nasa_0_y nmme0_mean_y cancm3_0_x_1 cancm4_0_x_1 ccsm3_0_x_1 ccsm4_0_x_1 cfsv2_0_x_1 gfdl-flor-a_0_x_1 gfdl-flor-b_0_x_1 gfdl_0_x_1 nasa_0_x_1 nmme0_mean_x_1 tmp2m cancm3_x_1 cancm4_x_1 ccsm3_x_1 ccsm4_x_1 cfsv2_x_1 gfdl_x_1 gfdl-flor-a_x_1 gfdl-flor-b_x_1 nasa_x_1 nmme_mean_x_1 cancm3_y_1 cancm4_y_1 ccsm3_y_1 ccsm4_y_1 cfsv2_y_1 gfdl_y_1 gfdl-flor-a_y_1 gfdl-flor-b_y_1 nasa_y_1 nmme_mean_y_1 cancm3_0_y_1 cancm4_0_y_1 ccsm3_0_y_1 ccsm4_0_y_1 cfsv2_0_y_1 gfdl-flor-a_0_y_1 gfdl-flor-b_0_y_1 gfdl_0_y_1 nasa_0_y_1 nmme0_mean_y_1
___ ___ ___________ __________ __________ _____ _____ _____ _______________ _______________ ________ ________ ____________ ________ ________ _________ _________ _________ ______ _____________ _____________ ______ ___________ ________ ________ _________ _________ _________ ______ _____________ _____________ ______ ___________ __________ __________ _____ _____ _____ _______________ _______________ ________ ________ ____________ ____________ ____________ ___________ ___________ ___________ _________________ _________________ __________ __________ ______________ ______ __________ __________ _____ _____ _____ ________ _______________ _______________ ________ _____________ __________ __________ _____ _____ _____ ________ _______________ _______________ ________ _____________ ____________ ____________ ___________ ___________ ___________ _________________ _________________ __________ __________ ______________38 238 01- 01- 2016 7.3796 8.3793 8.5218 9.3342 9.508 10.423 10.946 9.3034 9.376 9.2413 9.4776 7.747 10.039 9.444 7.7948 10.142 10.421 8.7472 67.619 63.328 78.491 71.75 54.315 70.431 23.973 23.875 26.89 14.057 36.966 34.703 30.382 35.169 31.349 66.325 43.001 79.737 48.759 57.888 69.24 45.733 55.686 9.0021 71.945 84.607 8.0908 8.0417 9.4876 8.3799 8.738 10.34 10.312 8.65578.7848 8.9173 9.2217 10.978 12.627 11.894 13.353 12.966 12.68 13.138 11.753
38 238 02- 01 -2016 7.3796 8.3793 8.5218 9.3342 9.508 10.423 10.946 9.3034 9.376 9.2413 9.4776 7.747 10.039 9.444 7.7948 10.142 10.421 8.4113 8.7472 67.619 63.328 78.491 71.75 54.315 70.431 23.973 23.875 26.89 14.057 36.966 34.703 30.382 35.169 31.349 66.325 43.001 79.737 48.759 57.888 69.24 45.733 55.686 9.4104 71.945 84.607 8.0908 8.0417 9.4876 8.3799 8.738 10.34 10.312 8.65578.7848 8.9173 9.2217 10.978 12.627 11.894 13.353 12.966 12.68 13.138 11.753
38 238 03- 01 -2016 7.3796 8.3793 8.5218 9.3342 9.508 10.423 10.946 9.3034 9.376 9.2413 7.4785 8.747 10.039 9.444 7.7948 10.142 10.421 8.4113 8.7472 67.619 63.328 78.491 71.75 54.315 70.431 23.973 23.875 26.89 14.057 36.966 34.703 30.382 35.169 31.349 66.325 43.001 79.737 48.759 57.888 69.24 45.733 55.686 9.7816 71.945 84.607 8.0908 8.0417 9.4876 8.3799 8.738 10.34 10.312 8.65578.7848 8.9173 9.2217 10.978 12.627 11.894 13.353 12.966 12.68 13.138 11.753
38 238 04- 01 -2016 7.3796 8.3793 8.5218 9.3342 9.508 10.423 10.946 9.3034 9.376 9.2413 7.4785 8.747 10.039 9.444 7.7948 10.142 10.421 8.4113 8.7472 67.619 63.328 78.491 71.75 54.315 70.431 23.973 23.875 26.89 14.057 36.966 34.703 30.382 35.169 31.349 66.325 43.001 79.737 48.759 57.888 69.24 45.733 55.686 10.066 7.0177 8.0908 8.0417 9.4876 8.3799 8.738 10.34 10.312 8.65578.7848 8.9173 9.2217 10.978 12.627 11.894 13.353 12.966 12.68 13.138 11.753
38 238 05- 01 -2016 7.3796 8.3793 8.5218 9.3342 9.508 10.423 10.946 9.3034 9.376 9.2413 7.4785 8.747 10.039 9.444 7.7948 10.142 10.421 8.4113 8.7472 67.619 63.328 78.491 71.75 54.315 70.431 23.973 23.875 26.89 14.057 36.966 34.703 30.382 35.169 31.349 66.325 43.001 79.737 48.759 57.888 69.24 45.733 55.686 10.35 71.945 84.607 69.046 82.703 7.0177 8.0908 8.0417 9.4876 8.3799 8.738 10.34 10.312 8.65578.7848 8.9173 9.2217 10.978 12.627 11.894 13.353 12.966 12.68 13.138 11.753
38 238 06- 01 -2016 7.3796 8.3793 8.5218 9.3342 9.508 10.423 10.946 9.3034 9.376 9.2413 7.0177 8.0908 8.0417 9.4876 8.0908 8.0417 9.4876 8.3799 8.0908 8.0417 9.4876 9.4876 8.0908 8.0417 9.4876 9.4876 8.0908 8.0417 9.4876 9.4876 8.0908 8.0908 8.0417 9.4876 9.3034 9.3034 10.312 8.6557 8.6548 7.6557 8.7848 78.491 54.315 70.431 60.331 60.347 30.144 66.325 43.001 79.737 48.759 57.888 69.24 45.733 55.686 60.347 30.144 66.325 43.001 79.737 48.759 57.888 69.24 45.733 55.686 10.59 67.619 63.328 78.491 71.852 71.315 70.431 7.0177 8.0908 8.0417 9.4876 8.3799 8.738 10.34 10.312 8.65578.7848 7.3796 8.3793 8.5218 9.3342 9.508 10.423 10.946 9.3034 9.376 9.2413
38 238 07- 01 -2016 7.3796 8.3793 8.5218 9.3342 9.508 10.423 10.946 9.3034 9.376 9.2413 7.0177 8.0908 8.0417 9.4876 8.0908 8.0417 9.4876 8.3799 8.0908 8.0417 9.4876 9.4876 8.0908 8.0417 9.4876 8.3799 8.0908 8.0417 9.4876 9.4876 9.3034 9.349.312 8.6557 8.6548 7.6557 8.7848 78.491 54.315 70.431 60.331 60.347 30.144 66.325 43.001 79.737 48.759 57.888 69.24 45.733 55.686 60.347 30.144 66.325 43.001 79.737 48.759 57.888 69.24 45.733 55.659 67.619 63.328 78.491 71.852 61.817 9.4876 8.0908 8.0417 9.4876 8.3799 8.738 10.34 10.312 8.65578.7848 7.3796 8.3793 8.5218 9.3342 9.508 10.423 10.946 9.3034 9.376 9.2413
38 238 08- 01 -2016 7.3796 8.3793 8.5218 9.3342 9.508 10.423 10.946 9.3034 9.376 9.2413 7.0177 8.0908 8.0417 9.4876 8.0908 8.0417 9.4876 8.3799 8.0908 8.0417 9.4876 9.4876 8.0908 8.0417 9.4876 8.3799 8.0908 8.0417 9.4876 9.4876 9.3034 9.2413 8.6557 8.7848 8.3799 8.0908 8.0417 9.4876 9.4876 8.0908 8.0908 8.0417 9.4876 9.3034 9.349.312 8.6557 8.6548 7.6557 7.6557 7.7848 78.491 54.315 70.431 60.331 60.347 30.144 66.325 43.001 79.737 48.759 57.888 69.24 45.733 55.686 60.347 30.144 66.325 43.001 79.737 48.759 57.888 69.24 45.733 55.686 69.995 67.619 63.328 78.491 71.315 70.431 7.0177 8.0908 8.0417 9.4876 8.3799 8.738 10.34 10.312 8.65578.7848 7.3796 8.3793 8.5218 9.3342 9.508 10.423 10.946 9.3034 9.376 9.2413
现在我们可以看到所有列的名称(也称为变量),并了解它们的数据类型,这将使我们更容易使用这些表。注意,两个数据集具有相同的变量名。如果你查看所有的变量名,你会看到一个名为“tmp2m”的列-这是我们要训练模型来预测的列,也称为反应变量
有一个训练和测试集是很重要的已知输出,这样您就可以看到您的模型在未见数据上的表现如何。在这种情况下,它会提前拆分,但您可能需要手动拆分训练集。例如,如果你在一个100,000行的表中有一个数据集,名为' train_data ',下面的示例代码将随机将这个表分成80%的训练数据和20%的测试数据。在分配训练和测试数据时,这些百分比是相对标准的,但在创建数据集时,您可能想尝试不同的值!
[trainInd, ~, testInd] = dividerand(100000, . 8,0, .2);
trainingData = train_data(trainInd,:);
testingData = train_data(testInd,:);

数据进行预处理

现在数据已经在工作空间中,我们需要采取一些步骤来清理和格式化它,以便它可以用于训练机器学习模型。我们可以用总结函数查看每个变量的数据类型和统计信息:
总结(trainingData)

变量:

纬度: 146034×1 double

价值观:

27分钟
平均42
马克斯49

: 146034×1 double

价值观:

236分钟
值252
Max 266

start_date: 146034×1 datetime

价值观:

Min 01-Jan-2016 00:00:00
中位数01- july 2016 12:00:00
2016年12月31日00:00:00

cancm3_0_x: 146034×1 double

价值观:

-12.902分钟
中位数10.535
马克斯36.077

cancm4_0_x: 146034×1 double

价值观:

-13.276分钟
中位数12.512
马克斯35.795

ccsm3_0_x: 146034×1 double

价值观:

-11.75分钟
中位数10.477
马克斯32.974

ccsm4_0_x: 146034×1 double

价值观:

-13.264分钟
中位数12.315
马克斯34.311

cfsv2_0_x: 146034×1 double

价值观:

-11.175分钟
中位数11.34
马克斯35.749

gfdl-flor-a_0_x: 146034×1 double

价值观:

-12.85分钟
中位数11.831
马克斯37.416

gfdl-flor-b_0_x: 146034×1 double

价值观:

-13.52分钟
中位数11.837
马克斯37.34

gfdl_0_x: 146034×1 double

价值观:

-11.165分钟
中位数10.771
马克斯36.117

nasa_0_x: 146034×1 double

价值观:

-19.526分钟
中位数14.021
马克斯38.22

nmme0_mean_x: 146034×1 double

价值观:

-12.194分钟
中位数11.893
马克斯34.879

cancm3_x: 146034×1 double

价值观:

-12.969分钟
中位数9.9291
马克斯36.235

cancm4_x: 146034×1 double

价值观:

-12.483分钟
中位数12.194
马克斯38.378

ccsm3_x: 146034×1 double

价值观:

-13.033分钟
中位数10.368
马克斯33.42

ccsm4_x: 146034×1 double

价值观:

-14.28分钟
中位数12.254
马克斯34.957

cfsv2_x: 146034×1 double

价值观:

-14.683分钟
中位数10.897
马克斯35.795

gfdl_x: 146034×1 double

价值观:

-9.8741分钟
中位数10.476
马克斯35.95

gfdl-flor-a_x: 146034×1 double

价值观:

-13.021分钟
中位数11.15
马克斯37.834

gfdl-flor-b_x: 146034×1 double

价值观:

-12.557分钟
中位数11.117
马克斯37.192

nasa_x: 146034×1 double

价值观:

-21.764分钟
中位数13.721
马克斯38.154

nmme_mean_x: 146034×1 double

价值观:

-13.042分钟
中位数11.354
马克斯35.169

cancm3_y: 146034×1 double

价值观:

0.075757分钟
中位数18.56
马克斯124.58

cancm4_y: 146034×1 double

价值观:

0.02538分钟
中位数16.296
马克斯137.78

ccsm3_y: 146034×1 double

价值观:

分钟4.5927 e-05
中位数24.278
马克斯126.36

ccsm4_y: 146034×1 double

价值观:

0.096667分钟
中位数24.455
马克斯204.37

cfsv2_y: 146034×1 double

价值观:

0.074655分钟
中位数25.91
马克斯156.7

gfdl_y: 146034×1 double

价值观:

0.0046441分钟
中位数20.49
马克斯133.88

gfdl-flor-a_y: 146034×1 double

价值观:

0.0044707分钟
中位数20.438
马克斯195.32

gfdl-flor-b_y: 146034×1 double

价值观:

0.0095625分钟
中位数20.443
马克斯187.15

nasa_y: 146034×1 double

价值观:

分钟1.9478 e-05
中位数17.98
马克斯164.94

nmme_mean_y: 146034×1 double

价值观:

0.2073分钟
中位数21.494
Max 132

cancm3_0_y: 146034×1 double

价值观:

0.016023分钟
中位数19.365
马克斯139.94

cancm4_0_y: 146034×1 double

价值观:

0.016112分钟
中位数17.354
马克斯160.04

ccsm3_0_y: 146034×1 double

价值观:

0.00043188分钟
中位数21.729
马克斯144.19

ccsm4_0_y: 146034×1 double

价值观:

0.02979分钟
中位数23.642
马克斯151.3

cfsv2_0_y: 146034×1 double

价值观:

0.01827分钟
中位数25.095
马克斯176.15

gfdl-flor-a_0_y: 146034×1 double

价值观:

0.0058198分钟
中位数17.634
马克斯184.7

gfdl-flor-b_0_y: 146034×1 double

价值观:

0.0045824分钟
中位数16.937
马克斯194.19

gfdl_0_y: 146034×1 double

价值观:

0.0030585分钟
中位数19.379
马克斯140.16

nasa_0_y: 146034×1 double

价值观:

0.00051379分钟
中位数17.81
马克斯167.31

nmme0_mean_y: 146034×1 double

价值观:

0.061258分钟
中位数20.697
马克斯140.1

cancm3_0_x_1: 146034×1 double

价值观:

0.016023分钟
中位数19.436
马克斯139.94

cancm4_0_x_1: 146034×1 double

价值观:

0.016112分钟
中位数17.261
马克斯160.04

ccsm3_0_x_1: 146034×1 double

价值观:

0.00043188分钟
中位数21.75
马克斯144.19

ccsm4_0_x_1: 146034×1 double

价值观:

0.02979分钟
中位数23.45
马克斯231.72

cfsv2_0_x_1: 146034×1 double

价值观:

0.01827分钟
中位数25.096
马克斯176.15

gfdl-flor-a_0_x_1: 146034×1 double

价值观:

0.0058198分钟
中位数17.617
马克斯217.6

gfdl-flor-b_0_x_1: 146034×1 double

价值观:

0.0045824分钟
中位数16.915
马克斯195.06

gfdl_0_x_1: 146034×1 double

价值观:

0.0030585分钟
中位数19.411
马克斯140.16

nasa_0_x_1: 146034×1 double

价值观:

0.00051379分钟
中位数17.733
马克斯180.77

nmme0_mean_x_1: 146034×1 double

价值观:

0.061258分钟
中位数20.67
马克斯140.1

tmp2m: 146034×1 double

价值观:

-21.031分钟
中位数12.742
马克斯37.239

cancm3_x_1: 146034×1 double

价值观:

0.075757分钟
中位数18.649
马克斯124.58

cancm4_x_1: 146034×1 double

价值观:

0.02538分钟
中位数16.588
马克斯116.86

ccsm3_x_1: 146034×1 double

价值观:

分钟4.5927 e-05
中位数25.242
马克斯134.15

ccsm4_x_1: 146034×1 double

价值观:

0.21704分钟
中位数24.674
马克斯204.37

cfsv2_x_1: 146034×1 double

价值观:

0.028539分钟
中位数26.282
马克斯154.39

gfdl_x_1: 146034×1 double

价值观:

0.0046441分钟
中位数21.028
马克斯142.5

gfdl-flor-a_x_1: 146034×1 double

价值观:

0.0044707分钟
中位数21.322
马克斯187.57

gfdl-flor-b_x_1: 146034×1 double

价值观:

0.0095625分钟
中位数21.444
马克斯193.19

nasa_x_1: 146034×1 double

价值观:

分钟1.9478 e-05
中位数17.963
马克斯183.71

nmme_mean_x_1: 146034×1 double

价值观:

0.24096分钟
中位数21.881
马克斯124.19

cancm3_y_1: 146034×1 double

价值观:

-11.839分钟
中位数10.067
马克斯36.235

cancm4_y_1: 146034×1 double

价值观:

-11.809分钟
中位数12.179
马克斯38.378

ccsm3_y_1: 146034×1 double

价值观:

-11.662分钟
中位数10.552
马克斯33.171

ccsm4_y_1: 146034×1 double

价值观:

-14.66分钟
中位数12.254
马克斯34.891

cfsv2_y_1: 146034×1 double

价值观:

-14.519分钟
中位数10.99
马克斯35.795

gfdl_y_1: 146034×1 double

价值观:

-10.906分钟
中位数10.555
马克斯35.95

gfdl-flor-a_y_1: 146034×1 double

价值观:

-12.995分钟
中位数11.24
马克斯37.834

gfdl-flor-b_y_1: 146034×1 double

价值观:

-12.899分钟
中位数11.255
马克斯37.192

nasa_y_1: 146034×1 double

价值观:

-21.459分钟
中位数13.768
马克斯38.154

nmme_mean_y_1: 146034×1 double

价值观:

-13.219分钟
中位数11.462
马克斯35.169

cancm3_0_y_1: 146034×1 double

价值观:

-12.902分钟
中位数10.475
马克斯36.077

cancm4_0_y_1: 146034×1 double

价值观:

-13.276分钟
中位数12.385
马克斯35.795

ccsm3_0_y_1: 146034×1 double

价值观:

-9.4298分钟
中位数10.452
马克斯32.974

ccsm4_0_y_1: 146034×1 double

价值观:

-12.54分钟
中位数12.237
马克斯34.311

cfsv2_0_y_1: 146034×1 double

价值观:

-10.862分钟
中位数11.315
马克斯35.749

gfdl-flor-a_0_y_1: 146034×1 double

价值观:

-12.85分钟
中位数11.831
马克斯37.416

gfdl-flor-b_0_y_1: 146034×1 double

价值观:

-13.52分钟
中位数11.842
马克斯37.34

gfdl_0_y_1: 146034×1 double

价值观:

-9.2018分钟
中位数10.658
马克斯36.117

nasa_0_y_1: 146034×1 double

价值观:

-19.526分钟
中位数14.002
马克斯38.22

nmme0_mean_y_1: 146034×1 double

价值观:

-12.194分钟
中位数11.861
马克斯34.879

这表明所有的变量都是双精度的,除了' start_time '变量,它是一个日期时间变量,并且与许多机器学习算法不兼容。让我们把它分解成三个独立的预测因子,在训练我们的算法时可能更有帮助:
trainingData。一天= trainingData.start_date.Day;
trainingData。月= trainingData.start_date.Month;
trainingData。一年= trainingData.start_date.Year;
trainingData。start_date= [];
我还将把“tmp2m”变量移到最后,这将更容易区分这是我们想要预测的变量。
trainingData = movevars(trainingData,“tmp2m”“后”“年”);
头(trainingData)
纬度 cancm3_0_x cancm4_0_x ccsm3_0_x ccsm4_0_x cfsv2_0_x gfdl-flor-a_0_x gfdl-flor-b_0_x gfdl_0_x nasa_0_x nmme0_mean_x cancm3_x cancm4_x ccsm3_x ccsm4_x cfsv2_x gfdl_x gfdl-flor-a_x gfdl-flor-b_x nasa_x nmme_mean_x cancm3_y cancm4_y ccsm3_y ccsm4_y cfsv2_y gfdl_y gfdl-flor-a_y gfdl-flor-b_y nasa_y nmme_mean_y cancm3_0_y cancm4_0_y ccsm3_0_y ccsm4_0_y cfsv2_0_y gfdl-flor-a_0_y gfdl-flor-b_0_y gfdl_0_y nasa_0_y nmme0_mean_y cancm3_0_x_1 cancm4_0_x_1 ccsm3_0_x_1 ccsm4_0_x_1 cfsv2_0_x_1 gfdl-flor-a_0_x_1 gfdl-flor-b_0_x_1 gfdl_0_x_1 nasa_0_x_1 nmme0_mean_x_1 cancm3_x_1 cancm4_x_1 ccsm3_x_1 ccsm4_x_1 cfsv2_x_1 gfdl_x_1 gfdl-flor-a_x_1 gfdl-flor-b_x_1 nasa_x_1 nmme_mean_x_1 cancm3_y_1 cancm4_y_1 ccsm3_y_1 ccsm4_y_1 cfsv2_y_1 gfdl_y_1 gfdl-flor-a_y_1 gfdl-flor-b_y_1 nasa_y_1 nmme_mean_y_1 cancm3_0_y_1 cancm4_0_y_1 ccsm3_0_y_1 ccsm4_0_y_1 cfsv2_0_y_1 gfdl-flor-a_0_y_1 gfdl-flor-b_0_y_1 gfdl_0_y_1 nasa_0_y_1 nmme0_mean_y_1 一天 一年 tmp2m
___ ___ __________ __________ _____ _____ _____ _______________ _______________ ________ ________ ____________ ________ ________ _________ _________ _________ ______ _____________ _____________ ______ ___________ ________ ________ _________ _________ _________ ______ _____________ _____________ ______ ___________ __________ __________ _____ _____ _____ _______________ _______________ ________ ________ ____________ ____________ ____________ ___________ ___________ ___________ _________________ _________________ __________ __________ ______________ __________ __________ _____ _____ _____ ________ _______________ _______________ ________ _____________ __________ __________ _____ _____ _____ ________ _______________ _______________ ________ _____________ ____________ ____________ ___________ ___________ ___________ _________________ _________________ __________ __________ ______________ ___ _____ ____ ______27 261 10.801 12.686 11.962 13.5 13.012 11.99 12.5611 13.64 12.049 9.8245 11.061 10.498 10.408 11.875 12.281 10.822 13.191 16.105 30.301 26.116 43.048 40.007 26.308 24.571 26.924 27.397 28.155 30.717 34.552 28.183 28.298 28.652 34.429 37.595 31.748 25.938 16.519 23.387 21.133 36.942 29.398 25.477 29.098 21.265 42.821 28.159 62.355 24.896 24.933 22.981 32.971 7.7597 12.194 11.664 12.213 10.886 16.5718.283 15.485 18.897 17.87 16.714 17.432 13.391 20.003 17.183 1 1 2016 12.044
27 261 10.801 12.686 11.962 13.5 13.012 11.99 12.5611 13.64 12.049 9.8245 11.061 10.498 10.408 11.875 12.281 10.822 13.191 16.105 30.301 26.116 43.048 40.007 26.308 24.571 26.924 27.397 28.155 30.717 34.552 28.183 28.298 28.652 34.429 37.595 31.748 25.938 16.519 23.387 21.133 36.942 29.398 25.477 29.098 21.265 42.821 28.159 62.355 24.896 24.933 22.981 32.971 7.7597 12.194 11.664 12.213 10.886 16.5718.283 15.485 18.897 17.87 16.714 17.432 13.391 20.003 17.183 2 1 2016 12.631
27 261 10.801 12.686 11.962 13.5 13.012 11.99 12.5611 13.64 12.049 9.8245 11.061 10.498 10.408 11.875 12.281 10.822 13.191 16.105 30.301 26.116 43.048 40.007 26.308 24.571 26.924 27.397 28.155 30.717 34.552 28.183 28.298 28.652 34.429 37.595 31.748 25.938 16.519 23.387 21.133 36.942 29.398 25.477 29.098 21.265 42.821 28.159 62.355 24.896 24.933 22.981 32.971 7.7597 12.194 11.664 12.213 10.886 16.5718.283 15.485 18.897 17.87 16.714 17.432 13.391 20.003 17.183 3 1 2016 13.305
27 261 10.801 12.686 11.962 13.5 13.012 11.99 12.5611 13.64 12.049 9.8245 11.061 10.498 10.408 11.875 12.281 10.822 13.191 16.105 30.301 26.116 43.048 40.007 26.308 24.571 26.924 27.397 28.155 30.717 34.552 28.183 28.298 28.652 34.429 37.595 31.748 25.938 16.519 23.387 21.133 36.942 29.398 25.477 29.098 21.265 42.821 28.159 62.355 24.896 24.933 22.981 32.971 7.7597 12.194 11.664 12.213 10.886 16.5718.283 15.485 18.897 17.87 16.714 17.432 13.391 20.003 17.183 4 1 2016 13.396
27 261 10.801 12.686 11.962 13.5 13.012 11.99 12.5611 13.64 12.049 9.8245 11.061 10.498 10.408 11.875 12.281 10.822 13.191 16.105 30.301 26.116 43.048 40.007 26.308 24.571 26.924 27.397 28.155 30.717 34.552 28.183 28.298 28.652 34.429 37.595 31.748 25.938 16.519 23.387 21.133 36.942 29.398 25.477 29.098 21.265 42.821 28.159 62.355 24.896 24.933 22.981 32.971 7.7597 12.194 11.664 12.213 10.886 16.5718.283 15.485 18.897 17.87 16.714 17.432 13.391 20.003 17.183 5 1 2016 13.627
27 261 10.801 12.686 11.962 13.5 13.012 11.99 12.29 8.5611 13.64 12.049 9.2216 12.444 10.616 10.461 11.401 7.7597 12.194 11.664 10.616 10.861 11.401 7.7597 12.444 11.644 10.616 10.861 11.401 7.7597 12.049 12.2216 12.444 10.664 10.616 10.861 11.401 7.7597 12.049 12.2216 12.444 10.664 10.616 10.861 11.401 7.7597 12.049 12.2216 12.444 10.664 10.616 10.861 11.401 7.7597 12.049 12.2216 12.444 10.664 10.616 10.861 43.048 40.007 26.308 24.571 26.924 27.397 25.886 13.191 16.571 26.924 25.938 16.519 23.387 21.876 39.836 21.261 16.133 36.942 29.398 25.938 16.519 23.387 21.876 39.836 21.261 36.942 29.398 25.938 16.519 23.387 21.876 39.836 21.261 14.133 36.942 29.398 25.438 16.519 23.387 21.876 39.836 21.261 16.876 39.836 21.261 36.942 29.398 25.438 16.519 23.387 26.308 24.571 26.924 25.461 11.401 7.7597 12.194 11.664 10.886 10.80112.686 11.962 13.5 13.012 11.99 12.29 8.5611 13.64 12.049 61 2016 13.999
27 261 10.801 12.686 11.962 13.5 13.012 11.99 12.29 8.5611 13.64 12.049 9.2216 12.444 10.616 10.461 11.401 7.7597 12.194 11.664 10.616 10.861 11.401 7.7597 12.444 11.644 10.616 10.861 11.401 7.7597 12.049 12.2216 12.444 10.664 10.616 10.861 11.401 7.7597 12.049 12.2216 12.444 10.664 10.616 10.861 11.401 7.7597 12.049 12.2216 12.444 10.664 10.616 10.861 11.401 7.7597 12.049 12.2216 12.444 10.664 10.616 10.861 43.048 40.007 26.308 24.571 26.924 27.397 25.886 13.191 16.571 26.924 25.938 16.519 23.387 21.876 39.836 21.261 16.133 36.942 29.398 25.938 16.519 23.387 21.876 39.836 21.261 36.942 29.398 25.938 16.519 23.387 21.876 39.836 21.261 14.133 36.942 29.398 25.438 16.519 23.387 21.876 39.836 21.261 16.876 39.836 21.261 36.942 29.398 25.438 16.519 23.387 26.308 24.571 26.924 25.461 11.401 7.7597 12.194 11.664 10.886 10.80112.686 11.962 13.5 13.012 11.99 12.29 8.5611 13.64 12.049 7 1 2016 14.223
27 261 10.801 12.686 11.962 13.5 13.012 11.99 12.29 8.5611 13.64 12.049 9.2216 12.444 10.616 10.461 11.401 7.7597 12.194 11.664 10.616 10.861 11.401 7.7597 12.444 11.644 10.616 10.861 11.401 7.7597 12.049 12.2216 12.444 10.664 10.616 10.861 11.401 7.7597 12.049 12.2216 12.444 10.664 10.616 10.861 11.401 7.7597 12.049 12.2216 12.444 10.664 10.616 10.861 11.401 7.7597 12.049 12.2216 12.444 10.664 10.616 10.861 43.048 40.007 26.308 24.571 26.924 27.397 25.886 13.191 16.571 26.924 25.938 16.519 23.387 21.876 39.836 21.261 16.133 36.942 29.398 25.938 16.519 23.387 21.876 39.836 21.261 36.942 29.398 25.938 16.519 23.387 21.876 39.836 21.261 14.133 36.942 29.398 25.438 16.519 23.387 21.876 39.836 21.261 16.876 39.836 21.261 36.942 29.398 25.438 16.519 23.387 26.308 24.571 26.924 25.461 11.401 7.7597 12.194 11.664 10.886 10.80112.686 11.962 13.5 13.012 11.99 12.29 8.5611 13.64 12.049 8 1 2016 14.248
对测试数据重复这些步骤:
testingData。一天= testingData.start_date.Day;
testingData。月= testingData.start_date.Month;
testingData。一年= testingData.start_date.Year;
testingData。start_date= [];
testingData = movevars(testingData,“tmp2m”“后”“年”);
头(testingData)
纬度 cancm3_0_x cancm4_0_x ccsm3_0_x ccsm4_0_x cfsv2_0_x gfdl-flor-a_0_x gfdl-flor-b_0_x gfdl_0_x nasa_0_x nmme0_mean_x cancm3_x cancm4_x ccsm3_x ccsm4_x cfsv2_x gfdl_x gfdl-flor-a_x gfdl-flor-b_x nasa_x nmme_mean_x cancm3_y cancm4_y ccsm3_y ccsm4_y cfsv2_y gfdl_y gfdl-flor-a_y gfdl-flor-b_y nasa_y nmme_mean_y cancm3_0_y cancm4_0_y ccsm3_0_y ccsm4_0_y cfsv2_0_y gfdl-flor-a_0_y gfdl-flor-b_0_y gfdl_0_y nasa_0_y nmme0_mean_y cancm3_0_x_1 cancm4_0_x_1 ccsm3_0_x_1 ccsm4_0_x_1 cfsv2_0_x_1 gfdl-flor-a_0_x_1 gfdl-flor-b_0_x_1 gfdl_0_x_1 nasa_0_x_1 nmme0_mean_x_1 cancm3_x_1 cancm4_x_1 ccsm3_x_1 ccsm4_x_1 cfsv2_x_1 gfdl_x_1 gfdl-flor-a_x_1 gfdl-flor-b_x_1 nasa_x_1 nmme_mean_x_1 cancm3_y_1 cancm4_y_1 ccsm3_y_1 ccsm4_y_1 cfsv2_y_1 gfdl_y_1 gfdl-flor-a_y_1 gfdl-flor-b_y_1 nasa_y_1 nmme_mean_y_1 cancm3_0_y_1 cancm4_0_y_1 ccsm3_0_y_1 ccsm4_0_y_1 cfsv2_0_y_1 gfdl-flor-a_0_y_1 gfdl-flor-b_0_y_1 gfdl_0_y_1 nasa_0_y_1 nmme0_mean_y_1 一天 一年 tmp2m
___ ___ __________ __________ _____ _____ _____ _______________ _______________ ________ ________ ____________ ________ ________ _________ _________ _________ ______ _____________ _____________ ______ ___________ ________ ________ _________ _________ _________ ______ _____________ _____________ ______ ___________ __________ __________ _____ _____ _____ _______________ _______________ ________ ________ ____________ ____________ ____________ ___________ ___________ ___________ _________________ _________________ __________ __________ ______________ __________ __________ _____ _____ _____ ________ _______________ _______________ ________ _____________ __________ __________ _____ _____ _____ ________ _______________ _______________ ________ _____________ ____________ ____________ ___________ ___________ ___________ _________________ _________________ __________ __________ ______________ ___ _____ ____ ______38 238 7.3796 8.3793 8.5218 9.508 10.423 10.946 9.3034 9.376 9.2413 7.4776 8.747 10.039 9.444 7.7948 10.142 10.421 8.4113 8.7472 67.619 63.328 78.491 71.75 54.315 70.431 23.973 23.875 26.89 14.057 36.966 34.703 30.382 35.169 31.349 66.325 43.001 79.737 48.759 57.888 69.24 45.733 55.646 82.703 7.0177 8.0908 8.0417 9.4876 8.3799 8.738 10.34 10.312 8.6557 8.7848 8.91739.2217 10.978 12.627 11.894 13.353 12.966 12.68 13.138 11.753 11 2016 9.0021
38 238 7.3796 8.3793 8.5218 9.508 10.423 10.946 9.3034 9.376 9.2413 7.4776 8.747 10.039 9.444 7.7948 10.142 10.421 8.4113 8.7472 67.619 63.328 78.491 71.75 54.315 70.431 23.973 23.875 26.89 14.057 36.966 34.703 30.382 35.169 31.349 66.325 43.001 79.737 48.759 57.888 69.24 45.733 55.646 82.703 7.0177 8.0908 8.0417 9.4876 8.3799 8.738 10.34 10.312 8.6557 8.7848 8.91739.2217 10.978 12.627 11.894 13.353 12.966 12.68 13.138 11.753 21 2016 9.4104
38 238 7.3796 8.3793 8.5218 9.508 10.423 10.946 9.3034 9.376 9.2413 7.4776 8.747 10.039 9.444 7.7948 10.142 10.421 8.4113 8.7472 67.619 63.328 78.491 71.75 54.315 70.431 23.973 23.875 26.89 14.057 36.966 34.703 30.382 35.169 31.349 66.325 43.001 79.737 48.759 57.888 69.24 45.733 55.646 82.703 7.0177 8.0908 8.0417 9.4876 8.3799 8.738 10.34 10.312 8.6557 8.7848 8.91739.2217 10.978 12.627 11.894 13.353 12.966 12.68 13.138 11.753 3 1 2016 9.7816
38 238 7.3796 8.3793 8.5218 9.508 10.423 10.946 9.3034 9.376 9.2413 7.4776 8.747 10.039 9.444 7.7948 10.142 10.421 8.4113 8.7472 67.619 63.328 78.491 71.75 54.315 70.431 23.973 23.875 26.89 14.057 36.966 34.703 30.382 35.169 31.349 66.325 43.001 79.737 48.759 57.888 69.24 45.733 55.646 82.703 7.0177 8.0908 8.0417 9.4876 8.3799 8.738 10.34 10.312 8.6557 8.7848 8.91739.2217 10.978 12.627 11.894 13.353 12.966 12.68 13.138 11.753 4 1 2016 10.066
38 238 7.3796 8.3793 8.5218 9.508 10.423 10.946 9.3034 9.376 9.2413 7.4776 8.747 10.039 9.444 7.7948 10.142 10.421 8.4113 8.7472 67.619 63.328 78.491 71.75 54.315 70.431 23.973 23.875 26.89 14.057 36.966 34.703 30.382 35.169 31.349 66.325 43.001 79.737 48.759 57.888 69.24 45.733 55.646 82.703 7.0177 8.0908 8.0417 9.4876 8.3799 8.738 10.34 10.312 8.6557 8.7848 8.91739.2217 10.978 12.627 11.894 13.353 12.966 12.68 13.138 11.753 5 1 2016 10.35
38 238 7.3796 8.3793 8.5218 9.508 10.423 10.946 9.3034 9.2413 7.0177 8.0908 8.0417 9.4876 8.0908 8.0417 9.4876 8.0908 8.0417 9.4876 8.0908 8.0417 9.4876 9.3034 9.3034 10.312 8.6557 8.7848 8.0908 8.0417 9.4876 8.0908 8.0908 8.0908 9.4838 9.3034 9.3034 10.312 8.6557 8.7848 8.0908 8.0908 9.4876 8.0908 8.0908 8.0908 8.0908 9.4838 9.3034 10.312 8.6557 8.7848 7.3796 8.37938.5218 9.3342 9.508 10.423 10.946 9.3034 9.376 9.2413 6 1 2016 10.59
38 238 7.3796 8.3793 8.5218 9.508 10.423 10.946 9.3034 9.2413 7.0177 8.0908 8.0417 9.4876 8.0908 8.0417 9.4876 8.0908 8.0417 9.4876 8.0908 8.0417 9.4876 9.3034 9.3034 10.312 8.6557 8.7848 8.0908 8.0417 9.4876 8.0908 8.0908 8.0908 9.4838 9.3034 9.3034 10.312 8.6557 8.7848 8.0908 8.0908 9.4876 8.0908 8.0908 8.0908 8.0908 9.4838 9.3034 10.312 8.6557 8.7848 7.3796 8.37938.5218 9.3342 9.508 10.423 10.946 9.3034 9.376 9.2413 7 1 2016 10.674
38 238 7.3796 8.3793 8.5218 9.508 10.423 10.946 9.3034 9.2413 7.0177 8.0908 8.0417 9.4876 8.0908 8.0417 9.4876 8.0908 8.0417 9.4876 8.0908 8.0417 9.4876 9.3034 9.3034 10.312 8.6557 8.7848 8.0908 8.0417 9.4876 8.0908 8.0908 8.0908 9.4838 9.3034 9.3034 10.312 8.6557 8.7848 8.0908 8.0908 9.4876 8.0908 8.0908 8.0908 8.0908 9.4838 9.3034 10.312 8.6557 8.7848 7.3796 8.37938.5218 9.3342 9.508 10.423 10.946 9.3034 9.376 9.2413 8 1 2016 10.995
现在,数据就可以使用了!

训练和评估一个模型

有很多不同的方法来解决今年的问题,所以尝试不同的模型是很重要的!在本教程中,我们将使用机器学习方法来解决天气预报问题,由于响应变量“tmp2m”是一个数字,我们将需要创建一个回归模型。让我们从打开回归学习者应用程序开始,这将允许我们快速建立几个不同模型的原型。
regressionLearner
当你第一次打开应用程序时,你需要点击左上角的“新建会话”按钮。将“数据集变量”设置为“trainingData”,它将自动选择正确的响应变量。这是因为它是表中的最后一个变量。然后,由于这是一个相当大的数据集,我将验证方案更改为“坚持验证”,并将坚持的百分比设置为15。我选择这些作为初始值,但是当您创建自己的模型时,您可能想要使用验证方案。
点击“Start Session”后,回归学习者应用程序界面将加载。
步骤1:开始一个新的会话
openRegressionLearner.gif
[点击“新会话”>“来自工作区”,设置“数据集变量”为“trainingData”,设置“验证方案”为“坚持验证”,设置“坚持百分比”为15,点击“开始会话”]
从这里,我将选择训练“所有快速训练”模型选项,这样我就可以看到这几个选项中哪个表现最好。执行此操作的步骤如下所示。注意:由于训练需要几秒钟,因此录音速度略有加快。
第二步:训练模型
trainRegressionLearner.gif
[单击工具条的MODELS部分中的“All Quick-To-Train”,删除“1.”在“模型”面板中的树模型,点击“训练全部”,等待所有模型训练完成
我选择了“全部快速到训练”选项,这样我就可以展示整个过程,但如果您有时间,您可能想尝试选择“全部”而不是“全部快速到训练”选项。这将为您提供更多的模型。
一旦这些训练完成,您将看到RMSE,或均方根误差值,显示在左侧。这是回归模型的常见误差度量,也将用于评估您的参赛作品。RMSE的计算公式如下:

这个值告诉您模型在验证数据上的表现如何。在这种情况下,Fine Tree模型表现最好!
回归学习者应用程序还允许您导入测试数据,以查看经过训练的模型在新数据上的表现如何。这将使您了解在对竞争测试集进行最终预测时,模型可能有多准确。让我们导入' testingData '表,看看这些模型是如何执行的。
步骤3:用测试数据评估模型
testRegressionLearner.gif
[点击“Test Data”下拉菜单,选择“From Workspace”。在打开的窗口中,将“Test Data set Variable”设置为“testingData”,然后单击“Import”。点击“全部测试”-将计算新的RMSE值]
这将花费几秒钟的时间来运行,但是一旦它完成,我们可以看到尽管Fine Tree模型在验证数据上表现最好,但线性回归模型在全新的数据上表现最好。
您还可以使用回归学习者应用程序的“PLOT AND INTERPRET”选项卡来创建显示模型在测试和验证集上的表现的视觉效果。例如,让我们看看线性回归模型的“预测与实际(测试)”图:
第四步:绘制结果
testPlot.gif
[点击工具条的绘图和解释部分的下拉菜单,然后选择“预测vs.实际(测试)”]
由于该模型表现相对较好,蓝点(表示预测)与直线(表示实际值)非常接近。我对这个模型的表现很满意,所以让我们把它导出到工作区,这样我们就可以对其他数据集进行预测了!
步骤5:导出模型
exportModel.gif
[在工具条的导出部分,单击“导出模型”>“导出模型”。在出现的窗口中,点击“确定”]
现在模型在MATLAB工作区中作为“trainedModel”,所以我可以在应用程序之外使用它。
要了解更多关于从回归学习者应用程序导出模型的信息,请查看这个文档页面

保存和导出预测

一旦你有了一个满意的模型,就可以对新数据进行预测了。为了向您展示这个工作流是什么样子的,我将从我的测试数据集中删除“tmp2m”变量,因为竞争测试集没有这个变量。
testingData = removevars(testingData,“tmp2m”);
现在我们有了一个包含与训练集相同变量的数据集除了对于响应变量。要在此数据集上进行预测,请使用predictFcn:
tmp2m = trainedModel.predictFcn(testingData);
这将返回一个数组,每个测试集的行包含一个预测。为了准备提交这些预测,我们需要创建一个包含两列的表:一列包含索引号,一列包含该索引号的预测。由于我使用的数据集没有提供索引号,所以我将创建一个索引号数组,以显示结果表的样子。
索引=(1:长度(tmp2m)) ';
outputTable = table(index, tmp2m);
头(outputTable)
指数 tmp2m
_____ ______1 11.037
2 11.041
3 11.046
4 11.05
5 11.054
6 13.632
7 13.636
8 13.641
然后我们可以将结果导出到excel表格,供其他人阅读和使用!
writetable (outputTable“datathonSubmission.csv”);
要了解更多关于比赛的提交和评估,请参阅Kaggle页面

实验!

在创建任何类型的AI模型时,测试不同的工作流以查看哪个工作流最适合您的数据集和挑战是很重要的!本教程只是一个介绍,但在预处理数据或创建模型时,您可以做出许多其他选择。没有一种算法适合所有问题,所以留出一些时间来测试不同的模型。以下是一些如何开始的建议:
  • 尝试其他预处理技术,如规范化数据或创建新变量
  • 在应用程序中使用可用的训练选项
  • 更改用于训练模型的变量
  • 试机器而且深度学习工作流程
  • 更改训练、测试和验证数据的分解
如果你正在训练一个深度学习网络,你也可以利用实验管理器在不同条件下训练网络,并比较结果!

完成了!

感谢您参加我的教程!我们很高兴知道你将如何利用你所学到的知识来创建你自己的模型。我建议查看下面的“附加资源”部分,以获得关于如何改进模型的更多想法。我们正在举办一些免费的在线研讨会,讨论如何使用MATLAB来解决这样的问题。使用此链接注册您所在时区的研讨会
请随时联系我们studentcompetitions@mathworks.com如果你还有其他问题。

额外的资源

  1. 监督学习概述(视频)
  2. 预处理数据文档
  3. MATLAB中的缺失数据
  4. 监督学习工作流和算法
  5. 在回归学习应用程序中训练回归模型
  6. 在分类学习App中训练分类模型
  7. 8 MATLAB数据科学备考单
  8. MATLAB斜坡弯道
  9. 机器学习入口
  10. 深度学习入口

|
  • 打印
  • 发送电子邮件

评论

如欲留言,请点击在这里登录您的MathWorks帐户或创建一个新帐户。