基于XGBOOST时间序列预测Python程序

基于XGBOOST预测模型

特色:1、单变量,多变量输入,自由切换 

           2、单步预测,多步预测,自动切换

           3、基于Pytorch架构

           4、多个评估指标(MAE,MSE,R2,MAPE等)

           5、数据从excel文件中读取,更换简单

           6、标准框架,数据分为训练集、验证集,测试集

 全部完整的代码,保证可以运行的代码看这里。

http://t.csdn.cn/obJlChttp://t.csdn.cn/obJlC

  !!!如果第一个链接打不开,请点击个人首页,查看我的个人介绍。

(搜索到的产品后,点头像,就能看到全部代码)

黑科技小土豆的博客_CSDN博客-深度学习,32单片机领域博主

XGBOOST(eXtreme Gradient Boosting)是一种梯度提升决策树(Gradient Boosting Decision Tree, GBDT)算法的优化实现。XGBOOST 在 GBDT 的基础上,引入了多种优化策略,可以更快、更准确地训练模型,同时提高模型的泛化能力。XGBOOST 是一种强大的,可扩展的机器学习模型,广泛应用于各种数据挖掘和机器学习任务中。

XGBOOST 模型的优点包括:

  1. XGBOOST 在 GBDT 的基础上,引入了数据块并行计算、离散化并行计算、直方图优化等多种优化策略,大幅提高了训练速度和模型效果。
  2. XGBOOST 支持并行处理和分布式计算,适用于处理大规模的数据集和高维度特征。

因此,XGBOOST 模型是一种适用于分类和回归问题的强有力模型,在诸如广告搜索、推荐系统、金融风控等领域具有广泛的应用。

train_ratio = 0.7  # 训练集比例
val_ratio = 0.15  # 验证集比例
test_ratio = 0.15  # 测试集比例
input_length = 48  # 输入数据长度,多步预测建议长,单步预测建议短
output_length = 1  # 输出数据长度,1为单步预测,1以上为多步预测 请注意,随着输出长度的增长,模型训练时间呈指数级增长
learning_rate = 0.1  # 学习率
estimators = 100  # 迭代次数
max_depth = 5  # 树模型的最大深度
interval_length = 2000  # 预测数据长度,最长不可以超过总数据条数
scalar = True  # 是否使用归一化
scalar_contain_labels = True  # 归一化过程是否包含目标值的历史数据
target_value = 'load'  # 需要预测的列名,可以在excel中查看

猜你喜欢

转载自blog.csdn.net/qq_41728700/article/details/129289477