Прогнозирование регрессии | MATLAB реализует прогнозирование регрессии на основе сети долговременной кратковременной памяти LSTM-AdaBoost в сочетании с многоканальным входом и одним выходом AdaBoost

Прогнозирование регрессии | MATLAB реализует прогнозирование регрессии на основе сети долговременной кратковременной памяти LSTM-AdaBoost в сочетании с многоканальным входом и одним выходом AdaBoost

прогнозирующий эффект

1

2

основное введение

1. MATLAB реализует прогнозирование регрессии на основе долговременной сети кратковременной памяти LSTM-AdaBoost в сочетании с AdaBoost с несколькими входами и одним выходом 2.
Операционная среда — Matlab2020b
3. Ввод нескольких функций, вывод одной переменной и многомерное прогнозирование регрессии ;
4.data набор данных, данные excel, вводятся первые 7 столбцов, выводится последний 1 столбец, main.m это основная программа, просто запустите ее, и все файлы помещаются в одну папку; 5.
командное окно выводит мультииндексную оценку R2, MSE, MAE, MAPE и MBE.

Описание модели

AdaBoost прогнозирование регрессии с несколькими входами и одним выходом, основанное на сети долговременной кратковременной памяти LSTM-AdaBoost, представляет собой метод ансамблевого обучения, целью которого является использование нескольких входных переменных для прогнозирования значения одной выходной переменной. Он сочетает в себе преимущества сети LSTM и алгоритма AdaBoost, который может фиксировать долгосрочную зависимость и нелинейную взаимосвязь данных временных рядов и повышать точность прогнозирования.
Сеть LSTM представляет собой рекуррентную нейронную сеть, подходящую для данных последовательности, которая может эффективно решать проблемы долгосрочной зависимости с помощью механизма стробирования. AdaBoost — это алгоритм ансамблевого обучения, который повышает точность предсказания за счет взвешивания и объединения нескольких слабых учеников. Сочетая эти два метода, сеть LSTM можно использовать для извлечения функций данных последовательности, а затем использовать эти функции в качестве входных данных для AdaBoost и прогнозировать значение выходной переменной с помощью взвешенной комбинации нескольких слабых учеников.
Конкретные этапы реализации следующие:
Предварительная обработка данных: разделите входные данные на несколько последовательностей в хронологическом порядке, и каждая последовательность содержит несколько входных переменных и одну выходную переменную.
Извлечение функций LSTM: для каждой последовательности ее представление функций извлекается с использованием сети LSTM. Используйте выходные данные сети LSTM в качестве входных данных для AdaBoost.
Регрессия AdaBoost: выходные данные сети LSTM используются в качестве входных данных AdaBoost, а несколько слабых учеников используются для выполнения прогнозирования регрессии для выходной переменной. Веса каждого слабого ученика обновляются в соответствии с его ошибкой предсказания, чтобы повысить общую точность предсказания.
Вывод прогноза: результаты прогнозирования нескольких слабых учеников взвешиваются и объединяются для получения окончательного результата прогнозирования.
Следует отметить, что в процессе реализации требуется перекрестная проверка и настройка параметров, чтобы избежать проблем с переобучением и недообучением. В то же время, чтобы повысить надежность модели, можно использовать такие методы, как бэггинг и случайный лес в интегрированном обучении, для дальнейшего повышения точности прогнозирования.

программирование

  • Полный исходный код и способ получения данных: личное сообщение блогера;
%% 预测
t_sim1 = predict(net, p_train); 
t_sim2 = predict(net, p_test ); 

%%  数据反归一化
T_sim1 = mapminmax('reverse', t_sim1, ps_output);
T_sim2 = mapminmax('reverse', t_sim2, ps_output);

%%  均方根误差
error1 = sqrt(sum((T_sim1' - T_train).^2) ./ M);
error2 = sqrt(sum((T_sim2' - T_test ).^2) ./ N);


%%  相关指标计算
%  R2
R1 = 1 - norm(T_train - T_sim1')^2 / norm(T_train - mean(T_train))^2;
R2 = 1 - norm(T_test  - T_sim2')^2 / norm(T_test  - mean(T_test ))^2;

disp(['训练集数据的R2为:', num2str(R1)])
disp(['测试集数据的R2为:', num2str(R2)])

%  MAE
mae1 = sum(abs(T_sim1' - T_train)) ./ M ;
mae2 = sum(abs(T_sim2' - T_test )) ./ N ;

disp(['训练集数据的MAE为:', num2str(mae1)])
disp(['测试集数据的MAE为:', num2str(mae2)])

%% 平均绝对百分比误差MAPE
MAPE1 = mean(abs((T_train - T_sim1')./T_train));
MAPE2 = mean(abs((T_test - T_sim2')./T_test));

disp(['训练集数据的MAPE为:', num2str(MAPE1)])
disp(['测试集数据的MAPE为:', num2str(MAPE2)])

%  MBE
mbe1 = sum(abs(T_sim1' - T_train)) ./ M ;
mbe2 = sum(abs(T_sim1' - T_train)) ./ N ;

disp(['训练集数据的MBE为:', num2str(mbe1)])
disp(['测试集数据的MBE为:', num2str(mbe2)])

%均方误差 MSE
mse1 = sum((T_sim1' - T_train).^2)./M;
mse2 = sum((T_sim2' - T_test).^2)./N;

disp(['训练集数据的MSE为:', num2str(mse1)])
disp(['测试集数据的MSE为:', num2str(mse2)])

Рекомендации

[1].
2014 .3001.5501

рекомендация

отblog.csdn.net/kjm13182345320/article/details/131198457