红河哈尼族彝族自治州网站建设_网站建设公司_关键词排名_seo优化
2025/12/25 21:58:21 网站建设 项目流程

(Matlab)基于贝叶斯(bayes)优化卷积神经网络-门控循环单元(CNN-GRU)回归预测,BO-CNN-GRU/Bayes-CNN-GRU多输入单输出模型。 1.优化参数为:学习率,隐含层节点,正则化参数。 2.评价指标包括:R2、MAE、MSE、RMSE和MAPE等,方便学习和替换数据。 3.运行环境Matlab2020b及以上

最近在捣鼓时间序列预测的活儿,发现CNN-GRU这个组合拳挺有意思。但调参真是要人命,手动一个个试效率太低,干脆搬出贝叶斯优化这个神器。今天就跟大伙儿唠唠怎么用Matlab整活这个BO-CNN-GRU模型,重点解决多输入单输出的回归问题。

先上硬菜——数据预处理这块儿得整明白。咱们用mapminmax标准化处理数据,这个函数比zscore更适合处理不同量纲的混合特征:

% 数据归一化(这里假设原始数据存储在data矩阵中) [inputn, inputps] = mapminmax(input', 0, 1); [outputn, outputps] = mapminmax(output', 0, 1); inputn = inputn'; outputn = outputn'; % 数据集划分(7:3比例) train_ratio = 0.7; train_size = round(size(inputn,1)*train_ratio); train_input = inputn(1:train_size,:); train_output = outputn(1:train_size,:); test_input = inputn(train_size+1:end,:); test_output = outputn(train_size+1:end,:);

模型架构是CNN和GRU的串行结构。这里有个坑要注意:Matlab的卷积层默认是2D的,处理时序数据得用1D卷积。直接上layerGraph构建网络骨架:

function layers = create_cnn_gru(input_size, num_hidden, reg_param) layers = [ sequenceInputLayer(input_size) % CNN部分 convolution1dLayer(3, 16, 'Padding','same') batchNormalizationLayer reluLayer maxPooling1dLayer(2,'Stride',2) % GRU部分 gruLayer(num_hidden,'OutputMode','sequence') dropoutLayer(0.2) % 输出层 fullyConnectedLayer(1) regressionLayer ]; % 添加正则化 for i = 1:length(layers) if isprop(layers(i),'WeightRegularizer') layers(i).WeightRegularizer = regularizer.l2(reg_param); end end end

贝叶斯优化的重头戏在这里。设置优化变量范围时要注意学习率得用对数尺度,节点数必须是整数:

optimVars = [ optimizableVariable('learning_rate', [1e-4, 1e-2], 'Transform','log') optimizableVariable('num_hidden', [32, 256], 'Type','integer') optimizableVariable('reg_param', [1e-5, 1e-2], 'Transform','log') ]; % 跑30次迭代,别问我为啥选这个数,问就是穷(显存不够) results = bayesopt(@(params)train_cnn_gru(params,train_input,train_output),... optimVars, 'MaxObjectiveEvaluations',30,... 'UseParallel',false);

目标函数的设计是灵魂所在。这里用5折交叉验证的MSE作为优化指标,防止过拟合:

function objective = train_cnn_gru(params, X, Y) options = trainingOptions('adam', ... 'LearnRateSchedule','piecewise',... 'InitialLearnRate', params.learning_rate,... 'MaxEpochs', 100, ... 'MiniBatchSize', 32,... 'Verbose',0); % 5折交叉验证 cv = cvpartition(size(X,1), 'KFold',5); loss = 0; for i = 1:5 train_idx = training(cv,i); val_idx = test(cv,i); net = create_cnn_gru(size(X,2), params.num_hidden, params.reg_param); trained_net = trainNetwork(X(train_idx,:), Y(train_idx,:), net, options); y_pred = predict(trained_net, X(val_idx,:)); loss = loss + mean((y_pred - Y(val_idx,:)).^2); end objective = loss/5; end

最后测试集评估的时候,记得把预测结果反归一化。评价指标的计算用了个小技巧——直接向量化运算,比循环快得多:

% 反归一化 pred = predict(trained_net, test_input); pred = mapminmax('reverse', pred', outputps)'; real = mapminmax('reverse', test_output', outputps)'; % 指标计算 mae = mean(abs(pred - real)); mse = mean((pred - real).^2); rmse = sqrt(mse); mape = mean(abs((pred - real)./real))*100; ssr = sum((real - mean(real)).^2); sse = sum((real - pred).^2); r2 = 1 - sse/ssr; disp(['R²: ',num2str(r2),' MAE:',num2str(mae)]) disp(['RMSE:',num2str(rmse),' MAPE:',num2str(mape),'%'])

实际跑起来发现几个有意思的现象:贝叶斯优化往往会找到比较小的学习率(1e-3左右),正则化参数在1e-4附近波动。节点数倒是经常选到128以上的大值,看来GRU层确实需要足够的容量来捕捉时序特征。

遇到显存不足报错的话,可以试着把MiniBatchSize调小到16或者8。另外数据量大的时候可以把卷积核数量从16增加到32,不过别贪多,CNN部分太深容易把时序特征给卷没了。

最后说个坑:Matlab的贝叶斯优化对参数范围特别敏感,建议先用大范围跑少量迭代锁定大致区间,再缩小范围精细搜索。这个方法比无脑调参快至少3倍,亲测有效!

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询