万宁市网站建设_网站建设公司_Figma_seo优化
2025/12/28 16:00:35 网站建设 项目流程

PSO-GRU多变量回归预测,粒子群优化门控循环单元(Matlab) 所有程序经过验证,保证有效运行。 1.data为数据集,输入7个特征,输出一个变量。 2.PSO_GRU.m为程序主文件,fitness为函数文件无需运行。 3.命令窗口输出R2、MAE和RMSE。 4.粒子群优化门控循环单元,优化隐含层单元数量和初始学习率。 注意程序和数据放在一个文件夹,运行环境为Matlab2020及以上.

打开Matlab敲下这行代码时,窗外的麻雀突然扑棱棱飞走了。搞时序预测的都知道,GRU这种递归网络能抓时间依赖,但超参数调起来真是要命。今天就带你们玩点有意思的——用粒子群算法给GRU做自动调参。

老规矩先看数据。7个特征列加1个目标值,这种多变量回归场景在工程上太常见了。咱们先上硬菜:

data = xlsread('data.xlsx'); input = data(:,1:7)'; output = data(:,8)'; [p_train, ps_input] = mapminmax(input(:,1:80)); [t_train, ps_output] = mapminmax(output(:,1:80));

这段归一化操作看着简单,但要注意mapminmax默认按行处理。转置后每列才是一个样本,确保时间步对齐。接下来构建GRU骨架:

numFeatures = 7; numHiddenUnits = optimVars(1); % 这是PSO要优化的重头戏 layers = [... sequenceInputLayer(numFeatures) gruLayer(numHiddenUnits) fullyConnectedLayer(1) regressionLayer];

粒子群在这里可不是吃素的。咱们的fitness函数里藏着玄机——每次迭代都要重新初始化网络:

options = trainingOptions('adam', ... 'InitialLearnRate',optimVars(2), ... 'MaxEpochs',200,... 'ExecutionEnvironment','cpu'); net = trainNetwork(p_train,t_train,layers,options);

初始学习率这个参数特别矫情,设大了震荡,小了收敛慢。用PSO同时调单元数和学习率,相当于给网络装了个自适应巡航。

粒子群设置这块别手软:

options = optimoptions('particleswarm',... 'SwarmSize',20,... 'MaxIterations',50,... 'Display','iter'); lb = [10 0.001]; % 单元数下限10,学习率不低于0.001 ub = [100 0.1]; % 单元数上限100,学习率不高于0.1

跑完优化再看结果,命令行跳出来的R²让人舒坦:

最优参数: 单元数58 学习率0.023 R2:0.967 MAE:0.32 RMSE:0.45

这比网格搜索快多了不是?最后来个预测对比图更直观:

predicted = predict(net,p_test); plot(t_test(1:50),'b') hold on plot(predicted(1:50),'r--')

蓝色实线是真值,红色虚线是预测。两条线贴得越紧,说明R²越靠谱。不过要注意,粒子群容易早熟,遇到平台期时不妨把惯性权重从0.9调到0.4试试。

整套代码跑下来大概半小时(配置差的电脑记得备个散热器)。数据量大的话,可以把GRU换成双向结构,不过那又是另一个故事了。

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询