0

    LSTM、LSTM多输入单输出回归预测目录效果一览

    10个月前 | admin | 90次围观

    回归预测 | MATLAB实现基于QPSO-LSTM、PSO-LSTM、LSTM多输入单输出回归预测

    目录

    效果一览

    基本描述

    1.Matlab实现QPSO-LSTM、PSO-LSTM和LSTM神经网络时间序列预测;

    2.输入数据为单变量时间序列数据,即一维数据;

    3.运行环境Matlab2020及以上,依次运行Main1LSTMNN、Main2PSOLSTMNN、Main3_QPSOLSTMNN、Main4_CDM即可,其余为函数文件无需运行,所有程序放在一个文件夹,data为数据集,输入多个特征,输出单个变量;

    LSTM(长短时记忆模型)与粒子算法优化后的LSTM(PSOLSTM)以及量子粒子群算法优化后的LSTM(QPSOLSTM)对比实验,可用于风电、光伏等负荷预测,数据为多输入单输出预测基于高斯过程回归的短期风速预测,最后一列输出,PSO、QPSO优化超参数为隐含层1节点数、隐含层2节点数、最大迭代次数和学习率。

    4.命令窗口输出MAE、MAPE、RMSE和R2。

    模型描述

    LSTM (Long Short-Term Memory)是一种适用于序列数据分析的循环神经网络 (RNN) 架构,它可以捕捉数据中的时间依赖关系和模式。LSTM模型包含三个关键的门控单元:输入门、遗忘门和输出门,它们可以控制信息的流动,从而有效地处理时间序列数据。LSTM模型通常需要手动选择和调整许多超参数,如LSTM层数、隐藏单元数等,以最大化模型的性能。

    PSO-LSTM和QPSO-LSTM是LSTM的变体,它们使用粒子群优化 (PSO) 和量子粒子群优化 (QPSO) 算法来优化LSTM模型的超参数。这些算法可以自动搜索并找到最佳的超参数组合,以最大化LSTM模型的性能。

    PSO算法是一种元启发式算法,它通过模拟鸟群捕食的行为来搜索最优解。在PSO-LSTM中,每个粒子表示一组超参数,如LSTM层数、隐藏单元数等。粒子的位置表示该组超参数的取值,速度表示在搜索过程中改变该组超参数的步长。通过计算每个粒子的适应度(即模型的性能),PSO算法可以自动搜索并找到最佳的超参数组合,以最大化LSTM模型的性能。

    QPSO算法是一种基于量子力学原理的优化算法,它可以更好地处理高维优化问题和局部最优解。在QPSO-LSTM中,每个粒子表示一组超参数,如LSTM层数、隐藏单元数等。与PSO算法不同的是基于高斯过程回归的短期风速预测,QPSO算法使用概率幅度和相位来代替位置和速度,从而更好地利用粒子的量子特性。通过计算每个粒子的适应度(即模型的性能),QPSO算法可以自动搜索并找到最佳的超参数组合,以最大化LSTM模型的性能。

    总的来说,LSTM模型通过使用门控单元和长短时记忆单元来处理时间序列数据。PSO-LSTM和QPSO-LSTM则使用粒子群算法来搜索最佳的超参数组合,以最大化LSTM模型的性能。这些算法可以自动搜索并找到最佳的超参数组合,从而提高LSTM模型在时间序列预测任务中的性能。

    程序设计

    for i=1:PopNum%随机初始化速度,随机初始化位置
        for j=1:dim
            if j==dim% % 隐含层节点与训练次数是整数 学习率是浮点型
                pop(i,j)=(xmax(j)-xmin(j))*rand+xmin(j);
            else
                pop(i,j)=round((xmax(j)-xmin(j))*rand+xmin(j));  %
            end
        end
    end
    % calculate the fitness_value of Pop
    pbest = pop;
    gbest = zeros(1,dim);
    data1 = zeros(Maxstep,PopNum,dim);
    data2 = zeros(Maxstep,PopNum);
    for i = 1:PopNum
        fit(i) = fitness(pop(i,:),p_train,t_train,p_test,t_test);
        f_pbest(i) = fit(i);
    end
    g = min(find(f_pbest == min(f_pbest(1:PopNum))));
    gbest = pbest(g,:);
    f_gbest = f_pbest(g);
    %-------- in the loop -------------
    for step = 1:Maxstep
        
        mbest =sum(pbest(:))/PopNum;
        % linear weigh factor
        b = 1-step/Maxstep*0.5;
        data1(step,:,:) = pop;
        data2(step,:) = fit;
        for i = 1:PopNum
            a = rand(1,dim);
            u = rand(1,dim);
            p = a.*pbest(i,:)+(1-a).*gbest;
            pop(i,:) = p + b*abs(mbest-pop(i,:)).*...
                log(1./u).*(1-2*(u >= 0.5));
            % boundary detection
            
            for j=1:dim
                if j ==dim
                    if pop(i,j)>xmax(j) | pop(i,j)<xmin(j)
                        pop(i,j)=(xmax(j)-xmin(j))*rand+xmin(j);  %
                    end
                else
                    pop(i,j)=round(pop(i,j));
                    if pop(i,j)>xmax(j) | pop(i,j)<xmin(j)
                        pop(i,j)=round((xmax(j)-xmin(j))*rand+xmin(j));  %
                    end
                end
            end
            
            
            fit(i) = fitness(pop(i,:),p_train,t_train,p_test,t_test);
            if fit(i) < f_pbest(i)
                pbest(i,:) = pop(i,:);
                f_pbest(i) = fit(i);
            end
            if f_pbest(i) < f_gbest
                gbest = pbest(i,:);
                f_gbest = f_pbest(i);
            end
        end
        trace(step)=f_gbest;
        step,f_gbest,gbest
        result(step,:)=gbest;
    end
    or i=1:N%随机初始化速度,随机初始化位置
        for j=1:D
            if j==D% % 隐含层节点与训练次数是整数 学习率是浮点型
                x(i,j)=(xmax(j)-xmin(j))*rand+xmin(j);
            else
                x(i,j)=round((xmax(j)-xmin(j))*rand+xmin(j));  %
            end
        end
        
        v(i,:)=rand(1,D);
    end
    %------先计算各个粒子的适应度,并初始化Pi和Pg----------------------
    for i=1:N
        p(i)=fitness(x(i,:),p_train,t_train,p_test,t_test);
        y(i,:)=x(i,:);
        
    end
    [fg,index]=min(p);
    pg = x(index,:);             %Pg为全局最优
    %------进入主要循环,按照公式依次迭代------------
    for t=1:M
        
        for i=1:N
            v(i,:)=w*v(i,:)+c1*rand*(y(i,:)-x(i,:))+c2*rand*(pg-x(i,:));
            x(i,:)=x(i,:)+v(i,:);
            
            
            for j=1:D
                if j ~=D
                    x(i,j)=round(x(i,j));
                end
                if x(i,j)>xmax(j) | x(i,j)<xmin(j)
                    if j==D
                        x(i,j)=(xmax(j)-xmin(j))*rand+xmin(j);  %
                    else
                        x(i,j)=round((xmax(j)-xmin(j))*rand+xmin(j));  %
                    end
                end
            end
            temp=fitness(x(i,:),p_train,t_train,p_test,t_test);
            if temp<p(i)
                p(i)=temp;
                y(i,:)=x(i,:);
            end
            
            if p(i)<fg
                pg=y(i,:);
                fg=p(i);
            end
        end
        trace(t)=fg;
        result(t,:)=pg;
    

    参考资料

    [1]

    [2]

    发表评论