神经网络的反向传播算法:XOR训练

时间:2012-01-22 07:29:40

标签: matlab artificial-intelligence neural-network

 c=0;
 wih = .1*ones(nh,ni+1);
 who = .1*ones(no,nh+1);

 while(c<3000)
     c=c+1;
     for i = 1:length(x(1,:))


        for j = 1:nh
            netj(j) = wih(j,1:end-1)*double(x(:,i))+wih(j,end)*1;
            outj(j) = 1./(1+exp(-1*netj(j)));
        end

% hidden to output layer

        for k = 1:no

            netk(k) = who(k,1:end-1)*outj+who(k,end)*1;
            outk(k) = 1./(1+exp(-1*netk(k)));
            delk(k) = outk(k)*(1-outk(k))*(t(k,i)-outk(k));

        end

% backpropagation
        for j = 1:nh
            s=0;
            for k = 1:no
                s = s+who(k,j)*delk(k);
            end

            delj(j) = outj(j)*(1-outj(j))*s; 

            s=0;
        end


        for k = 1:no
            for l = 1:nh
                who(k,l)=who(k,l)+.5*delk(k)*outj(l);
            end
            who(k,l+1)=who(k,l+1)+1*delk(k)*1;
        end

        for j = 1:nh
            for ii = 1:ni
                wih(j,ii)=wih(j,ii)+.5*delj(j)*double(x(ii,i));
            end
            wih(j,ii+1)=wih(j,ii+1)+1*delj(j)*1;

        end



    end

end

这实现了反向传播神经网络。输入xt是期​​望的输出,ninhno输入,隐藏和输出层神经元的数量。我正在测试它的不同功能,如AND,OR,它适用于这些。但XOR不起作用。

培训x = [0 0 1 1; 0 1 0 1] 培训t = [0 1 1 0]

who =从隐藏到输出图层的权重矩阵

wih =从输入到隐藏层的权重矩阵

你能帮忙吗?

1 个答案:

答案 0 :(得分:2)

XOR与您描述的所有其他函数之间的区别在于XOR函数可线性分离。

可能发生的是您使用线性单位(线性激活函数)而不是S形单位(非线性激活函数)。另外,你确定你有一个隐藏的图层吗?

请发布您的网络拓扑(简要介绍),以及每一层的单位类型。

相关问题