Метод сигнального обучения Хэбба
Как мы видели, выход NET простого искусственного нейрона является взвешенной суммой его входов. Это может быть выражено следующим образом:
![](../../../../img/tex/d/a/8/da8e7a7593da79143f0cce6dba7a10c3.png)
где
![](../../../../img/tex/f/6/7/f67b61e292124b745a4708532d14bb26.png)
![](../../../../img/tex/e/5/c/e5c56b3f413c625963df2cd10182744f.png)
![](../../../../img/tex/b/0/7/b073ed756487b0aca7bdd1de344b281a.png)
![](../../../../img/tex/6/0/4/6048f1e10201f48f0650ed59edaedd21.png)
![](../../../../img/tex/2/b/3/2b348a838fa012d0ef4ee57725e6a1d4.png)
![](../../../../img/tex/6/0/4/6048f1e10201f48f0650ed59edaedd21.png)
![](../../../../img/tex/e/5/c/e5c56b3f413c625963df2cd10182744f.png)
Можно показать, что в этом случае линейная многослойная сеть не является более мощной, чем однослойная сеть; рассматриваемые возможности сети могут быть улучшены только введением нелинейности в передаточную функцию нейрона. Говорят, что сеть, использующая сигмоидальную функцию активации и метод обучения Хэбба, обучается по сигнальному методу Хэбба. В этом случае уравнение Хэбба модифицируется следующим образом:
![](../../../../img/tex/3/c/4/3c4619157406f99e3a6e4694c107f139.png)
где
![](../../../../img/tex/3/9/d/39d1ebf62ac043d1b82b344aa46b2941.png)
![](../../../../img/tex/6/0/4/6048f1e10201f48f0650ed59edaedd21.png)
![](../../../../img/tex/e/5/c/e5c56b3f413c625963df2cd10182744f.png)
![](../../../../img/tex/f/c/2/fc28cef66fa05e7bc7947aaa3878ce46.png)
![](../../../../img/tex/b/0/7/b073ed756487b0aca7bdd1de344b281a.png)
![](../../../../img/tex/7/4/c/74ca778ae396e79bbe54f29768ba6b0a.png)
![](../../../../img/tex/f/8/8/f88d7b110161d928cfbebe1e9e80884a.png)
![](../../../../img/tex/4/7/3/473268c35d4a4979e09058dd4e3cae30.png)