Eine Schicht in einem neuronalen Netz ohne Vorspannung ist nichts anderes als die Multiplikation eines Eingangsvektors mit einer Matrix. (Der Ausgangsvektor kann durch eine Sigmoidfunktion zur Normalisierung und zur Verwendung in mehrschichtigen ANN danach, aber das ist nicht wichtig).
Das bedeutet, dass Sie eine lineare Funktion verwenden und daher eine Eingabe mit lauter Nullen immer auf eine Ausgabe mit lauter Nullen abgebildet wird. Dies mag für einige Systeme eine vernünftige Lösung sein, aber im Allgemeinen ist sie zu restriktiv.
Wenn Sie eine Vorspannung verwenden, fügen Sie Ihrem Eingaberaum eine weitere Dimension hinzu, die immer den Wert Eins annimmt, so dass Sie einen Eingabevektor mit lauter Nullen vermeiden. Die Allgemeinheit geht dadurch nicht verloren, da die trainierte Gewichtsmatrix nicht surjektiv sein muss, so dass sie immer noch auf alle bisher möglichen Werte abgebildet werden kann.
2D ANN:
Für ein ANN, das zwei Dimensionen auf eine Dimension abbildet, wie bei der Reproduktion der UND- oder ODER- (oder XOR-) Funktionen, kann man sich ein neuronales Netz wie folgt vorstellen:
Markieren Sie in der 2D-Ebene alle Positionen der Eingangsvektoren. Für boolesche Werte würden Sie also (-1,-1), (1,1), (-1,1), (1,-1) markieren wollen. Ihr ANN zeichnet nun eine gerade Linie auf der 2D-Ebene, die die positiven von den negativen Ausgabewerten trennt.
Ohne Verzerrung muss diese Gerade durch den Nullpunkt gehen, während man sie mit Verzerrung überall platzieren kann. Sie sehen also, dass Sie ohne Vorspannung ein Problem mit der UND-Funktion haben, da Sie nicht beides (1,-1) setzen können et (-1,1) auf der negativen Seite. (Sie dürfen nicht sein auf die Linie). Das Problem ist bei der ODER-Funktion das gleiche. Mit einer Vorspannung ist es jedoch einfach, die Linie zu ziehen.
Beachten Sie, dass die XOR-Funktion in dieser Situation nicht einmal mit Vorspannung gelöst werden kann.