Welche Funktion ist besser in neuronalen Backpropagation-Netzen zu verwenden, Sigmoid(x) oder Tanh(x)?

1 Antworten


  • Die Sigmoid(x)-Funktion wird besser in neuronalen Backpropagation-Netzen verwendet. Eine Sigmoid(x)-Funktion wird in einem neuronalen Backpropagation-Netz verwendet, um Nichtlinearität in das Modell einzuführen und/oder um sicherzustellen, dass bestimmte Signale innerhalb eines spezifizierten Bereichs bleiben.

    Ein beliebtes neuronales Netzelement ist ein neuronales Netzelement, das eine Linearkombination von Eingangssignalen berechnet. Es wendet eine gebundene Sigmoid(x)-Funktion auf das Ergebnis an. Dieses Modell kann als eine glattere Variante des sogenannten klassischen Schwellenneurons angesehen werden.

    Es gibt einen grundlegenden Grund, warum eine Sigmoid(x)-Funktion in einem neuronalen Netzwerk mit Backpropagation beliebter ist. Der Grund, warum eine Sigmoid(x)-Funktion in einem neuronalen Netz mit Backpropagation beliebter ist, liegt darin, dass die Sigmoid(x)-Funktion die einzige Funktion ist, die die folgende Eigenschaft erfüllt: d/dt sig (t) = sig (t) [1- sig (t)]. Die einfache polynomielle Beziehung zwischen der Ableitung und sich selbst ist sehr einfach zu berechnen.

Schreibe deine Antwort

Ihre Antwort erscheint nach der Moderation appear