apri su Wikipedia

Funzione softmax

In matematica, una funzione softmax, o funzione esponenziale normalizzata, una generalizzazione di una funzione logistica che comprime un vettore k {\displaystyle k} -dimensionale z {\displaystyle \mathbf {z} } di valori reali arbitrari in un vettore k {\displaystyle k} -dimensionale ( z ) {\displaystyle \sigma (\mathbf {z} )} di valori compresi in un intervallo ( 0 , 1 ) {\displaystyle (0,1)} la cui somma 1 {\displaystyle 1} . La funzione data da: : R K { z R K | z i > 0 , i = 1 K z i = 1 } {\displaystyle \sigma :\mathbb {R} ^{K}\to \left\{z\in \mathbb {R} ^{K}|z_{i}>0,\sum _{i=1}^{K}z_{i}=1\right\}} ( z ) j = e z j k = 1 K e z k {\displaystyle \sigma (\mathbf {z} )_{j}={\frac {e^{z_{j}}}{\sum _{k=1}^{K}e^{z_{k}}}}} per j = 1 , , K . {\displaystyle j=1,\ldots ,K.} La funzione softmax anche il gradiente della funzione LogSumExp. La funzione softmax usata in vari metodi di classificazione multi-classe, come la regressione logistica multinomiale, analisi discriminante lineare multiclasse, classificatori bayesiani e reti neurali artificiali.

Risorse suggerite a chi è interessato all'argomento "Funzione softmax"

Sperimentale

Argomenti d'interesse

Sperimentale