这是一个logistic sigmoid函数:
我知道x,现在如何用Python计算F(x) ?
设x = 0.458。
F(x) = ?
这是一个logistic sigmoid函数:
我知道x,现在如何用Python计算F(x) ?
设x = 0.458。
F(x) = ?
当前回答
Tensorflow还包括一个sigmoid函数: https://www.tensorflow.org/versions/r1.2/api_docs/python/tf/sigmoid
import tensorflow as tf
sess = tf.InteractiveSession()
x = 0.458
y = tf.sigmoid(x)
u = y.eval()
print(u)
# 0.6125396
其他回答
另一种方式
>>> def sigmoid(x):
... return 1 /(1+(math.e**-x))
...
>>> sigmoid(0.458)
下面是如何以数字稳定的方式实现逻辑sigmoid(如这里所述):
def sigmoid(x):
"Numerically-stable sigmoid function."
if x >= 0:
z = exp(-x)
return 1 / (1 + z)
else:
z = exp(x)
return z / (1 + z)
或许这句话更准确:
import numpy as np
def sigmoid(x):
return np.exp(-np.logaddexp(0, -x))
在内部,它实现了与上面相同的条件,但随后使用log1p。
一般而言,多项logistic乙型为:
def nat_to_exp(q):
max_q = max(0.0, np.max(q))
rebased_q = q - max_q
return np.exp(rebased_q - np.logaddexp(-max_q, np.logaddexp.reduce(rebased_q)))
(然而,logaddexp。Reduce可能更准确。)
一个班轮…
In[1]: import numpy as np
In[2]: sigmoid=lambda x: 1 / (1 + np.exp(-x))
In[3]: sigmoid(3)
Out[3]: 0.9525741268224334
使用numpy包允许sigmoid函数解析向量。
为了与Deeplearning相一致,我使用以下代码:
import numpy as np
def sigmoid(x):
s = 1/(1+np.exp(-x))
return s
另一种方法是变换tanh函数
sigmoid = lambda x: .5 * (math.tanh(.5 * x) + 1)