由 Softmax 想到的(三)—— 从 Sigmoid 到 ReLU,一些常见的激活函数
发表于
|
分类于
ML
由好友 史博士 关于 Softmax 的问题而想到的一些脑洞。本文讲解了神经网络中引进激活函数的意图,并举例了一些常见的激活函数。
由 Softmax 想到的(二)—— Logistic 回归的 Loss 函数为什么长成那个样子?
发表于
|
分类于
ML
由好友 史博士 关于 Softmax 的问题而想到的一些脑洞。本文讲解了 Logistic 模型的 Loss 函数的来源。以及想到的一些凸优化的知识。
由 Softmax 想到的(一)——广义线性模型
发表于
|
分类于
ML
由好友 史博士 关于 Softmax 的问题而想到的一些脑洞。本文讲解了 Logistic 模型和 Softmax 模型的来历。和广义线性模型的相关知识。