评价此页

torch.nn.functional.mish#

torch.nn.functional.mish(input, inplace=False)[源代码]#

逐元素地应用 Mish 函数。

Mish: A Self Regularized Non-Monotonic Neural Activation Function.

Mish(x)=xTanh(Softplus(x))\text{Mish}(x) = x * \text{Tanh}(\text{Softplus}(x))

有关更多详细信息,请参阅 Mish

返回类型

张量