首页 > 编程知识 正文

relu函数实现,卷积神经网络激活函数

时间:2023-05-05 01:53:02 阅读:272545 作者:3580

Relu函数:

import numpy as npimport matplotlib.pyplot as pltdef relu(x): return np.maximum(0, x)x = np.arange(-5, 5, 0.1)y = relu(x)plt.plot(x, y)plt.title('Relu')plt.xlabel('x')plt.ylabel('y')plt.show()

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。