Perceptron-PyTorch-Autograd:PyTorch(0.4.0)实现的是单层Perceptron,但具有梯度下降而不是Perceptron学习规则

时间:2021-05-02 21:11:35
【文件属性】:
文件名称:Perceptron-PyTorch-Autograd:PyTorch(0.4.0)实现的是单层Perceptron,但具有梯度下降而不是Perceptron学习规则
文件大小:2KB
文件格式:ZIP
更新时间:2021-05-02 21:11:35
pytorch perceptron gradient-descent Python 单层感知器的PyTorch实现可分离线性可分离的数据。 单个数据模式是笛卡尔平面中带有(-1,1)标签的二维点。 点列表存储在data.csv文件中。 感知器实现可以使用3种不同的梯度计算方法: 向后-使用PyTorch loss.backward()方法来计算所有叶子的损失导数 Grad-它使用PyTorch torch.autograd.grad(loss,x)来计算相对于x的损耗导数。 优化器-它使用PyTorch的默认SGD优化器。
【文件预览】:
Perceptron-PyTorch-Autograd-master
----data.csv(126B)
----perceptron.py(2KB)
----README.md(590B)

网友评论