莫烦pytorch(5)———classification

1.画出散点图

import torch
import torch.nn.functional as F
import matplotlib.pyplot as plt

n_data=torch.ones(100,2)            #类似于np.ones()
x0=torch.normal(n_data*2,1)
y0=torch.zeros(100)
x1 = torch.normal(-2*n_data, 1)     # 类型1 x data (tensor), shape=(100, 2)
y1 = torch.ones(100)                # 类型1 y data (tensor), shape=(100, 1)
x = torch.cat((x0, x1), 0).type(torch.FloatTensor)  # FloatTensor是32-bit floating    Tensor[200,2]
y = torch.cat((y0, y1), ).type(torch.LongTensor)    # LongTensor是64-bit integer      Tensor[200]

plt.scatter(x.data.numpy()[:, 0], x.data.numpy()[:, 1], c=y.data.numpy())
plt.show()

在这里插入图片描述
说一下torch.cat()的用法,了解numpy和pandas的同学应该清楚,torch((a,b),dim=),如果dim=0,就是竖着拼起来(必须保持a,b的列一致,类似于np.r_),如果dim=1,就是横着拼起来(必须保持a,b的行一致,类似于np.c_)。

还要说一点就是x要是FloatTensor,y要是LongTensor,莫烦在视频中多次提到

2.类和loss

class Net(torch.nn.Module):     # 继承 torch 的 Module
    def __init__(self, n_feature, n_hidden, n_output):
        super(Net, self).__init__()     # 继承 __init__ 功能
        self.hidden = torch.nn.Linear(n_feature, n_hidden)   # 隐藏层线性输出
        self.out = torch.nn.Linear(n_hidden, n_output)       # 输出层线性输出

    def forward(self, x):
        # 正向传播输入值, 神经网络分析出输出值
        x = F.relu(self.hidden(x))  # 激励函数(隐藏层的线性值)
        x = self.out(x)  # 输出值, 但是这个不是预测值, 预测值还需要再另外计算
        return x

net = Net(n_feature=2, n_hidden=10, n_output=2)  # 几个类别就几个 output
#
# print(net)  # net 的结构

optimizer=torch.optim.SGD(net.parameters(),lr=0.02)

loss_func=torch.nn.CrossEntropyLoss()  #交叉熵

plt.ion()
plt.show()
for t in range(1000):
    out=net(x)
    loss=loss_func(out,y)

    optimizer.zero_grad()
    loss.backward()
    optimizer.step()
    if t%2==0:
        plt.cla()
        prediction = torch.max(out, 1)[1]
        #[0]是返回最大的数,【1】是返回最大的索引
        pred_y = prediction.data.numpy()
        target_y = y.data.numpy()
        plt.scatter(x.data.numpy()[:, 0], x.data.numpy()[:, 1], c=pred_y, s=100, lw=0, cmap='RdYlGn')
        accuracy = float((pred_y == target_y).astype(int).sum()) / float(target_y.size)
        plt.text(1.5, -4, 'Accuracy=%.2f' % accuracy, fontdict={'size': 20, 'color': 'red'})
        plt.pause(0.1)

plt.ioff()
plt.show()

torch.max(a,1)是把a的每一个行最大值和索引,都输出来,[0]就是输出的tensor对的最大值,[1]是输出的tensor对的最大值的索引

在这里插入图片描述

1.和回归的区别的第一个地方就是采用的loss函数是loss_func=torch.nn.CrossEntropyLoss() 交叉熵,分类问题常用的这个loss计算方法。公式如下:
在这里插入图片描述
2.和回归的区别还有一个地方,就是out输出的值虽然是一个(200,2)的tensor形式,但不是prediction,他需要进行torch.max(out,1)[1]才会变成预测值

————————————————————————————————————————————————我是一名机器学习的初学者,是万千小白中努力学习中的一员

猜你喜欢

转载自blog.csdn.net/qq_42738654/article/details/87967683
今日推荐