逻辑回归本质上也是线性回归,只不过是在输出的时候加入了一个sigmoid函数映射。
线性回归是用来预测,逻辑回归是用来分类。Loss函数采用的是二分类的交叉熵,Pytorch中包含这样的一个方法,BCELoss。
代码如下所示:
#数据集准备
x_data = torch.tensor([[1.0],[2.0],[3.0]])
y_data = torch.tensor([[0.0],[0.0],[1.0]])
#定义模型
class LogisticRegressionModel(torch.nn.Module):
def __init__(self):
super(LogisticRegressionModel,self).__init__()
self.linear=torch.nn.Linear(1,1)
def forward(self,x):
y_pred = torch.sigmoid(self.linear(x))
return y_pred
model = LogisticRegressionModel()
criterion = torch.nn.BCELoss(size_average=False)
optimizer = torch.optim.SGD(model.parameters(),lr=0.01)
#forward、backward、update
for epoch in range(1000):
y_pred = model(x_data)
loss = criterion(y_pred,y_data)
print('epoch=',epoch,'loss=',loss.item())
optimizer.zero_grad()
loss.backward()
optimizer.step()
print('w=',model.linear.weight.item())
print('b=',model.linear.bias.item())
努力加油a啊