0
点赞
收藏
分享

微信扫一扫

ssm框架笔记-maven

朱悟能_9ad4 03-31 14:30 阅读 1

pytorch写一个神经网络训练示例代码

当使用PyTorch训练全连接神经网络时,你需要定义神经网络模型、损失函数和优化器,并编写训练循环。下面是一个简单的示例,演示了如何使用PyTorch来训练一个全连接神经网络。

import torch
import torch.nn as nn
import torch.optim as optim
import torch.utils.data as data

# 定义全连接神经网络模型
class SimpleNet(nn.Module):
    def __init__(self, input_size, hidden_size, output_size):
        super(SimpleNet, self).__init__()
        self.fc1 = nn.Linear(input_size, hidden_size)
        self.fc2 = nn.Linear(hidden_size, output_size)
        
    def forward(self, x):
        x = torch.relu(self.fc1(x))
        x = self.fc2(x)
        return x

# 准备数据
features = torch.tensor([[1.0, 2.0, 3.0], [4.0, 5.0, 6.0], [7.0, 8.0, 9.0]], dtype=torch.float)
labels = torch.tensor([0, 1, 0], dtype=torch.long)

# 创建自定义的Dataset
custom_dataset = data.TensorDataset(features, labels)

# 创建DataLoader
dataloader = data.DataLoader(custom_dataset, batch_size=2, shuffle=True)

# 初始化模型、损失函数和优化器
input_size = 3
hidden_size = 5
output_size = 2
model = SimpleNet(input_size, hidden_size, output_size)
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(model.parameters(), lr=0.1)

# 训练模型
num_epochs = 10
for epoch in range(num_epochs):
    for inputs, targets in dataloader:
        # 前向传播
        outputs = model(inputs)
        loss = criterion(outputs, targets)
        
        # 反向传播和优化
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()
        
    print(f'Epoch [{epoch+1}/{num_epochs}], Loss: {loss.item():.4f}')

# 使用训练好的模型进行预测
test_input = torch.tensor([[2.0, 3.0, 4.0]], dtype=torch.float)
with torch.no_grad():
    output = model(test_input)
    _, predicted = torch.max(output, 1)
    print('Predicted class:', predicted.item())

在这个示例中,我们首先定义了一个简单的全连接神经网络模型SimpleNet,然后准备了数据并创建了Dataset和DataLoader。接下来,我们初始化了模型、损失函数和优化器,并进行了训练循环。最后,我们使用训练好的模型进行了一个简单的预测。

你可以根据自己的数据和模型结构进行相应的修改,希望这个示例能够帮助你开始使用PyTorch训练全连接神经网络。

举报

相关推荐

0 条评论