0
点赞
收藏
分享

微信扫一扫

[数据集][目标检测]葡萄串检测数据集VOC+YOLO格式95张1类别

书写经典 03-05 19:00 阅读 4

【模型复现】自制数据集上复现目标检测域自适应 SSDA-YOLO


Code 链接: SSDA-YOLO
Paper 链接: SSDA-YOLO: Semi-Supervised Domain Adaptive YOLO for Cross-Domian Object Detection

1. 环境安装

# 创建环境
conda create -n ssda_yolo python=3.9

# 激活环境
conda activate ssda_yolo

# torch 安装
# 本机 CUDA 为 11.8,故安装了符合要求的 pytorch==1.13,这里需要自行根据 CUDA 版本安装适配的 torch 版本
pip install torch==1.13.1+cu117 torchvision==0.14.1+cu117 torchaudio==0.13.1 --extra-index-url https://download.pytorch.org/whl/cu117

# clone 代码
git clone https://github.com/hnuzhy/SSDA-YOLO.git

# pip 包
cd SSDA-YOLO
pip install -r requirements.txt

2. 数据集制作

2.1 数据准备

  • 以下面展示 README.md 中提到的 CityScapes --> CityScapes Foggy 域适应为例,需要准备数据集 CityScapesCityScapes FoggyNormal-style --> Foggy-styleFoggy-style --> Normal-style
    在这里插入图片描述
  • 其中 Normal-style --> Foggy-styleFoggy-style --> Normal-style 均由 CUT 模型训练得来。CUT 模型训练过程见链接: 【模型复现】自制数据集上复现风格迁移模型 CUT:Contrastive Unpaired Translation

2.2 数据结构

  • 准备训练数据,数据集的文件结构为:
    my_datasets/
    ├──cityscapes_source
    │	├──cityscapes_real
    │	│	├──images/train
    │	│	│	├──xxx.jpg
    │	│	│	└──xxx.jpg
    │	│	└──labels/train
    │	│		├──xxx.txt
    │	│		└──xxx.txt
    │	└──cityscapes_fake
    │		├──images/train
    │		│	├──xxx.jpg
    │		│	└──xxx.jpg
    │		└──labels/train
    │			├──xxx.txt
    │			└──xxx.txt
    └──cityscapesfoggy_target
    	├──cityscapesfoggy_real
    	│	├──images
    	│	│	├──train
    	│	│	│	└──xxx.jpg
    	│	│	│	└──xxx.jpg
    	│	│	└──val
    	│	│		└──xxx.jpg
    	│	│		└──xxx.jpg
    	│	└──labels
    	│		├──train
    	│		│	└──xxx.txt
    	│		│	└──xxx.txt
    	│		└──val
    	│			└──xxx.txt
    	│			└──xxx.txt
    	└──cityscapesfoggy_fake
    		├──images/train
    		│	├──xxx.jpg
    		│	└──xxx.jpg
    		└──labels/train
    			├──xxx.txt
    			└──xxx.txt
    

3. 模型训练

3.1 数据文件配置

  • ./data/yamls_sda 路径下新建数据配置 yaml 文件并进行配置,修改数据加载路径等参数。
    • path: 数据存放路径
    • train_source_real:源域真实训练数据
    • train_source_fake:源域上使用 CUT 生成目标域形式的数据
    • train_target_real:目标域真实训练数据
    • train_target_fake:目标域上使用 CUT 生成源域形式的数据
    • test_target_real:目标域真实测试数据
    • nc:标签数量
    • names:标签名称
  • 数据配置文件示例如下:
    在这里插入图片描述

3.2 训练超参数配置

  • 通过 ssda_yolov5_train.py 进行训练超参数配置,按需进行超参数配置。
    在这里插入图片描述

3.3 模型训练

  • 训练指令
    python -m torch.distributed.launch --nproc_per_node 8 ssda_yolov5_train.py
    
  • 在终端中运行训练命令,若看到下述界面,即成功复现!!!
    在这里插入图片描述

4. 模型验证

4.1 验证超参数配置

  • 通过 ssda_yolov5_test.py 进行验证超参数配置,按需进行超参数配置。
    在这里插入图片描述

4.2 模型验证

  • 验证指令
    python ssda_yolov5_test.py
    
  • 验证成功界面如下。
    在这里插入图片描述

5. 模型推理

  • 官方代码中并未给出模型推理脚本,但分析代码不难发现,推理脚本可复用 YOLOv5-5.0 的推理脚本 detect.py,见链接 YOLOv5-5.0 detect.py,将代码放在主目录下配置参数即可。

5.1 推理超参数配置

  • 通过 detect.py 进行推理超参数配置,按需进行超参数配置。
    在这里插入图片描述

5.2 模型推理

  • 推理指令
    python detect.py
    
  • 推理成功界面如下。
    在这里插入图片描述

6. 踩坑记录

6.1 AssertionError: train_target_real_fake: No labels in xxx/labels/train.cache. Can not train without labels.

在这里插入图片描述

  • 解决方法:
    • 虽然 targetlabels 训练中未使用,但也需按照规范放置 imageslabels.

6.2 ValueError: could not broadcast input array from shape (427,325,3) into shape (428,325,3)

在这里插入图片描述

  • 问题分析:
    • 在进行 mosaic 增强时,图片尺寸不符。查看 soure_fakesource_real 的尺寸后,发现经过 CUT 生成的图像和源域的图像中存在尺寸不一致的情况,导致增强时报错。
      在这里插入图片描述
  • 解决方法:
    • 分别将 soure_fake & source_realtarget_fake & target_real 的尺寸调整一致后进行模型训练。
    • 实现脚本如下:
      import os
      from PIL import Image
      
      # 图像文件夹路径
      folder_a = './real/images/train'  # 存放jpg图像的文件夹
      folder_b = './fake/images/train'  # 存放png图像的文件夹
      
      for filename in os.listdir(folder_a):
          if filename.lower().endswith('.jpg'):
              jpg_path = os.path.join(folder_a, filename)
              png_path = os.path.join(folder_b, filename.replace('.jpg', '.png'))
      
              if os.path.exists(png_path):
                  with Image.open(jpg_path) as jpg_image:
                      with Image.open(png_path) as png_image:
                          jpg_size = jpg_image.size
                          png_size = png_image.size
      
                          # 比较尺寸
                          if jpg_size != png_size:
                              print(f"尺寸不一致: {filename}")
                              # 如果尺寸不一致,调整png图像的大小
                              png_image_resized = png_image.resize(jpg_size, Image.ANTIALIAS)
                              png_image_resized.save(png_path)
                          else:
                              print(f"尺寸一致: {filename}")
              else:
                  print(f"在文件夹B中找不到对应的png文件: {filename}")
      

6.3 RuntimeError: result type Float can’t be cast to the desired output type long int.

在这里插入图片描述

  • 解决方法:
    • utils/loss.py 第 216 行进行如下修改:
    # indices.append((b, a, gj.clamp_(0, gain[3] - 1), gi.clamp_(0, gain[2] - 1)))  # image, anchor, grid indices
    indices.append((b, a, gj.clamp_(0, gain[3].long() - 1), gi.clamp_(0, gain[2].long() - 1)))   # image, anchor, grid indice
    
    • 修改完成后如下所示。
      在这里插入图片描述

6.4 RuntimeError: Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cuda:2!

在这里插入图片描述

  • 解决方法:
    • 在使用多卡时,训练命令使用 python -m torch.distributed.launch --nproc_per_node 8 ssda_yolov5_train.py
举报

相关推荐

0 条评论