0
点赞
收藏
分享

微信扫一扫

训练自己的数据集

一、将从网上下载的文件中 ,xml文件全部放在新建的annotations中,png或jpg全部放在images中。

二、新建一个脚本文件split_train_val.py,用于划分训练集、测试集和验证集。具体代码如下

# coding:utf-8

import os
import random
import argparse

parser = argparse.ArgumentParser()
#xml文件的地址,根据自己的数据进行修改 xml一般存放在Annotations下
parser.add_argument('--xml_path', default='Annotations', type=str, help='input xml label path')
#数据集的划分,地址选择自己数据下的ImageSets/Main
parser.add_argument('--txt_path', default='dataset', type=str, help='output txt label path')
opt = parser.parse_args()

# trainval_percent = 1.0
# train_percent = 0.9
trainval_percent =0.8   # 训练集和验证集所占比例。 这里没有划分测试集
train_percent = 0.8     # 训练集所占比例,可自己进行调整
xmlfilepath = opt.xml_path
txtsavepath = opt.txt_path
total_xml = os.listdir(xmlfilepath)
if not os.path.exists(txtsavepath):
    os.makedirs(txtsavepath)

num = len(total_xml)
list_index = range(num)
tv = int(num * trainval_percent)
tr = int(tv * train_percent)
trainval = random.sample(list_index, tv)
train = random.sample(trainval, tr)

file_trainval = open(txtsavepath + '/trainval.txt', 'w')
file_test = open(txtsavepath + '/test.txt', 'w')
file_train = open(txtsavepath + '/train.txt', 'w')
file_val = open(txtsavepath + '/val.txt', 'w')

for i in list_index:
    name = total_xml[i][:-4] + '\n'
    if i in trainval:
        file_trainval.write(name)
        if i in train:
            file_train.write(name)
        else:
            file_val.write(name)
    else:
        file_test.write(name)

file_trainval.close()
file_train.close()
file_val.close()
file_test.close()

执行之后会生成如下文件,这四个txt文件存放的是images的绝对路径。

三、准备labels,在VOCData目录下创建voc_label.py脚本,该脚本是将voc的数据集xml文件转化为yolo数据集的txt文件

# -*- coding: utf-8 -*-
import xml.etree.ElementTree as ET
import os
from os import getcwd
'''
准备labels,把数据集格式转换成yolo_txt格式,即将每个xml标注提取bbox信息为txt格式,
每个图像对应一个txt文件,文件每一行为一个目标的信息,包括class, x_center, y_center, width, height格式
'''

sets = ['train', 'val', 'test']
classes = ["drone"]  # 改成自己的类别
abs_path = os.getcwd()
print(abs_path)


def convert(size, box):
    dw = 1. / (size[0])
    dh = 1. / (size[1])
    x = (box[0] + box[1]) / 2.0 - 1
    y = (box[2] + box[3]) / 2.0 - 1
    w = box[1] - box[0]
    h = box[3] - box[2]
    x = x * dw
    w = w * dw
    y = y * dh
    h = h * dh
    return x, y, w, h


def convert_annotation(image_id):
    in_file = open('Annotations/%s.xml' % (image_id), encoding='UTF-8')
    out_file = open('labels/%s.txt' % (image_id), 'w')
    tree = ET.parse(in_file)
    root = tree.getroot()
    size = root.find('size')
    w = int(size.find('width').text)
    h = int(size.find('height').text)
    for obj in root.iter('object'):
        difficult = obj.find('difficult').text
        # difficult = obj.find('Difficult').text
        cls = obj.find('name').text
        if cls not in classes or int(difficult) == 1:
            continue
        cls_id = classes.index(cls)
        xmlbox = obj.find('bndbox')
        b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
             float(xmlbox.find('ymax').text))
        b1, b2, b3, b4 = b
        # 标注越界修正
        if b2 > w:
            b2 = w
        if b4 > h:
            b4 = h
        b = (b1, b2, b3, b4)
        bb = convert((w, h), b)
        out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')


wd = getcwd()
for image_set in sets:
    if not os.path.exists('labels/'):
        os.makedirs('labels/')
    image_ids = open('dataset/%s.txt' % (image_set)).read().strip().split()
    list_file = open('paper_data/%s.txt' % (image_set), 'w')
    for image_id in image_ids:
        list_file.write(abs_path + '\images\%s.png\n' % (image_id))
        convert_annotation(image_id)
    list_file.close()

执行后生成如下文件夹和文件。txt保存的是图片的完整路径,labels文件夹下的数据,就是yolo的txt文本,内容如下:label中保存的是标签

 四、配置文件

①在data中新建一个自定义数据集的配置文件 VOCData.yaml。内容如下:

train: data/VOCData/paper_data/train.txt
val: data/VOCData/paper_data/val.txt

# number of classes
nc: 1

# class names
names: ['drone']

②编辑模型配置文件

在yolov5/model文件夹下模型配置文件,包含了s、m、l、x4个版本,逐渐增大(随着架构的增大,训练时间也是逐渐增大),本文以s版本为例,修改yolov5s.yaml,修改后的文件内容如下(只修改了nc部分):

nc: 1  # number of classes

六、开始训练模型

 如果不出错的话,正常运行结果如下

 七、我遇到的问题

 请大佬排查了两天debug  绝望之际发现  自己创建的VOCData.yaml中 train和val的路径少写错了

痛哭。。。。。。。。。。(就是第四部分。不用担心,上面贴的代码是改之后的)

------------------------------------------------------------------

在CPU上成功运行之后,想搬到服务器里跑 ,没想到 又出现了问题

AssertionError: train: No labels in /archive/gyj/Yolov5_DeepSort_Pytorch-master/yolov5/data/VOCData/paper_data/train.cache. Can not train without labels. See https://github.com/ultralytics/yolov5/wiki/Train-Custom-Data

这是因为生成的数据集的绝对路径与服务器的不匹配导致。

所以需要修改split_train_val.py脚本,在服务器中重新生成数据集的相关txt

----------------------------------------------------------------------------------------------------

开始改:

举报

相关推荐

0 条评论