YOLO11+自定义数据集:打造专属检测模型
在计算机视觉领域,目标检测是核心任务之一。随着YOLO系列算法的持续演进,YOLO11作为最新一代版本,在精度、速度和灵活性方面实现了显著提升。本文将围绕如何使用YOLO11结合自定义数据集训练专属目标检测模型展开,涵盖从数据标注、格式转换、环境配置到模型训练与推理的完整流程。
通过本教程,你将掌握构建一个高精度定制化检测系统的全流程方法,并可将其应用于工业质检、智能监控、自动驾驶等实际场景。
1. 数据准备与标注
1.1 使用Labelme进行图像标注
高质量的数据是模型性能的基础。我们推荐使用开源工具Labelme进行手动标注。
操作步骤如下:
- 安装Labelme:
pip install labelme - 启动工具并加载图像目录。
- 选择“创建矩形”模式,框选目标物体。
- 每个标注需指定类别名称(如
car、bus)。 - 保存后生成与图片同名的JSON文件。
提示:确保所有图像尺寸一致或相近,避免极端缩放影响模型学习效果。
1.2 标注结果示例
Labelme生成的JSON文件包含图像元信息和多边形/矩形坐标。例如:
{ "imageWidth": 640, "imageHeight": 480, "shapes": [ { "label": "car", "points": [[100, 150], [300, 350]], "shape_type": "rectangle" } ] }该结构记录了每个对象的位置和类别,但YOLO11需要特定格式的文本标签。
2. Labelme JSON转YOLO TXT格式
2.1 YOLO11标签格式规范
YOLO系列统一采用归一化的边界框表示法。每张图对应一个.txt标签文件,内容格式为:
<class_id> <x_center> <y_center> <width> <height>其中:
class_id:类别索引(从0开始)- 坐标与尺寸均相对于图像宽高的比例值(0~1)
例如:
0 0.5192 0.4512 0.3985 0.7572 3 0.5061 0.5921 0.2631 0.45612.2 转换脚本实现
以下Python代码可批量将Labelme的JSON标注转换为YOLO兼容格式:
import json import os # 类别映射表(根据实际项目修改) label_map = { "car": 0, "bus": 1, "person": 2 } def convert_labelme_to_yolo(json_path, output_dir): with open(json_path, 'r') as f: data = json.load(f) img_w = data['imageWidth'] img_h = data['imageHeight'] annotations = [] for shape in data['shapes']: label_name = shape['label'] if label_name not in label_map: continue class_id = label_map[label_name] points = shape['points'] if shape['shape_type'] == 'rectangle': (x1, y1), (x2, y2) = points elif shape['shape_type'] == 'polygon': x1 = min(p[0] for p in points) y1 = min(p[1] for p in points) x2 = max(p[0] for p in points) y2 = max(p[1] for p in points) else: continue # 归一化计算 xc = ((x1 + x2) / 2) / img_w yc = ((y1 + y2) / 2) / img_h w = (x2 - x1) / img_w h = (y2 - y1) / img_h annotations.append(f"{class_id} {xc:.6f} {yc:.6f} {w:.6f} {h:.6f}") # 写入输出文件 base_name = os.path.splitext(os.path.basename(json_path))[0] output_file = os.path.join(output_dir, base_name + '.txt') os.makedirs(output_dir, exist_ok=True) with open(output_file, 'w') as f: f.write('\n'.join(annotations)) def process_folder(input_folder, output_folder): for file_name in os.listdir(input_folder): if file_name.endswith('.json'): json_path = os.path.join(input_folder, file_name) convert_labelme_to_yolo(json_path, output_folder) # 执行转换 input_folder = "/mnt/data/json_labels" output_folder = "/mnt/data/yolo11_txt_labels" process_folder(input_folder, output_folder)运行后将在指定路径下生成对应的.txt标签文件,供后续训练使用。
3. 配置YOLO11工程环境
3.1 获取YOLO11源码
YOLO11由Ultralytics团队维护,可通过GitHub获取最新代码:
git clone https://github.com/ultralytics/ultralytics.git cd ultralytics pip install -e .或者直接下载ZIP包解压使用。
3.2 项目目录结构规划
建议组织如下目录结构以保持清晰:
ultralytics-8.3.9/ ├── datasets/ │ ├── train/images/ │ ├── train/labels/ │ ├── val/images/ │ └── val/labels/ ├── weights/ # 存放预训练权重 ├── runs/ # 训练输出目录 ├── ultralytics/ # 核心库 ├── train.py # 自定义训练脚本 └── infer.py # 推理脚本将转换后的图像和标签分别放入datasets/train和datasets/val中。
4. 数据集配置文件(YAML)
在ultralytics/cfg/datasets/目录下新建自定义数据集配置文件,如auto-parts-det.yaml:
# 数据集根路径 path: ./datasets/det_auto_parts_20241020 # 训练集与验证集路径(相对于path) train: train/images val: val/images # 类别名称列表 names: 0: car 1: bus 2: person⚠️ 注意:
path应指向包含train和val子目录的根目录,路径支持相对或绝对形式。
此文件将在训练时被模型加载器读取,用于定位数据和解析类别。
5. YOLO11模型结构配置
5.1 模型配置文件位置
YOLO11的网络架构定义位于:
ultralytics/cfg/models/11/yolo11.yaml该文件描述了Backbone、Neck和Head的完整结构,包括卷积层、CSP模块、上采样与拼接操作等。
5.2 关键参数说明
| 参数 | 含义 |
|---|---|
nc | 类别数量(需根据数据集调整) |
scales | 不同规模模型(n/s/m/l/x)的深度与宽度系数 |
backbone | 主干网络结构 |
head | 检测头结构,含FPN/PAN结构 |
若新增类别,务必更新nc字段。例如三分类任务应设为:
nc: 3也可基于此文件创建自定义变体,如yolo11-custom.yaml。
6. 编写训练脚本
6.1 加载模型与预训练权重
使用YOLO类初始化模型,并加载官方提供的预训练权重以加速收敛:
from ultralytics import YOLO # 加载模型配置并注入预训练权重 model = YOLO("yolo11m.yaml").load("weights/yolo11m.pt")✅ 推荐使用中等规模模型(如
yolo11m),兼顾性能与效率。
6.2 设置训练参数
通过字典方式传入训练超参数,便于管理和复现:
train_params = { 'data': 'auto-parts-det.yaml', # 数据集配置 'epochs': 100, # 总训练轮数 'imgsz': 640, # 输入图像大小 'batch': 8, # 批次大小 'device': 0, # GPU设备ID(None自动选择) 'workers': 8, # 数据加载线程数 'optimizer': 'AdamW', # 优化器类型 'lr0': 0.001, # 初始学习率 'weight_decay': 0.0005, 'warmup_epochs': 3.0, 'box': 7.5, 'cls': 0.5, 'dfl': 1.5, 'save': True, 'save_period': -1, 'project': 'runs/train', 'name': 'exp_auto_parts', 'exist_ok': False, 'resume': False, 'amp': True, # 启用混合精度 'verbose': True, 'seed': 42, 'plots': True, # 数据增强 'hsv_h': 0.015, 'hsv_s': 0.7, 'hsv_v': 0.4, 'degrees': 10.0, 'translate': 0.1, 'scale': 0.5, 'flipud': 0.0, 'fliplr': 0.5, 'mosaic': 1.0, 'mixup': 0.1, 'copy_paste': 0.0, }6.3 开始训练
调用train()方法启动训练过程:
results = model.train(**train_params)训练日志将实时显示损失、mAP等指标,最佳模型自动保存至runs/train/exp_auto_parts/weights/best.pt。
7. 模型训练执行与监控
7.1 启动训练命令
进入项目根目录后运行:
cd ultralytics-8.3.9/ python train.py7.2 训练输出示例
Ultralytics 8.3.7 🚀 Python-3.9.16 torch-1.13.1 CUDA:0 (NVIDIA A30, 24062MiB) Starting training for 100 epochs... Epoch GPU_mem box_loss cls_loss dfl_loss Instances Size 1/100 4.68G 2.238 1.691 2.426 80 640: 100%|███████| 16/16 [00:02<00:00, 5.91it/s] Class Images Instances Box(P R mAP50 mAP50-95): 100%|███████| 8/8 [00:00<00:00, 12.18it/s] all 128 929 0.77 0.728 0.798 0.615 ... 100/100 4.49G 1.171 0.7135 1.319 41 640: 100%|███████| 16/16 [00:01<00:00, 8.80it/s] Class Images Instances Box(P R mAP50 mAP50-95): 100%|███████| 8/8 [00:00<00:00, 13.42it/s] all 128 929 0.847 0.845 0.891 0.577最终模型在验证集上达到较高mAP50值,表明具备良好检测能力。
8. 模型推理与结果可视化
8.1 加载训练好的模型
使用保存的最佳权重进行推理:
from ultralytics import YOLO model = YOLO("runs/detect/train5/weights/best.pt")8.2 执行预测
支持图像、视频、摄像头等多种输入源:
results = model.predict( source="datasets/test_images/", conf=0.45, iou=0.6, imgsz=640, device=0, save=True, save_txt=True, show_labels=True, show_conf=True )8.3 输出内容
- 检测框图像(带标签与置信度)
- 文本格式的检测结果(
.txt) - 可视化分析图表(PR曲线、混淆矩阵等)
可在runs/detect/predict/目录查看输出结果。
9. 总结
本文系统介绍了基于YOLO11构建自定义目标检测模型的全流程:
- 数据标注:使用Labelme完成高质量人工标注;
- 格式转换:编写脚本将JSON转为YOLO标准TXT格式;
- 环境搭建:配置Ultralytics开发环境及项目结构;
- 数据集定义:编写YAML配置文件明确路径与类别;
- 模型配置:选用合适规模的YOLO11架构;
- 训练脚本:设置合理超参数并启动训练;
- 模型评估:观察训练日志与验证指标;
- 推理应用:部署模型于新数据进行检测。
通过这一完整流程,你可以快速构建适用于特定场景的高性能检测系统。YOLO11凭借其简洁API和强大性能,极大降低了深度学习落地门槛。
未来可进一步探索自动标注、增量学习、ONNX导出与边缘部署等进阶方向,持续优化模型实用性。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。