桂林市网站建设_网站建设公司_Logo设计_seo优化
2026/1/15 6:57:58 网站建设 项目流程

概述

Ultralytics YOLO26是YOLO系列实时目标检测器的最新进化版本,从头开始为边缘和低功耗设备设计。它引入了流线型设计,去除了不必要的复杂性,同时集成了针对性的创新,以提供更快、更轻量、更易于部署的解决方案。

YOLO26的架构遵循三个核心原则:

  • 简洁性:YOLO26是原生端到端模型,直接生成预测结果,无需非最大值抑制(NMS)。通过消除这一后处理步骤,推理变得更快、更轻量,并且在实际系统中更容易部署。这种突破性方法最早由清华大学的王傲在YOLOv10中首创,并在YOLO26中得到进一步发展。
  • 部署效率:端到端设计消除了整个处理流程中的一个阶段,大大简化了集成,降低了延迟,并使跨不同环境的部署更加稳健。
  • 训练创新:YOLO26引入了MuSGD优化器,这是SGD和Muon的混合体——受到Moonshot AI的Kimi K2在大语言模型训练中突破的启发。该优化器将来自语言模型的优化进展带入计算机视觉领域,带来增强的稳定性和更快的收敛速度。
  • 任务特定优化:YOLO26为专门任务引入了针对性改进,包括用于分割的语义分割损失和多尺度proto模块,用于高精度姿态估计的残差对数似然估计(RLE),以及优化的解码和角度损失以解决OBB中的边界问题。

这些创新共同提供了一个模型系列,可在小物体上实现更高的准确度,提供无缝部署,并在CPU上运行速度提升高达43%——使YOLO26成为迄今为止最适合资源受限环境部署的最实用、最易部署的YOLO模型之一。

关键特性

  • DFL移除
    分布焦点损失(DFL)模块虽然有效,但常常使导出复杂化并限制硬件兼容性。YOLO26完全移除了DFL,简化了推理并扩大了对边缘和低功耗设备的支持。

  • 端到端无NMS推理
    与依赖NMS作为单独后处理步骤的传统检测器不同,YOLO26是原生端到端的。预测直接生成,降低了延迟,使集成到生产系统中更快、更轻量、更可靠。

  • ProgLoss + STAL
    改进的损失函数提高了检测准确度,在小物体识别方面有显著改进,这对物联网、机器人、航空图像和其他边缘应用至关重要。

  • MuSGD优化器
    一种新的混合优化器,结合了SGD和Muon。受Moonshot AI的Kimi K2启发,MuSGD将大语言模型训练中的高级优化方法引入计算机视觉,实现更稳定的训练和更快的收敛。

  • CPU推理速度提升高达43%
    专为边缘计算优化,YOLO26提供显著更快的CPU推理,确保在没有GPU的设备上实现实时性能。

  • 实例分割增强
    引入语义分割损失以改进模型收敛,并升级了proto模块,利用多尺度信息提供更优质的掩码。

  • 精确姿态估计
    集成残差对数似然估计(RLE)以实现更准确的关键点定位,并优化了解码过程以提高推理速度。

  • 优化的OBB解码
    引入专门的角度损失以提高对方形物体的检测准确度,并优化OBB解码以解决边界不连续问题。


支持的任务和模式

YOLO26建立在早期Ultralytics YOLO版本建立的多功能模型范围之上,提供对各种计算机视觉任务的增强支持:

模型文件名任务推理验证训练导出
YOLO26yolo26n.ptyolo26s.ptyolo26m.ptyolo26l.ptyolo26x.pt检测
YOLO26-segyolo26n-seg.ptyolo26s-seg.ptyolo26m-seg.ptyolo26l-seg.ptyolo26x-seg.pt实例分割
YOLO26-poseyolo26n-pose.ptyolo26s-pose.ptyolo26m-pose.ptyolo26l-pose.ptyolo26x-pose.pt姿态/关键点
YOLO26-obbyolo26n-obb.ptyolo26s-obb.ptyolo26m-obb.ptyolo26l-obb.ptyolo26x-obb.pt定向检测
YOLO26-clsyolo26n-cls.ptyolo26s-cls.ptyolo26m-cls.ptyolo26l-cls.ptyolo26x-cls.pt分类

这个统一框架确保YOLO26适用于实时检测、分割、分类、姿态估计和定向目标检测——全部支持训练、验证、推理和导出。


性能指标





使用示例

本节提供了简单的YOLO26训练和推理示例。有关这些和其他模式的完整文档,请参阅预测、训练、验证和导出文档页面。

请注意,以下示例适用于YOLO26 检测模型,用于目标检测。有关其他支持任务的详细信息,请参阅分割、分类、OBB和姿态文档。

from ultralytics import YOLO # Load a COCO-pretrained YOLO26n model model=YOLO("yolo26n.pt")# Train the model on the COCO8 example datasetfor100epochs results=model.train(data="coco8.yaml",epochs=100,imgsz=640)# Run inference with the YOLO26n model on the'bus.jpg'image results=model("path/to/bus.jpg")

YOLOE-26:开放词汇实例分割

YOLOE-26将高性能的YOLO26架构与YOLOE系列的开放词汇能力集成在一起。它使用文本提示视觉提示无提示模式进行零样本推理,实现对任何物体类别的实时检测和分割,有效消除了固定类别训练的限制。

通过利用YOLO26的无NMS、端到端设计,YOLOE-26提供快速的开放世界推理。这使其成为动态环境中边缘应用的强大解决方案,其中感兴趣的对象代表广泛且不断发展的词汇。

文本/视觉提示

Modelsize
(pixels)
Prompt TypemAPminival
50-95(e2e)
mAPminival
50-95
mAPrmAPcmAPfparams
(M)
FLOPs
(B)
YOLOE-26n-seg640Text/Visual23.7 / 20.924.7 / 21.920.5 / 17.624.1 / 22.326.1 / 22.44.86.0
YOLOE-26s-seg640Text/Visual29.9 / 27.130.8 / 28.623.9 / 25.129.6 / 27.833.0 / 29.913.121.7
YOLOE-26m-seg640Text/Visual35.4 / 31.335.4 / 33.931.1 / 33.434.7 / 34.036.9 / 33.827.970.1
YOLOE-26l-seg640Text/Visual36.8 / 33.737.8 / 36.335.1 / 37.637.6 / 36.238.5 / 36.132.388.3
YOLOE-26x-seg640Text/Visual39.5 / 36.240.6 / 38.537.4 / 35.340.9 / 38.841.0 / 38.869.9196.7

没有提示

Modelsize
(pixels)
mAPminival
50-95(e2e)
mAPminival
50(e2e)
params
(M)
FLOPs
(B)
YOLOE-26n-seg-pf64016.622.76.515.8
YOLOE-26s-seg-pf64021.428.616.235.5
YOLOE-26m-seg-pf64025.733.636.2122.1
YOLOE-26l-seg-pf64027.235.440.6140.4
YOLOE-26x-seg-pf64029.938.786.3314.4

使用示例

YOLOE-26支持文本提示和视觉提示。使用提示非常简单——只需通过predict方法传递它们,如下所示:

!!! 示例

“文本提示”

文本提示允许您通过文本描述指定要检测的类别。以下代码展示了如何使用YOLOE-26在图像中检测人和公交车:

from ultralytics import YOLO # Initialize model model=YOLO("yoloe-26l-seg.pt")# or select yoloe-26s/m-seg.ptfordifferent sizes # Set text prompt to detect person and bus.You only need todothis once after you load the model.names=["person","bus"]model.set_classes(names,model.get_text_pe(names))# Run detection on the given image results=model.predict("path/to/image.jpg")# Show results results[0].show()

“视觉提示”

import numpy as np from ultralytics import YOLO from ultralytics.models.yolo.yoloe import YOLOEVPSegPredictor # Initialize model model=YOLO("yoloe-26l-seg.pt")# Define visual prompts using bounding boxes and their corresponding classIDs.# Each box highlights an example of the object you want the model to detect.visual_prompts=dict(bboxes=np.array([[221.52,405.8,344.98,857.54],# Box enclosing person[120,425,160,445],# Box enclosing glasses],),cls=np.array([0,# ID to be assignedforperson1,# ID to be assignedforglassses]),)# Run inference on an image,using the provided visual prompts as guidance results=model.predict("ultralytics/assets/bus.jpg",visual_prompts=visual_prompts,predictor=YOLOEVPSegPredictor,)# Show results results[0].show()

“无提示”

YOLOE-26包括具有内置词汇表的无提示变体。这些模型不需要任何提示,像传统YOLO模型一样工作。它们不依赖用户提供的标签或视觉示例,而是从预定义的4,585个类别列表中检测对象,该列表基于识别任何事物模型Plus (RAM++)使用的标签集。

from ultralytics import YOLO # Initialize model model=YOLO("yoloe-26l-seg-pf.pt")# Run prediction.No prompts required.results=model.predict("path/to/image.jpg")# Show results results[0].show()

要深入了解提示技术、从头开始训练和完整使用示例,请访问**YOLOE文档**。

引用和致谢

!!! 提示 “Ultralytics YOLO26出版物”

Ultralytics尚未为YOLO26发表正式研究论文,因为模型正在快速演进。相反,我们专注于提供尖端模型并使它们易于使用。有关YOLO特性、架构和使用的最新更新,请访问我们的[GitHub仓库](https://github.com/ultralytics/ultralytics)和[文档](https://docs.ultralytics.com/)。

如果您在工作中使用YOLO26或其他Ultralytics软件,请引用如下:

!!! 引用 “”

=== "BibTeX" ```bibtex @software{yolo26_ultralytics, author = {Glenn Jocher and Jing Qiu}, title = {Ultralytics YOLO26}, version = {26.0.0}, year = {2026}, url = {https://github.com/ultralytics/ultralytics}, orcid = {0000-0001-5950-6979, 0000-0003-3783-7069}, license = {AGPL-3.0} } ```

DOI待定。YOLO26在AGPL-3.0和企业许可证下提供。

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询