吐鲁番市网站建设_网站建设公司_导航易用性_seo优化
2026/1/18 18:13:14 网站建设 项目流程

一、本文介绍

本文给大家介绍使用DTAB和GCSA创新点改进YOLO26模型!TBSN通过重新设计通道自注意力(分组通道注意力 G-CSA)来防止多尺度架构中的盲点信息泄露,并利用带掩膜的窗口自注意力 (M-WSA) 模仿扩张卷积以保持盲点特性,助力YOLO26有效涨点。

🔥欢迎订阅我的专栏、带你学习使用最新-最前沿-独家YOLO26创新改进!🔥

YOLO26专栏改进目录:全新YOLO26改进专栏包含卷积、主干网络、各种注意力机制、检测头、损失函数、Neck改进、小目标检测、二次创新模块、多种组合创新改进、全网独家创新等创新点改进

全新YOLO26专栏订阅链接:全新YOLO26创新改进高效涨点+永久更新中(至少500+改进)+高效跑实验发论文

本文目录

一、本文介绍

二、DTAB模块介绍

DTAB和GCSA网络结构图:

DTAB和GCSA的作用:

适用任务如下:

三、DTAB和GCSA核心代码

四、手把手教你添加模块和修改tasks.py文件

1.首先在ultralytics/nn/newsAddmodules创建一个.py文件

2.在ultralytics/nn/newsAddmodules/__init__.py中引用

3.修改tasks.py文件

五、创建涨点yaml文件

🚀参考版本1 :

🚀参考版本 2:

六、训练演示,正常运行


 

二、DTAB和GCSA模块介绍

摘要:本文针对自监督图像去噪(SSID)中盲点网络(BSN)的网络架构,指出现有的基于卷积层的BSN存在局限性,而变形器(transformer)则具有潜在的克服卷积局限性的能力,并且在各种图像恢复任务中取得了成功。然而,变形器的注意力机制可能会违反盲点要求,因此限制了它们在SSID中的适用性。因此, 本文提出了一种基于变形器的盲点网络(TBSN) ,通过分析和重新设计变形器操作符以满足盲点要求。具体来说,TBSN遵循扩张BSN的架构原则,并 结合空间和通道自注意层来增强网络能力 。对于空间自注意力,我们应用精细的掩码来限制其感受野,从而模拟扩张卷积。对于通道自注意力,我们观察到在多尺度架构的深层中,当通道数大于空间大小时,它可能会泄漏盲点信息。为了消除这种影响,我们将通道分成几组,并分别执行通道注意力。此外,我们引入知识蒸馏策

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询