🚀🚀🚀本文改进:深入分析了现有线性注意力方法的缺陷,并提出了一个全新的聚焦的线性注意力模块(Focused Linear Attention),同时具有高效性和很强的模型表达能力。
🚀🚀🚀YOLOv8改进专栏:http://t.csdnimg.cn/hGhVK
学姐带你学习YOLOv8,从入门到创新,轻轻松松搞定科研;
1.Focused Linear Attention介绍
论文: https://arxiv.org/pdf/2308.00442.pdf
摘要:在Transformer模型应用于视觉领域的过程中,降低自注意力的计算