EGE-Unet

基于Unet增加注意力模块GHPA和bridge GAB模块实现了50K参数量下的高精度分割

论文数据集基于ISIC2017和ISIC2018的皮肤分割,属于较为单一背景下的大目标分割,根据个人实验场景复杂及前景相对较小时loss收敛极慢。

模型结构

GHPA

在深层使用线性注意力模块GHPA提高模型能力

  • 用了 逐通道的 Hadamard 乘积(逐元素相乘)
  • 分别在空间 (xy) 和两个轴向 (zx, zy) 上引入可学习的参数;
  • 使用了 深度卷积(Depthwise Conv)点卷积(1×1 Conv) 来提取局部特征。

这些操作偏向 局部建模与调制(modulation),是类似 CNN 的坐标注意力(Coordinate Attention)、轴向注意力(Axial Attention)、或某些变种的“仿 Attention 模块”

GAB

特征融合桥接模块,主要用于将两个不同尺度的高分辨率 xh 、低分辨率 x1 输入通过局部调制和注意力机制结合并注入 mask 信息,使用分组通道 + 空洞卷积增强局部感受野,最终生成与 x1 尺寸一致的新融合特征。

暂无评论

发送评论 编辑评论


				
|´・ω・)ノ
ヾ(≧∇≦*)ゝ
(☆ω☆)
(╯‵□′)╯︵┴─┴
 ̄﹃ ̄
(/ω\)
∠( ᐛ 」∠)_
(๑•̀ㅁ•́ฅ)
→_→
୧(๑•̀⌄•́๑)૭
٩(ˊᗜˋ*)و
(ノ°ο°)ノ
(´இ皿இ`)
⌇●﹏●⌇
(ฅ´ω`ฅ)
(╯°A°)╯︵○○○
φ( ̄∇ ̄o)
ヾ(´・ ・`。)ノ"
( ง ᵒ̌皿ᵒ̌)ง⁼³₌₃
(ó﹏ò。)
Σ(っ °Д °;)っ
( ,,´・ω・)ノ"(´っω・`。)
╮(╯▽╰)╭
o(*////▽////*)q
>﹏<
( ๑´•ω•) "(ㆆᴗㆆ)
😂
😀
😅
😊
🙂
🙃
😌
😍
😘
😜
😝
😏
😒
🙄
😳
😡
😔
😫
😱
😭
💩
👻
🙌
🖕
👍
👫
👬
👭
🌚
🌝
🙈
💊
😶
🙏
🍦
🍉
😣
Source: github.com/k4yt3x/flowerhd
颜文字
Emoji
小恐龙
花!
上一篇