Skip to content

针对基于Self-Attention的传统图像分类网络无法兼顾全局信息和计算复杂度的问题,提出一种高效的、可扩展的注意力模块LNG-SA,该模块在任意时期都能进行局部信息,邻居信息和全局信息的交互。通过简单的重复堆叠LNG-SA模块,设计了一个全新的网络,称为LNG-Transformer。

Notifications You must be signed in to change notification settings

wenjtop/LNGTransformer

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

24 Commits
 
 
 
 
 
 
 
 

Repository files navigation

LNGTransformer

针对基于Self-Attention的传统图像分类网络无法兼顾全局信息和计算复杂度的问题,提出一种高效的、可扩展的注意力模块LNG-SA,该模块在任意时期都能进行局部信息,邻居信息和全局信息的交互。通过简单的重复堆叠LNG-SA模块,设计了一个全新的网络,称为LNG-Transformer。

环境:

pip install tool/thop-0.0.31.post2005241907-py3-none-any.whl

1、数据集路径(imagenet-1k前100个类别)

--imagenet-100 
  |--train
      |--n0144764
      |--n01443537
      |--.....
  |val
      |--n0144764
      |--n01443537
      |--.....

2、训练

单卡运行

python main.py --model LNG_T --batch-size 256 --epochs 300 --data-path ../imagenet-100

多卡并行运行

python -m torch.distributed.launch --nproc_per_node=4 --use_env main.py --model LNG_T --epochs 300 --batch-size 256 --data-path ../imagenet-100
-nproc_per_node:多卡运行时,显卡数量。
-model:'LNG_T', 'LNG_S', 'LNG_B','Swin_T', 'Swin_S', 'Swin_B','ViT_B', 'ViT_L','resnet_50', 'resnet_101'。
-batch-size:每一批数量。
-data-path:数据集路径。

3、测试

python main.py --model LNG_T --eval --resume output/LNG_T-imagenet-100/checkpoint.pth --batch-size 256 --data-path ../imagenet-100
-eval:验证模式
--resume: 权重路径

4、结果

截屏2022-10-24 14 59 33

About

针对基于Self-Attention的传统图像分类网络无法兼顾全局信息和计算复杂度的问题,提出一种高效的、可扩展的注意力模块LNG-SA,该模块在任意时期都能进行局部信息,邻居信息和全局信息的交互。通过简单的重复堆叠LNG-SA模块,设计了一个全新的网络,称为LNG-Transformer。

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages