Home

Awesome

GGHL: A General Gaussian Heatmap Label Assignment for Arbitrary-Oriented Object Detection

<a href="https://github.com/Shank2358/GGHL/"> <img alt="Version" src="https://img.shields.io/badge/Version-1.3.0-blue" /> </a> <a href="https://github.com/Shank2358/GGHL/blob/main/LICENSE"> <img alt="GPLv3.0 License" src="https://img.shields.io/badge/License-GPLv3.0-blue" /> </a> <a href="https://github.com/Shank2358" target="_blank"> <img src="https://visitor-badge.glitch.me/badge?page_id=gghl.visitor-badge&right_color=blue" alt="Visitor" /> </a> <a href="mailto:zhanchao.h@outlook.com" target="_blank"> <img alt="E-mail" src="https://img.shields.io/badge/To-Email-blue" /> </a>

This is the implementation of GGHL 👋👋👋

[Arxiv] [IEEE TIP] [Google Drive][Baidu Disk (password: yn04)]

IEEE的正式版排版丑死了(不得不吐槽),有的图还显示有问题,还是下载arxiv版本的吧,我已经更新了arxiv,内容和正式版一样。

TensorRT C++部署版本教程Nvidia Jetson嵌入式部署版本教程看这里!!! 感谢最最亲爱的师弟Crescent-Aohaohaoolalahao

GGHL基础上改进的标签分配写到了新论文TS-Conv里,TS-Conv的代码放出来了在这里(还在更新完善中)

GGHL做知识蒸馏的一些尝试的论文DKED在这里(用来Social和旅游的会议),这个等年底有空了扩写和更新代码

Give a ⭐️ if this project helped you. If you use it, please consider citing:

@ARTICLE{9709203,
author={Huang, Zhanchao and Li, Wei and Xia, Xiang-Gen and Tao, Ran},
journal={IEEE Transactions on Image Processing}, 
title={A General Gaussian Heatmap Label Assignment for Arbitrary-Oriented Object Detection}, 
year={2022},
volume={31},
number={},
pages={1895-1910},
doi={10.1109/TIP.2022.3148874}}

Clone不Star,都是耍流氓 🤡🤡🤡

<p algin="center"> <img src="https://github.com/Shank2358/GGHL/blob/main/readme_imgs/GGHL_results.png" width="380"><img src="https://github.com/Shank2358/GGHL/blob/main/readme_imgs/GGHL.png" width="430"> </p> <p algin="center"> <img src="https://user-images.githubusercontent.com/33946139/147258790-8b0ddf42-fbd6-4372-8598-70d67d5de328.png" width="700"> </p>

0. Something Important 🦞 🦀 🦑

🌈 1.Environments

Linux (Ubuntu 18.04, GCC>=5.4) & Windows (Win10)
CUDA > 11.1, Cudnn > 8.0.4

First, install CUDA, Cudnn, and Pytorch. Second, install the dependent libraries in requirements.txt.

conda install pytorch torchvision torchaudio cudatoolkit=11.3 -c pytorch 
pip install -r requirements.txt  

🌟 2.Installation

  1. git clone this repository

  2. Polygen NMS
    The poly_nms in this version is implemented using shapely and numpy libraries to ensure that it can work in different systems and environments without other dependencies. But doing so will slow down the detection speed in dense object scenes. If you want faster speed, you can compile and use the poly_iou library (C++ implementation version) in datasets_tools/DOTA_devkit. The compilation method is described in detail in DOTA_devkit .

cd datasets_tools/DOTA_devkit
sudo apt-get install swig
swig -c++ -python polyiou.i
python setup.py build_ext --inplace 

🎃 3.Datasets

  1. DOTA dataset and its devkit

(1) Training Format

You need to write a script to convert them into the train.txt file required by this repository and put them in the ./dataR folder.
For the specific format of the train.txt file, see the example in the /dataR folder.

image_path xmin,ymin,xmax,ymax,class_id,x1,y1,x2,y2,x3,y3,x4,y4,area_ratio,angle[0,180) xmin,ymin,xmax,ymax,class_id,x1,y1,x2,y2,x3,y3,x4,y4,area_ratio,angle[0,180)...

The calculation method of angle is explained in Issues #1 and our paper.

(2) Validation & Testing Format

The same as the Pascal VOC Format

(3) DataSets Files Structure

cfg.DATA_PATH = "/opt/datasets/DOTA/"
├── ...
├── JPEGImages
|   ├── 000001.png
|   ├── 000002.png
|   └── ...
├── Annotations (DOTA Dataset Format)
|   ├── 000001.txt (class_idx x1 y1 x2 y2 x3 y3 x4 y4)
|   ├── 000002.txt
|   └── ...
├── ImageSets
    ├── test.txt (testing filename)
        ├── 000001
        ├── 000002
        └── ...

There is a DOTA2Train.py file in the datasets_tools folder that can be used to generate training and test format labels. First, you need to use DOTA_devkit , the official tools of the DOTA dataset, for image and label splitting. Then, run DOTA2Train.py to convert them to the format required by GGHL. For the use of DOTA_devkit, please refer to the tutorial in the official repository.

🌠🌠🌠 4.Usage Example

(1) Training

python train_GGHL.py

(2) For Distributed Training

sh train_GGHL_dist.sh

(3) Testing

python test.py

☃️❄️ 5.Weights

假装有表格...懒得画了
1)The trained model for DOTA dataset is available from Google Drive or Baidu Disk (password: 2dm8)
Put them in. /weight folder

2)The trained model for SKU dataset is available from Google Drive or Baidu Disk(password: c3jv)

3)The trained model for SKU dataset is available from Google Drive or Baidu Disk(password: vdf5)

4)The pre-trained weights of Darknet53 on ImageNet are available from Google_Drive or Baidu_Disk(password:0blv)

5)The trained model for DOTAv1.5 dataset is available from Google Drive or Baidu Disk(password: wxlj)

6)The trained model for DOTAv2.0 dataset is available from Google Drive or Baidu Disk(password: dmu7)

💖💖💖 6.Reference

https://github.com/Peterisfar/YOLOV3
https://github.com/argusswift/YOLOv4-pytorch
https://github.com/ultralytics/yolov5
https://github.com/jinfagang/DCNv2_latest

📝 License

Copyright © 2021 Shank2358.<br /> This project is GNU General Public License v3.0 licensed.

🤐 To be continued

🎃 Update Log

ORC和Gliding Vertex有很多相似之处,对于Gliding Vertex,当凸四边形OBB的四个顶点不全部落在外接HBB上时是无法表示的,因此Gliding Vertex是先利用cv2.minRect函数将DOTA标注的凸四边形OBB转换为旋转矩形,然后在利用在HBB上的滑动顶点进行表示以保证OBB所有四个顶点都落在HBB上,具体见他们仓库的issue https://github.com/MingtaoFu/gliding_vertex/issues/21#issuecomment-647935655. 在此基础上有了Oriented R-CNN的进一步简化用delta alpha和delta beta表示(因为内接OBB都已经近似成矩形了,两边是轴对称的,只需要预测在内接矩形相邻两条边的滑动距离即可)。但是这样的近似实际预测的还是旋转矩形而不是任意凸四边形,近似本身就会在GT上带来更多误差,误差更大的GT作为学习目标自然会影响预测准确性。因此,GGHL的RA只对那些该表示无法处理的凸四边形(即顶点不全落在HBB上的四边形)进行近似,而其他凸四边形都可以直接用ORC表示无需再近似成最小矩形,论文中也提到根据统计“only 4.79% of the OBBs need to be approximated”,这样可以保证ORC表示法在生成GT时引入的误差可以最小,论文表5的实验也证明了其有效性。更具体地,这些4.79%无法用ORC直接表示的凸四边形我们也不是全部用cv2.minRect做近似,而是精细地把他们分成16种情况进行讨论和分别处理,这样做目的是尽可能地减小因为近似带来的误差。大家也可以把上述近似和cv2.minRect近似的四边形画出来对比一下它们俩的误差。具体方案见论文图7和代码。

img1
顺便再解释一下这个,这个动图是为了解释自适应调整高斯分布的,高斯根据ORC的顶点滑动(或者说凸四边形的变化)改变。根据OBB生成高斯通常是将OBB视为矩形,然后根据矩形的中心点坐标和长宽来得到高斯椭圆,但是如上RA问题的解释所述,GGHL的OBB不一定是矩形,而是任意凸四边形(有一部分对ORC无效的做了上述近似),那么要如何生成高斯?一种做法是仍然将凸四边形近为旋转举行计算高斯,另外一种就是我们给出的动图这样的做法。在我们最新的工作中会对这个进行更详细的讨论,快出来了(😒😒已经鸽了一年了),敬请期待。篇幅所限在GGHL论文中没地方写了,原文因为投稿TIP已经一再压缩😢😢,很多细节和几何证明放不下了,连作者照片都没放全🤣🤣🤣,我只能说我真是尽力且费劲心思把放不下的东西尽量在原文中留下一些线索了,有兴趣的可以慢慢去发现,我很乐意随时交流讨论。

The latest and improved embedded version of GGHL will be launched soon. 嵌入式端的最新改进版本即将上线。

<img src="https://user-images.githubusercontent.com/33946139/147256008-467d03f4-876e-4065-99b6-02198a7d7d93.png" width="520"> <p algin="center"> <img src="https://user-images.githubusercontent.com/33946139/147179756-2e4788d2-48d2-4fc6-bb1c-a35cbb7f377e.png" width="260"><img src="https://user-images.githubusercontent.com/33946139/147185286-69f8eff8-3e71-4b34-86d8-c9b6259d4b1e.png" width="520"> </p>

有问题真的真的可以在issues里面留言不一定非得邮件,我都会回的,这里可能比邮件还快的。邮件最近又有被放到垃圾箱的情况了,真的非常抱歉。有谁知道怎么关闭邮件拦截,恳请教我一下。另外,请不要做伸手党直接要代码或者让我直接帮忙写代码,这真的让人心情不美丽😩,论文里该有的代码这个仓库里都会有的,其他的我也很乐意和大家一起讨论,不断更新这个仓库让它越来越好。在这里咱们定个约定,如果需要额外的代码和问题解答,请将遇到的问题具体准确的描述清楚,我也会尽己所能去解答和更新,如果只是伸手党要这要那的请恕我不打捞垃圾邮件了。真的求求了,issues里就可以说的问题没必要加微信吧,确实要加也行的吧至少告诉我你们是谁,谢谢。

🐾 🐾 🐾 DOTAv1.5和DOTAv2.0的权重可以下载啦。这版本的结果是没调参,没数据增强,没多尺度测试的,后续有空会再精调和加tricks,应该还会涨点。
😝😝😝 其实每天事儿挺多的,做科研都是见缝插针,github这边就更顾不上了,使用教程和代码注释更新慢还请见谅,过年期间会加油更新。另外,有问题可以在issues里面留言,为什么都喜欢发邮件啊,邮件经常会莫名其妙的跑到垃圾邮件里,因此可能会有延迟,实在抱歉,我打捞出来就会立即回复的。

不同版本opencv的cv2.minAreaRect()函数不一致且存在一些角度转换的bug (我用的低版本角度是(0,-90],新版的是[0,90],所以可能有一些bug,我全部更新统一到新版了现在。还有就是cv2.minAreaRect()函数本身的一些bug,有很多博客介绍过了我就不重复了,由于我的原版为了解决这些bug做的判断函数和新版cv2.minAreaRect()的输出不太一样,这里也有一些问题,我也修改了),我更新了datasets_obb.py, datasets_obb_pro.py, augmentations.py, DOTA2Train.py文件,全部按长边表示法计算(角度范0,180)),请大家及时更新,opencv版本也请更新到4.5.3及以上。谢谢。

11.19-11.20 更新修复了标签转换脚本的一些bug (对于custom data的顶点顺序可能与DOTA不一致的问题)

<p algin="center"> <img src="https://user-images.githubusercontent.com/33946139/142638611-39a20148-ce04-49fc-be19-2b6ffff0f9fa.png" width="320"> </p>

There are still some uncompleted content that is being continuously updated. Thank you for your feedback and suggestions.

更新了用于生成GGHL所需格式数据集的工具(./datasets_tools/DOTA2Train.py) 论文里的Refine Approx.在代码里面有详细的分类讨论。

其他数据的权重近期会陆续上传和更新

即将更新更多的backbone和模型,以及mosaic数据增强,一周内更完。下周会更新第一版的代码注释和教程,即dataloadR/datasets_obb.py文件,主要是GGHL中最重要的标签分配策略。 另外GGHLv2.0正在准备和实验中,立个flag今年更新完。

增加了DCNv2的混合精度训练和onnx转换 (推理阶段要记得把offsets改成FP16)

论文结果对应的模型权重可以下载了(终于发工资把网盘续上了~)

打算写一个数据预处理的教程和算法、代码的讲解,预计12月上线

1.0版本全部更新完成了,欢迎使用,有任何问题可以在issue留言,谢谢。接下来会不断更新和完善

💣 11.6 更新了标签分配和dataload。更新了pytorch1.10版本的支持。预告一下,下周会更新分布式训练的内容。

(预训练权重的链接在NPMMR-Det和LO-Det的仓库说明里)

🙈 正文开始前的惯例的碎碎念(可以跳过直接看正文使用说明)

投稿排队实在太慢了,三个月了还在形式审查没分配AE,555~ 先在arxiv上挂出来了。
我会尽最大努力帮助大家跑通代码和复现出接近论文报道结果的实验,因为我自己也被坑多了,好多遥感领域的论文不开源代码或者根本复现不出来,或者就是模型复杂到眼花缭乱换个数据/参数就失灵,实在是太难了。论文里关于NPMMR-Det和LO-Det的实验代码会在那两个仓库里面更新,NPMMRDet的baseline目前已经更新完了,你们可以试试看能不能跑。LO-Det的正在更新中,可以看那边的说明(11.1也更新了)。 万一有AE或者审稿人大佬看到这个仓库,跪求千万别忘了审稿啊~ 求求,希望能顺利毕业😭😭😭

😸😸 10.24 终于分配AE和审稿人了🐌🐌🐌,不容易啊。这投稿流程可太慢了,担心能不能赶上毕业,真的是瑟瑟发抖😭😭😭

🙉🙉 关于论文超参数和实验的一些说明。

🐛 论文里报道的训练超参数都没有精调,就选的对比方法一样的默认参数,也没有选最好的epoch的结果,直接固定了最大epoch,选择最后五个epoch的平均结果。精调学习率、训练策略合最好轮次还会涨点,最近有空闲的机器我试了一下。但是我觉得像很多论文那样为了state-of-the-art(SOTA)而SOTA没有必要,所以最后没那样做,后续如果审稿意见有这个建议我可能会再修改,如果没有我会把更多的实验结果在github和arxiv上展示出来。反思自己最近的工作,确实比不上各位大佬前辈的创新想法,这点还要继续努力。由于我也是自己一路磕磕绊绊摸索着进入科研领域的,也踩过很多坑,也被各种卷王卷的透不过气,所以我想追求的是想做一些踏实的、简单实用的工作,设计一个皮实、经得起折腾的模型,而不想去卷什么SOTA(😭😭😭 实话是我也卷不过。。。。)。
🐰🐰 说一个我对目标检测的理解,请大家批评指正。在我看来,目标检测只是一个更庞大的视觉系统的入口任务而不是最终结果。我觉得大多数检测任务的目标是快速、粗略地在图像/视频中定位到目标候选区域,为后续更精细的比如分割、跟踪等其他任务服务,简化它们的输入。从这个视角来看,检测平均精度差距那么一两个点真的没论文里吹的那么重要,反而检测效率(速度)、模型的复杂度与鲁棒性、易用性(无论是对工程人员还是新入门的研究人员而言)的提升对于社区的贡献会更实际一些。最近几个月我也一直在反思自己,目标检测的初心是什么,目标检测完了然后呢,原来我写论文以为的终点很多时候只是我以为的,原来我想错了。深度学习火了这么些年,很多任务或许也是这样的吧,毕竟论文实验里的SOTA是有标准答案的考试,而它们的开花结果是一个开放性问题。这是接下来的努力方向,我相信哪怕道阻且长,行则将至,而且行而不辍,未来一定可期。

另外,请不要做伸手党,如果你们想训练自己的数据集,以下已经详细描述了GGHL的数据格式和使用说明,在tools文件夹中提供了转换脚本。我也在许多论文以外的数据集和大家提供的数据集上进行了实验,都可以正常工作,请花些时间阅读说明和issues #1中的一些解释,如果还有疑问可以在issues中留言给我,都会得到回复。我没有义务直接帮你们改代码和训练你们的数据。