We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
您好,感谢您出色的工作!Relation DETR和Co DETR都是可以在DINO的基础上通过加入即插即用的模块提升较多性能,COCO 1x性能分别能达到51.7和52.1,请问你们有尝试过在Co DETR的框架基础上加入你们提出的模块吗,性能是否有进一步提升呢? 另一个问题是论文中仅提供了r50和swinL直接在COCO上训练的性能,Co-DETR使用VitL主干经过大规模预训练后在COCO上能达到66.0的性能,你们是否做了大规模预训练(如Obj365)后再在COCO上训练的实验或者用更大的主干训练的实验呢,性能怎么样?
No response
The text was updated successfully, but these errors were encountered:
Hi,感谢你的提问,这两个问题真是问到关键点上了!
第一个问题
第二个问题,其实我有想过冲一冲COCO-leaderboard,看看RelationDETR到底性能咋样,奈何组里只有8张3090+2张A800,实在没法跑O365预训练🤣我手头有一个结果可以供你参考:
显然这只是个次优结果,如果能够和Co DETR保持相同的实验条件:
我觉得是有机会达到和Co DETR接近的AP的。
除了性能,我们的优势在于其简单通用,没有在DINO上引入太多代码处理,很适合作为一个更好的baseline去进行更多扩充,例如引入rank-detr中的排序机制、ms-detr中基于阈值的一对多匹配,甚至也可以仿照CoDETR将FasterRCNN和ATSS模块引入进来。换言之他应该是有进一步的提升潜力。
Sorry, something went wrong.
No branches or pull requests
Question
您好,感谢您出色的工作!Relation DETR和Co DETR都是可以在DINO的基础上通过加入即插即用的模块提升较多性能,COCO 1x性能分别能达到51.7和52.1,请问你们有尝试过在Co DETR的框架基础上加入你们提出的模块吗,性能是否有进一步提升呢?
另一个问题是论文中仅提供了r50和swinL直接在COCO上训练的性能,Co-DETR使用VitL主干经过大规模预训练后在COCO上能达到66.0的性能,你们是否做了大规模预训练(如Obj365)后再在COCO上训练的实验或者用更大的主干训练的实验呢,性能怎么样?
补充信息
No response
The text was updated successfully, but these errors were encountered: