- 使用分布式训练;
- 为了和其他代码库做公平对比,本文展示的是使用
torch.cuda.max_memory_allocated()
在 8 个 GPUs 上得到的最大 GPU 显存占用值,需要注意的是,这些显存占用值通常小于nvidia-smi
显示出来的显存占用值; - 在模型库中所展示的推理时间是包括网络前向传播和后处理所需的总时间,不包括数据加载所需的时间,模型库中所展示的结果均由 benchmark.py 脚本文件在 2000 张图像上所计算的平均时间。
请参考 SECOND 获取更多的细节,我们在 KITTI 和 Waymo 数据集上都给出了相应的基准结果。
请参考 PointPillars 获取更多细节,我们在 KITTI 、nuScenes 、Lyft 、Waymo 数据集上给出了相应的基准结果。
请参考 Part-A2 获取更多细节。
请参考 VoteNet 获取更多细节,我们在 ScanNet 和 SUNRGBD 数据集上给出了相应的基准结果。
请参考 Dynamic Voxelization 获取更多细节。
请参考 MVXNet 获取更多细节。
请参考 RegNet 获取更多细节,我们将 pointpillars 的主干网络替换成 RegNetX,并在 nuScenes 和 Lyft 数据集上给出了相应的基准结果。
我们在 nuImages 数据集 上也提供基准模型,请参考 nuImages 获取更多细节,我们在该数据集上提供 Mask R-CNN , Cascade Mask R-CNN 和 HTC 的结果。
请参考 H3DNet 获取更多细节。
请参考 3DSSD 获取更多细节。
请参考 CenterPoint 获取更多细节。
请参考 SSN 获取更多细节,我们将 pointpillars 中的检测头替换成 SSN 模型中所使用的 ‘shape-aware grouping heads’,并在 nuScenes 和 Lyft 数据集上给出了相应的基准结果。
请参考 ImVoteNet 获取更多细节,我们在 SUNRGBD 数据集上给出了相应的结果。
请参考 FCOS3D 获取更多细节,我们在 nuScenes 数据集上给出了相应的结果。
请参考 PointNet++ 获取更多细节,我们在 ScanNet 和 S3DIS 数据集上给出了相应的结果。
请参考 Group-Free-3D 获取更多细节,我们在 ScanNet 数据集上给出了相应的结果。
请参考 ImVoxelNet 获取更多细节,我们在 KITTI 数据集上给出了相应的结果。
请参考 PAConv 获取更多细节,我们在 S3DIS 数据集上给出了相应的结果。
请参考 DGCNN 获取更多细节,我们在 S3DIS 数据集上给出了相应的结果。
请参考 SMOKE 获取更多细节,我们在 KITTI 数据集上给出了相应的结果。
请参考 PGD 获取更多细节,我们在 KITTI 和 nuScenes 数据集上给出了相应的结果。
请参考 PointRCNN 获取更多细节,我们在 KITTI 数据集上给出了相应的结果。
请参考 MonoFlex 获取更多细节,我们在 KITTI 数据集上给出了相应的结果。
请参考 SA-SSD 获取更多的细节,我们在 KITTI 数据集上给出了相应的基准结果。
请参考 FCAF3D 获取更多的细节,我们在 ScanNet, S3DIS 和 SUN RGB-D 数据集上给出了相应的基准结果。
请参考 PV-RCNN 获取更多的细节,我们在 KITTI 数据集上给出了相应的基准结果。
请参考 BEVFusion 获取更多的细节, 我们在 NuScenes 数据集上给出了相应的基准结果。
请参考 CenterFormer 获取更多的细节, 我们在 Waymo 数据集上给出了相应的基准结果。
请参考 TR3D 获取更多的细节, 我们在 ScanNet, SUN RGB-D 和 S3DIS 数据集上给出了相应的基准结果。
请参考 DETR3D 获取更多的细节, 我们在 NuScenes 数据集上给出了相应的基准结果。
请参考 PETR 获取更多的细节, 我们在 NuScenes 数据集上给出了相应的基准结果。
请参考 TPVFormer 获取更多的细节, 我们在 NuScenes 数据集上给出了相应的基准结果。