⏲️误入科研海
误入科研海
序
偶然的机会进了某大学的 Lab (简历里写了), 很感谢某位大佬 🥰
就这样, 下面记一些个人经验…
关于调研
师姐开会时经常提到, 要站在第三人称视角读 paper, 不要被代入读者身份或者完全顺着作者思路思考
now.clear, 意思大概就是: how > what
how they think, not what…
how they do, not what…
how they show, not what…
在做调研时着重看下:
paper 提出的问题
如何着手解决和实现 (精髓就是 1. -> 2. 中间的思路, 应该叫
问题建模
)
对于优秀和有借鉴价值的实现, 可以看一看. 至于研究背景, 结果分析对比之类的, 是作者为了给 paper 加分, 对我们调研没啥用
一些经验
学会拆字
听到一个概念不要马上去大脑数据库搜索, 之所以叫脑海, 是因为它有乱流和旋涡
比如 元数据
这个词, 乍一听很抽象是吧, 脑子也能马上返回 Metadata 这个词, 但具体想解释就会云里雾里
‘元’即为’关于…的’, 所以一组元数据是指’一组关于 xxx 的映射数据’ [1]
读论文
入门时还是相当困难的, 拿过来一篇英文文献不知道怎么下手, 来回翻译也不知所云
所以还是建议练一下 论文跟读
[2]
按注意力/重要程度分级:
abstract: 60%
现状 & paper 大体上做了什么
introduction: 80%
paper 为什么要做这个工作
related works: 50%
别人怎么做的, 同时支撑起本 paper 的意义和推进
contributions/goal: 80%
此工作做了哪些要点 (大标题的作用)
figure image: 100%
好的论文, 营养全浓缩在图里
LaTeX math: 40%~90%
公式虽然很优雅, 但是远不如图直观, 除非想深入研究改进, 不然不建议耗费蛮力看公式
experiment: 20%~50%
一般是作为论文科学性和可行性的支撑, 大部分是给审稿人看的, 除非想入手复现研究此工作, 但更建议去代码库研究
conclusion: 30%
大多数都是走个形式, 没啥作用的段落…
找论文
关键词, 关键词, 关键词!
Zh_CN | En |
---|---|
综述 | survey, overview, review |
点云
没地方写了, 暂时写在这…
分析工具
CloudCompare
默认密度颜色 蓝->绿->黄->红
双击右键拖动, 按下中键上下移动会缩放
PCD-Decode
如下通过 ImHex 提取出来的 PCD 文件头, 第三行说的是含有反射率 intensity 信息
# .PCD v0.7 - Point Cloud Data file format |
某次组会分享
组成成分-数据转换分析
此数据集并没很清晰的给出制作流程/数据流向, 分析起来难在这里, 就像是分析饭店里的菜是怎么做的一样, 知道原料和结果但不知道过程
下面通过数据流形式做的分析, 下图全流程为核心, 本质上是 两个跨模态融合系统+一个通信系统
{ |
上面是 annos 内的文件格式, 为图像的内/外参, 下面是分析 (->
所指向的为"原料")
# annotations 标注 |
VirtualLiDAR-转换和组成
image + annos + label/camera => 图像的 3D 标注
velodyne(点云 pcd 文件) + label/virtuallidar => 点云的 3D 标注
虚拟 LiDAR 坐标系到虚拟世界坐标系的转换就简单了, 只需要通过 calib/virtuallidar_to_world
就可以
时间同步-配准问题
路端/车端分别有个 GPS 管位置和时间同步, 同一端内 Camera 和 LiDAR 的时间通过 GPS 授时应该是一致的
所以在硬件不出问题的情况下, 同一端的时间问题可以不用考虑, 可以考虑跨端问题 (但是个人感觉, 在 GPS 授时准确的情况下, 车端与路端通信距离最远也就几十米, 也不用考虑跨端导致的时差问题)
插一嘴, 感觉文档里所说的 “分别以 Camera 和 LiDAR 时间戳为基准” 有歧义, 他想表达的应该是 “同一时间戳下的 Camera 与 LiDAR 是一对”, 而不是说 Camera 与 LiDAR 各自为政分别计时
在时间方面, 需要考虑的应该是车-路两端的通信时延, 几十 ms 的短时延是没问题的, 可以视为软实时, 车端的决策可以滞后一些来等待路端的指示
从经验上来看, 难点应该是如何让车-路两端设备 迅速匹配连接
, 日常用的手机 4G/5G 网正常就是几十 ms 延迟, 但是手机与基站在匹配连接阶段需要耗费好几秒 (不知道在设备选用方面能不能解决这问题)
提出问题: 车端接收到路端给的数据, 必然是几十 ms 之前的, 我们可以考虑做这个配准
- 决策滞后, 比如设置阈值 100ms, 如未收到路端返回的数据,就只用车端的进行决策
- 让路端进行路线预测, 逼近实时
虚拟问题及双端任务流
GPS 是精准到经纬度位置的, 为了防止路端信息泄露/侵犯隐私权(车端数据自用所以不用转换), 路端设备需要把绝对位置通过 GPS 转为相对位置 (也就是虚拟化)
车端做的是:
- 探测到前方 xx 米处有辆车, 记下来路况
- 连接路端告诉路端本车 GPS, 等待并接收路端传回的虚拟世界坐标系, 对路况查漏补缺
- 根据记下的路况规划行驶
路端做的是:
- 探测到周围有车 A 和 B, 以路端设备 GPS 位置为中心构建虚拟世界坐标系
- 收到某车 GPS 实时定位/relative pose (比如 A 车的), 把虚拟世界坐标系中心转为 A 车的 GPS, 并传给 A
标注问题
下面分别为图像与 LiDAR 的标注文件, 我原以为的精度问题以及数据转换是误解, 实际上是两模态都做了标注
{ |
{ |
图像做的是 2D+3D, 点云只做了 3D 标注, 2D 标注一模一样所以不用分析
关于两模态的 3D 标注框重合度问题, 暂且认为是点云标注质量不好 (点云下车辆形状大小需要人为估量)
其它问题
annos.images.file_name 存在格式问题
“/root/DataSets/DAIR-V2X/cooperative-vehicle-infrastructure//infrastructure-sideimage/000028.jpg”
fix_require
欧阳老师给的提议
(有待商榷)
清标签/找一个工具改一下
图像到点云不准, 过滤地面可以降低标注难度
有可能外参有问题
一波人做数据清洗/标注修正
另一拨人, 做一下 IoU 统计, 融合分析
寻找问题所在: 什么噪声导致 3D 框重合度有问题
欧阳老师提到的 Cloud Compare
可以对比两点云之间的差别
auto-mos
是这个 paper 的流程总结 [3]
主要需要的数据是连续帧雷达点云数据, 论文所提出的 pipeline 是一套 offline 模块:
输入进 SLAM/测距, 首先估计位姿信息
应用 ERASOR 地图清理方法 (dynamic removal) 检测出 moving object
利用基于密度的聚类方法 HDBSCAN 对其进行实例分割
通过卡尔曼滤波进行多目标跟踪检测, 并通过跟踪结果判断是否为动态物体并确定其标签
中心距离, 重叠的边界框量以及基于其边界框之间的每对实例之间的 volume 更改
根据运动确定其标签
连续帧雷达点云数据 -> 自动检测移动物体并生成标签
之后使用生成的 label 作为监督数据训练 online 模型, 测试多个方法以及多组不同场景的雷达数据, 结果显示生成结果与人为标注结果差距小
线性插值生成的汽车的轨迹显示灰色, 插值还考虑了旋转和缩放。
借物表
[2]: 【论文必读 ResNet】residual 如此多娇,引无数英雄竞折腰
[3]: GitHub - PRBonn/auto-mos: Automatic Labeling to Generate Training Data for Online LiDAR-based Moving Object Segmentation