Je veux faire correspondre les pixels des données lidar 3D et caméra 2D calibrées. Je vais l'utiliser pour former un réseau. Peut-on considérer cela comme des données étiquetées avec cette correspondance? Si c'est le cas, y a-t-il quelqu'un pour m'aider à y parvenir? Toute suggestion sera appréciée.

0
morgan 4 nov. 2019 à 03:38

1 réponse

À un niveau élevé, en supposant que vous ayez une certaine transformation (rotation / translation) entre votre caméra et votre lidar, et la matrice d'étalonnage de la caméra, vous avez une image 3D et une projection 2D de celle-ci. Autrement dit, si vous projetez le nuage de points 3D sur le plan image de la caméra, vous aurez un (x,y)_camera (point dans le cadre de la caméra) pour chaque (RGB)D_world == (x,y,z)_world) point.

L'utilité de cette formation dépend de ce que vous essayez de réaliser; si vous essayez de trouver où se trouve l'appareil photo ou de l'étalonner, compte tenu des données et des images D (RVB), cela pourrait être mieux fait avec un algorithme de point Perspective-n (le lidar pourrait faciliter les choses, peut-être, si il a construit une "vraie" vision du monde à comparer). Qu'elles soient considérées comme des données étiquetées, cela dépend de la façon dont vous essayez de les étiqueter. Ils disent tous deux des choses très similaires.

0
JWCS 5 nov. 2019 à 16:50