3D Modeling of objects from a visual sensor moved by an operator.
Modélisation 3D d'objets par un capteur visuel déplacé par un opérateur
Résumé
The work of this thesis focuses on modeling 3D objects from small to medium sized (1
m3 maximum) with an innovative sensor moved manually by an operator, developed by the
NOOMEOTM company.
To acquire 3D data, the sensor consists of a camera system coupled with an illuminator. We
infer information from a a visual pattern projected on the scene, used to create the artificial
texture on 3D surface, to produce a 3D image of the scene. Surfaces are represented as 3D
points reconstructed from the current viewpoint. To completely model an object, the sensor
must be moved around the object to acquire several 3D images. These images are successively
registered and merged into a single 3D point cloud. A triangular mesh is then generated from
the 3D point cloud. The appearance (color and texture) of the object can also be extracted
from data acquisition to enrich the final model.
This thesis addresses the problem of registration of 3D views in two ways : the fast online
registration and offline accurate optimization. For the first approach we proposed a variant of
the ICP algorithm using information from images and inertial measurement. This method was
validated by comparing it to other common geometric registration methods. For the second
approach, we proposed a refinment strategy by minimization of cycles in a graph of relations
between the 3D views ; and a global pose optimization method.
Our methods and their integration into a complete modeling system were validated by
comparing our results with those from other scanning systems commonly used in scientific
and industrial communities.
Les travaux de cette thèse portent sur la modélisation 3D d’objets de petite et moyenne tailles
(1 m3 maximum) par un système innovant, développé par la société NOOMEOTM, déplacé
manuellement par un opérateur.
Pour acquérir les données 3D, le capteur est constitué d’un système de caméras couplé à un
illuminateur. La projection sur la scène d’un motif visuel permet de créer sur les surfaces
3D une texture artificielle exploitée pour produire une image 3D de la scène, soit l’ensemble
de points 3D reconstruits depuis le point de vue courant. Pour obtenir le modèle complet
d’un objet, le capteur doit être déplacé autour de l’objet afin d’acquérir plusieurs images
3D. Ces images sont successivement recalées et fusionnées dans un seul nuage de points 3D.
Un maillage triangulaire est ensuite généré à partir de ce nuage de points 3D. L’apparence
(couleur et texture) de l’objet peut également être extraite des données d’acquisition afin
d’enrichir le modèle final.
Cette thèse aborde le problème du recalage de vues 3D selon deux approches : le recalage
rapide en ligne et l’optimisation précise hors ligne. La première approche nous a conduit à
proposer une variante de la méthode ICP exploitant l’information des images et la mesure
inertielle. Cette méthode a été validée en la comparant à d’autres méthodes courantes de
recalage géométrique. Pour la seconde approche, nous avons proposé une stratégie de raffinage
exploitant la minimisation de cycles dans un graphe de relations entre les vues 3D ; puis une
méthode d’optimisation globale des poses.
Nos méthodes et leur intégration dans le système de modélisation complet ont été validés
en comparant nos résultats avec ceux d’autres systèmes de numérisation couramment utilisés
dans les communautés scientifique et industrielle.
Loading...