Registro automático, preciso y robusto de imágenes con RANSAC (Random Sample Consensus) adaptado al descriptor SIFT (Scale Invariant Feature Transform)
DOI:
https://doi.org/10.33448/rsd-v11i14.36631Palabras clave:
Registro de imagen; SIFT; Homografia; RANSAC.Resumen
El registro de imágenes es un problema común en visión artificial con varias aplicaciones que consiste en encontrar la transformación correcta entre pares de imágenes superpuestas. Este trabajo tiene como objetivo presentar un modelo automático y preciso para el registro de imágenes utilizando el descriptor SIFT y el método de estimación RANSAC adaptado. El registro ocurre a través de la estimación de la homografía entre los pares de imágenes, que utilizan las correspondencias puntuales dadas por el descriptor SIFT. Las coincidencias se ordenan utilizando un umbral de error estimado dinámicamente. El análisis considera la dispersión del residuo en varios límites de error y adopta el que minimiza la dispersión y la magnitud del error. El modelo se prueba con 8 pares heterogéneos de imágenes divididas en dos grupos: 4 pares obtenidos con una cámara profesional y 4 pares obtenidos con una cámara común. Debido a la alta calidad de las imágenes del primer grupo, son necesarias pocas iteraciones del modelo para estimar la homografía correcta. En el segundo grupo, el modelo demostró que es capaz de construir mosaicos entre pares de imágenes con una superposición de menos del 20%, encontrando coincidencias exactas entre pares de imágenes independientemente del método de adquisición. Además, pudo manejar hasta un 65% de corrupción entre partidos, con un tiempo de ejecución total de unos pocos segundos.
Citas
Bay, H., Ess, A., Tuytelaars, T., & Van Gool, L. (2008). Speeded-up robust features (SURF). Computer Vision and Image Understanding, 110(3), 346–359.
Belo, F. A. W. (2006). Desenvolvimento de Algoritmos de Exploração e Mapeamento Visual para Robôs Móveis de Baixo Custo.
Berveglieri, A. (2014). Localização automática de pontos de controle em imagens aéreas baseada em cenas terrestres verticais.
Bouguet, J.-Y. Camera calibration toolbox for Matlab (2008). Computational vision at the California institute of technology. 2008. <http://www.vision.caltech.edu/bouguetj/calib_doc/>.
Brown, M., & Lowe, D. G. (2002). Invariant features from interest point groups. BMVC, 4, 398–410.
Bruce, A., & Bruce, P. (2019). Estatística Prática para Cientistas de Dados. Alta Books.
Chum, O., & Matas, J. (2008). Optimal randomized RANSAC. IEEE Transactions on Pattern Analysis and Machine Intelligence, 30(8), 1472–1482.
Dong, Z., Yang, B., Liang, F., Huang, R., & Scherer, S. (2018). Hierarchical registration of unordered TLS point clouds based on binary shape context descriptor. ISPRS Journal of Photogrammetry and Remote Sensing, 144, 61–79.
dos Santos, M. C., & Rocha, A. (2012). Revisao de Conceitos em Projeçao, Homografia, Calibraçao de Câmera, Geometria Epipolar, Mapas de Profundidade e Varredura de Planos. Unicamp, Campinas, Tech. Rep.
Fischler, M. A., & Bolles, R. C. (1981). Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography. Communications of the ACM, 24(6), 381–395.
Fu, Y., Lei, Y., Wang, T., Curran, W. J., Liu, T., & Yang, X. (2020). Deep learning in medical image registration: a review. Physics in Medicine & Biology, 65(20), 20TR01.
Hartley, R., & Zisserman, A. (2003). Multiple view geometry in computer vision. Cambridge university press.
Kumar, R., Anandan, P., Irani, M., Bergen, J., & Hanna, K. (1995). Representation of scenes from collections of images. Proceedings IEEE Workshop on Representation of Visual Scenes (In Conjunction with ICCV’95), 10–17.
Leutenegger, S., Chli, M., & Siegwart, R. Y. (2011). BRISK: Binary robust invariant scalable keypoints. 2011 International Conference on Computer Vision, 2548–2555.
Lowe, D. G. (2004). Distinctive image features from scale-invariant keypoints. International Journal of Computer Vision, 60(2), 91–110.
Mills, A., & Dudek, G. (2009). Image stitching with dynamic elements. Image and Vision Computing, 27(10), 1593–1602.
Paul, S., & Pati, U. C. (2021). A comprehensive review on remote sensing image registration. International Journal of Remote Sensing, 42(14), 5396-5432.
Pons, J.-P., Keriven, R., & Faugeras, O. (2007). Multi-view stereo reconstruction and scene flow estimation with a global image-based matching score. International Journal of Computer Vision, 72(2), 179–193.
Raguram, R., Frahm, J.-M., & Pollefeys, M. (2008). A comparative analysis of RANSAC techniques leading to adaptive real-time random sample consensus. European Conference on Computer Vision, 500–513.
Rublee, E., Rabaud, V., Konolige, K., & Bradski, G. (2011). ORB: An efficient alternative to SIFT or SURF. 2011 International Conference on Computer Vision, 2564–2571.
Schonberger, J. L., & Frahm, J.-M. (2016). Structure-from-motion revisited. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 4104–4113.
Theiler, P. W., Wegner, J. D., & Schindler, K. (2015). Globally consistent registration of terrestrial laser scans via graph optimization. ISPRS Journal of Photogrammetry and Remote Sensing, 109, 126–138.
Torr, P. H. S., & Zisserman, A. (2000). MLESAC: A new robust estimator with application to estimating image geometry. Computer Vision and Image Understanding, 78(1), 138–156.
Wang, J., & Watada, J. (2015). Panoramic image mosaic based on SURF algorithm using OpenCV. 2015 IEEE 9th International Symposium on Intelligent Signal Processing (WISP) Proceedings, 1–6.
Weinmann, M. (2016). Reconstruction and analysis of 3D scenes (Vol. 1). Springer.
Yang, Z.-L., & Guo, B.-L. (2008). Image mosaic based on SIFT. 2008 International Conference on Intelligent Information Hiding and Multimedia Signal Processing, 1422–1425.
Zuliani, M. (2009). RANSAC for Dummies. Vision Research Lab, University of California, Santa Barbara.
Descargas
Publicado
Cómo citar
Número
Sección
Licencia
Derechos de autor 2022 Rubens Antonio Leite Benevides; Kalima Pitombeira; Jorge Centeno; Paulo Rodrigo Simões
Esta obra está bajo una licencia internacional Creative Commons Atribución 4.0.
Los autores que publican en esta revista concuerdan con los siguientes términos:
1) Los autores mantienen los derechos de autor y conceden a la revista el derecho de primera publicación, con el trabajo simultáneamente licenciado bajo la Licencia Creative Commons Attribution que permite el compartir el trabajo con reconocimiento de la autoría y publicación inicial en esta revista.
2) Los autores tienen autorización para asumir contratos adicionales por separado, para distribución no exclusiva de la versión del trabajo publicada en esta revista (por ejemplo, publicar en repositorio institucional o como capítulo de libro), con reconocimiento de autoría y publicación inicial en esta revista.
3) Los autores tienen permiso y son estimulados a publicar y distribuir su trabajo en línea (por ejemplo, en repositorios institucionales o en su página personal) a cualquier punto antes o durante el proceso editorial, ya que esto puede generar cambios productivos, así como aumentar el impacto y la cita del trabajo publicado.