Registro automático, preciso e robusto de imagens com RANSAC (Random Sample Consensus) adaptado para o descritor SIFT (Scale Invariant Feature Transform)
DOI:
https://doi.org/10.33448/rsd-v11i14.36631Palavras-chave:
Registro de imagens; SIFT; Homografia; RANSAC.Resumo
O registro de imagens é um problema comum na visão computacional com diversas aplicações que consiste em encontrar a correta transformação entre pares de imagens que se sobrepõem. Neste trabalho objetiva-se apresentar um modelo automático e preciso para registro de imagens utilizando o descritor SIFT e o método de estimação RANSAC adaptado. O registro ocorre através da estimativa da homografia entre os pares de imagens, que utilizam as correspondências pontuais dadas pelo descritor SIFT. As correspondências são classificadas usando um limiar de erro estimado dinamicamente. A análise considera a dispersão do resíduo em vários limites de erro e adota aquele que minimiza a dispersão e a magnitude do erro. O modelo é testado com 8 pares heterogêneos de imagens divididos em dois grupos: 4 pares obtidos com uma câmera profissional e 4 pares obtidos com uma câmera comum. Devido à alta qualidade das imagens do primeiro grupo, poucas iterações do modelo são necessárias para a estimativa da homografia correta. No segundo grupo, o modelo mostrou que é capaz de construir mosaicos entre pares de imagens com sobreposição inferior a 20%, encontrando correspondências exatas entre pares de imagens independentemente do método de aquisição. Além disso, foi capaz de lidar com até 65% de corrupção entre as correspondências, com um tempo total de execução de alguns segundos.
Referências
Bay, H., Ess, A., Tuytelaars, T., & Van Gool, L. (2008). Speeded-up robust features (SURF). Computer Vision and Image Understanding, 110(3), 346–359.
Belo, F. A. W. (2006). Desenvolvimento de Algoritmos de Exploração e Mapeamento Visual para Robôs Móveis de Baixo Custo.
Berveglieri, A. (2014). Localização automática de pontos de controle em imagens aéreas baseada em cenas terrestres verticais.
Bouguet, J.-Y. Camera calibration toolbox for Matlab (2008). Computational vision at the California institute of technology. 2008. <http://www.vision.caltech.edu/bouguetj/calib_doc/>.
Brown, M., & Lowe, D. G. (2002). Invariant features from interest point groups. BMVC, 4, 398–410.
Bruce, A., & Bruce, P. (2019). Estatística Prática para Cientistas de Dados. Alta Books.
Chum, O., & Matas, J. (2008). Optimal randomized RANSAC. IEEE Transactions on Pattern Analysis and Machine Intelligence, 30(8), 1472–1482.
Dong, Z., Yang, B., Liang, F., Huang, R., & Scherer, S. (2018). Hierarchical registration of unordered TLS point clouds based on binary shape context descriptor. ISPRS Journal of Photogrammetry and Remote Sensing, 144, 61–79.
dos Santos, M. C., & Rocha, A. (2012). Revisao de Conceitos em Projeçao, Homografia, Calibraçao de Câmera, Geometria Epipolar, Mapas de Profundidade e Varredura de Planos. Unicamp, Campinas, Tech. Rep.
Fischler, M. A., & Bolles, R. C. (1981). Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography. Communications of the ACM, 24(6), 381–395.
Fu, Y., Lei, Y., Wang, T., Curran, W. J., Liu, T., & Yang, X. (2020). Deep learning in medical image registration: a review. Physics in Medicine & Biology, 65(20), 20TR01.
Hartley, R., & Zisserman, A. (2003). Multiple view geometry in computer vision. Cambridge university press.
Kumar, R., Anandan, P., Irani, M., Bergen, J., & Hanna, K. (1995). Representation of scenes from collections of images. Proceedings IEEE Workshop on Representation of Visual Scenes (In Conjunction with ICCV’95), 10–17.
Leutenegger, S., Chli, M., & Siegwart, R. Y. (2011). BRISK: Binary robust invariant scalable keypoints. 2011 International Conference on Computer Vision, 2548–2555.
Lowe, D. G. (2004). Distinctive image features from scale-invariant keypoints. International Journal of Computer Vision, 60(2), 91–110.
Mills, A., & Dudek, G. (2009). Image stitching with dynamic elements. Image and Vision Computing, 27(10), 1593–1602.
Paul, S., & Pati, U. C. (2021). A comprehensive review on remote sensing image registration. International Journal of Remote Sensing, 42(14), 5396-5432.
Pons, J.-P., Keriven, R., & Faugeras, O. (2007). Multi-view stereo reconstruction and scene flow estimation with a global image-based matching score. International Journal of Computer Vision, 72(2), 179–193.
Raguram, R., Frahm, J.-M., & Pollefeys, M. (2008). A comparative analysis of RANSAC techniques leading to adaptive real-time random sample consensus. European Conference on Computer Vision, 500–513.
Rublee, E., Rabaud, V., Konolige, K., & Bradski, G. (2011). ORB: An efficient alternative to SIFT or SURF. 2011 International Conference on Computer Vision, 2564–2571.
Schonberger, J. L., & Frahm, J.-M. (2016). Structure-from-motion revisited. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 4104–4113.
Theiler, P. W., Wegner, J. D., & Schindler, K. (2015). Globally consistent registration of terrestrial laser scans via graph optimization. ISPRS Journal of Photogrammetry and Remote Sensing, 109, 126–138.
Torr, P. H. S., & Zisserman, A. (2000). MLESAC: A new robust estimator with application to estimating image geometry. Computer Vision and Image Understanding, 78(1), 138–156.
Wang, J., & Watada, J. (2015). Panoramic image mosaic based on SURF algorithm using OpenCV. 2015 IEEE 9th International Symposium on Intelligent Signal Processing (WISP) Proceedings, 1–6.
Weinmann, M. (2016). Reconstruction and analysis of 3D scenes (Vol. 1). Springer.
Yang, Z.-L., & Guo, B.-L. (2008). Image mosaic based on SIFT. 2008 International Conference on Intelligent Information Hiding and Multimedia Signal Processing, 1422–1425.
Zuliani, M. (2009). RANSAC for Dummies. Vision Research Lab, University of California, Santa Barbara.
Downloads
Publicado
Como Citar
Edição
Seção
Licença
Copyright (c) 2022 Rubens Antonio Leite Benevides; Kalima Pitombeira; Jorge Centeno; Paulo Rodrigo Simões
Este trabalho está licenciado sob uma licença Creative Commons Attribution 4.0 International License.
Autores que publicam nesta revista concordam com os seguintes termos:
1) Autores mantém os direitos autorais e concedem à revista o direito de primeira publicação, com o trabalho simultaneamente licenciado sob a Licença Creative Commons Attribution que permite o compartilhamento do trabalho com reconhecimento da autoria e publicação inicial nesta revista.
2) Autores têm autorização para assumir contratos adicionais separadamente, para distribuição não-exclusiva da versão do trabalho publicada nesta revista (ex.: publicar em repositório institucional ou como capítulo de livro), com reconhecimento de autoria e publicação inicial nesta revista.
3) Autores têm permissão e são estimulados a publicar e distribuir seu trabalho online (ex.: em repositórios institucionais ou na sua página pessoal) a qualquer ponto antes ou durante o processo editorial, já que isso pode gerar alterações produtivas, bem como aumentar o impacto e a citação do trabalho publicado.