covid
Buscar en
Revista Iberoamericana de Automática e Informática Industrial RIAI
Toda la web
Inicio Revista Iberoamericana de Automática e Informática Industrial RIAI Control Embebido de Robots Móviles con Recursos Limitados Basado en Flujo Ópti...
Información de la revista
Vol. 8. Núm. 3.
Páginas 250-257 (julio - septiembre 2011)
Compartir
Compartir
Descargar PDF
Más opciones de artículo
Vol. 8. Núm. 3.
Páginas 250-257 (julio - septiembre 2011)
Open Access
Control Embebido de Robots Móviles con Recursos Limitados Basado en Flujo Óptico
Visitas
5523
G. Sanahujaa, A. Valerab,
Autor para correspondencia
gsanahuj@hds.utc.fr

Corresponding author. Fax: +34 96 387 95 79.
, A.J. Sánchezb, C. Ricolfe-Vialab, M. Vallésb, L. Marínb
a Laboratorie Heuristique et Diagnostic des Systèmes Complexes,Université de Technologie de Compiègne Rue Personne de Roberval, 60205 Compiègne cedex (France)
b Instituto de Automática e Informática Industrial, Dpto. de Ingeniería de Sistemas y Automática Universidad Politécnica de Valencia, Camino de Vera 14, 46022 Valencia (Spain)
Este artículo ha recibido

Under a Creative Commons license
Información del artículo
Resumen

Desde el punto de vista de la robótica móvil, la visión artificial juega un papel muy importante para obtener información global del entorno imprescindible para, por ejemplo, la generación automática de trayectorias o la evitación de obstáculos. Mediante técnicas de flujo óptico de visión artificial se puede obtener la estimación de movimientos del observador y de objetos, la estructura de éstos, el entorno, etc.

Desde el punto de vista de la implementación, la carga computacional que presenta un algoritmo para el cálculo del flujo óptico es elevada, lo que suele provocar problemas para su utilización en aplicaciones de robótica móvil, aviones y/o helicópteros autoguiados, robots submarinos, etc.

En este artículo se presenta la implementación realizada de un control de movimiento basado en el flujo óptico de un micro robot móvil con recursos muy limitados. Además, los resultados obtenidos con este robot son extrapolables a cualquier otro tipo de sistemas móviles.

Palabras clave:
control de movimiento
flujo óptico
sistemas robotizados
recursos limitados
control de robots
El Texto completo está disponible en PDF
Referencias
[Aires and Santana, 2008]
Aires K.R.T., A.M. Santana y A. D. Medeiros (2008). Optical Flow Using Color Information. ACM New York, NY, USA.
[Barron et al., 1994a]
Barron J.L., S.S. Beauchemin y D. J. Fleet, (1994). On optical flow. AIICSR.
[Barron et al., 1994b]
Barron J.L., D.J. Fleet y S. S. Beauchemin (1994). Performance of optical flow techniques. Int. J. of Computer Vision, vol. 12, n. 1, pp 43-77.
[Barron and Thacker, 2005]
Barron J.L. y N. A. Thacker (2005). Tutorial: Computing 2D and 3D Optical Flow. Tina Memo No. 2004-012, 2005.
[Beauchemin, 1995]
Beauchemin S.S. y J. L. Barron (1995). The computation of optical flow. ACM New York, USA.
[Bonin-Font and Ortiz, 2008]
Bonin-Font F., A. Ortiz y G. Oliver (2008). Visual Navigation for Mobile Robots: A Survey, J. Intell. Robotics Syst, vol 53, n 3, pp. 263-296.
[Braillon et al., 2006]
Braillon C., C. Pradalier, J.L. Crowley y C. Laugier (2006). Real-time moving obstacle detection using optical flow models. Intelligent Vehicles Symposium, pp. 466-471.
[Brown, 1987]
Brown C.M. (1987). Advances in Computer Vision. Ed. Lawrence Erlbaum Associates.
[Bruhn et al., 2006]
Bruhn A., J. Weickert, T. Kohlberger y C. Schnörr (2006). A multigrid platform for real-time motion computation with discontinuity-preserving variational methods. International Journal of Computer Vision, vol 70, n 3, pp. 257-277.
[Corke, 1994]
Corke P.I. (1994). Visual control of robot manipulators – a review. En Visual servoing. Ed. Singapore: World Scientific, pp. 1-32.
[De Castro, 1987]
De Castro E. y C. Morandi (1987). Registration of Translated and Rotated Images Using Finite Fourier Transforms. IEEE Transactions on pattern analysis and machine intelligence.
[Fleet, 1990]
Fleet D.J. y A. D. Jepson (1990). Computation of component image velocity from local phase information. IJCV, vol. 5, n. 1, pp 77-104.
[Humphreys and Bruce, 1989]
G. Humphreys, V. Bruce.
Visual Cognition: Computational, Experimental.
and Neuropsychological Perspectives, Psychology Press, (1989),
[Glocker et al., 2008]
Glocker B., N. Komodakis, G. Tziritas, N. Navab y N. Paragios (2008). Dense Image Registration through MRFs and Efficient Linear Programming. Medical Image Analysis Journal.
[Horn and Schunck, 1981]
Horn B.K.P. y B.G. Schunck, (1981). Determining optical flow. Artificial Intelligence, vol. 17, pp 185-203.
[Koenderink and Van Doorn, 1987]
Koenderink J.J. y A. J. Van Doorn (1987). Facts on optic flow. Biological Cybernetics,vol. 56, n. 4, pp. 247-254.
[Lei and Yang, 2009]
Lei C. y Y. H. Yang (2009). Optical flow estimation on coarse-to-fine region-trees using discrete optimization. 12th IEEE Int. Conference on Computer Vision. pp. 1562-1569.
[Lookingbill et al., 2007]
Lookingbill A., J. Rogers, D. Lieb, J. Curry y S. Thrun (2007). Reverse optical flow for self-supervised adaptive autonomous robot navigation, International Journal of Computer Vision 74 (3) pp. 287-30.
[Low, 2005]
Low T. y G. Wyeth (2005). Obstacle detection using optical flow. Australasian Conference on Robotics and Automation, pp. 1-10.
[Lucas, 1981]
Lucas B.D. y T. Kanade (1981). An iterative image registration technique with an application to stereo vision. DARPA Proceedings of Image Understanding workshop, pp 121-130.
[McCarthy, 2004]
McCarthy C. y N. Barnes (2004). Performance of optical flow techniques for indoor navigation with a mobile robot. In Int. Conf. on Robotics and Automation (ICRA Q04), pp. 5093-5098.
[Mondada et al., 2009]
Mondada F., M. Bonani, X. Raemy, J. Pugh, C. Cianci, A. Klaptocz, S. Magnenat, J.-C. Zufferey, D. Floreano y A. Martinoli. (2009). The e-puck, a robot designed for education in engineering. Proceedings of the 9th Conference on Autonomous Robot Systems and Competitions, pp. 59-65.
[Murray and Buxton, 1990]
Murray D.W. y B. F. Buxton (1990). Experiments in the machine interpretation of visual motion. Ed. MIT Press. Cambridge, Massachusetts.
[Reddy and Chatterji, 1996]
Reddy B.S. y B.N. Chatterji, (1996). An FFT-based technique for translation, rotation, and scale-invariant image registration. IEEE Transactions on Image Processing, vol. 5, n. 8, pp. 1266-1271.
[Romero and Salazar, 2010]
Romero H., S. Salazar, J. Escareño y R. Lozano (2010). Fusión de Flujo Óptico y Sensores Inerciales para la Estabilización de un Mini Helicóptero de Cuatro Rotores. RIAI, vol.7, n. 2, pp. 49-56.
[Srinivasan, 1994]
Srinivasan M.V. (1994). An image interpolation technique for the computation of optic flow and egomotion. Biological Cybernetic, vol. 71, pp. 401-416.
[Uras et al., 1988]
Uras S., F. Girosi, A. Verri y V. Torre (1988). A computational approach to motion perception. Biological Cybernetics, vol. 60, pp 79-87.
[Weickert and Ruhn, 2005]
Weickert J., A. Ruhn y C. Schnörr (2005). Lucas/Kanade meets Horn/Schunck: Combining local and global optic flow methods. Int. J. Comput. Vis., vol. 61, no. 3, pp. 211-231.
[Zufferey, 2005]
Zufferey J.C. (2005). Bio-inspired vision-based flying robots, PhdThesis, École Polytechnique Fédérale de Lausanne.
Copyright © 2011. Elsevier España, S.L.. Todos los derechos reservados
Descargar PDF
Opciones de artículo