Revista UNIMAR 35(2)- Rev. Unimar - pp. 239-253.ISSN: 0120-4327, ISSN Electrónico: 2216-0116, Universidad Mariana, San Juan de Pasto, Nariño, Colombia, 2017.Reconstrucción de objetos 3d con simetría axial a partir de triangulación láser239RESUMENISSN: 0120-4327, ISSN Electrónico: 2216-0116, Universidad Mariana, San Juan de Pasto, Nariño, Colombia, 2017. Reconstrucción de objetos 3d con simetría axial a partir de triangulación láser*Dagoberto Mayorca Torres**Anghelo Marino López***Cómo citar este artículo / To reference this article / Para citar este artigo: Mayorca, D. y López, A. (2017). Reconstrucción de objetos 3d con simetría axial a partir de triangulación láser. Revista UNIMAR, 35(2), 239-253. Fecha de recepción: 16 de noviembre de 2016Fecha de revisión: 03 de marzo de 2017Fecha de aprobación: 05 de abril de 2017Esta investigación se centra en la implementación y análisis de un sistema de reconstrucción de objetos tridimensionales con simetría axial mediante técnica de triangulación láser. El sistema se basa en la disposición de una cámara web que permite la adquisición de las imágenes de un objeto que se encuentra frente a un sistema de proyección de base ja, y que permite la proyección directa de una línea láser sobre el objeto con supercie difusa. El barrido angular se realiza mediante un motor paso a paso que permite la rotación controlada del objeto; las imágenes son almacenadas y analizadas por algoritmos de procesamiento de imágenes que permiten nalmente la obtención de la topografía del objeto tridimensional. La resolución topográca fue estimada mediante técnica de mínimos cuadrados y se realizó sobre guras geométricas tridimensionales de dimensiones conocidas, como cilindro circular, cilindro rectangular y cilindro hexagonal. El valor obtenido de error fue basado en la comparación de los datos mapeados y medidas de referencia; el valor de error fue en promedio de ± 0,13 en el eje X, ± 0,13 mm en eje Y y ±0.10 mm en el eje Z. La resolución del sistema es alrededor 0.3mm.Palabras clave: Reconstrucción 3D, triangulación láser, metrología óptica, simetría axial.Reconstruction of 3d objects with axial symmetry from laser triangulationThis article describes the 3D reconstruction of an object that possesses axial symmetry from the laser triangulation method; the system allows obtaining the shape and dimensions of an object by directional light projection in structured form and controlled rotation of the object. The system consists of a lighting stage through the projection of a laser line, a system of acquisition through the use of a webcam and the design of a platform that is responsible for the rotation controlled by a motor coupled to a box speed reducer. The software application allows synchronizing the system through the USB port, to nally perform the image processing and the display of the results obtained in a graphical interface. Experimental design considerations and their limitations as minimum resolution, accuracy of measures are detailed in this article.Key words: 3D Reconstruction, laser triangulation, optical metrology, axial simmetry.* Artículo Resultado de Investigación. **Especialista en gerencia de proyectos Ingeniero Físico (Universidad del Cauca). Docente Facultad de Ingeniería (Universidad Mariana), integrante del Grupo de Investigación GRIM de la Universidad Mariana; Correo electrónico institucional: dmayorca@umariana.edu.co.*** Candidato a Magister en Sistemas Automáticos de Producción (Universidad Tecnologica de Pereira). Ingeniero Electronico (Universidad de Na-riño). Director de Ingeniería mecatrónica, Integrante del Grupo de Investigación GRIM de la Universidad Mariana; Correo electrónico institucional: alopez@umariana.edu.co.ABSTRACT
Revista UNIMAR 35(2)- Rev. Unimar - pp. 239-253.ISSN: 0120-4327, ISSN Electrónico: 2216-0116, Universidad Mariana, San Juan de Pasto, Nariño, Colombia, 2017.Dagoberto Mayorca Torres, Anghelo Marino López240RESUMOReconstrução de objetos 3D com simetria axial da triangulação a laserEste artigo descreve a reconstrução 3D de um objeto que tem uma simetria axial do método de triangulação laser; o sistema pode medir a forma e as dimensões de um objeto pela projeção de luz estruturada e rotação controlada do objeto. O sistema consiste de uma iluminação de palco, projetando uma linha de laser, um sistema de aquisição usando um webcam e projetar uma plataforma que é responsável por controlar a rotação de um motor acoplado a uma caixa redutora de velocidade. O aplicativo de software permite sincronizar o sistema através da porta USB para nalmente realizar o processamento de imagem e exibição dos resultados em uma interface gráca. As considerações de design experimentais e limitações como resolução mínima, medições de precisão são detalhados neste artigo.Palavras-chave: Reconstrução 3D, triangulação laser, metrologia óptica, simetria axial.1. IntroducciónEl desarrollo de sistemas de reconstrucción 3D de objetos está cobrando gran relevancia, dadas sus potenciales aplicaciones en campos como la medi-cina, la seguridad, el desarrollo de entornos virtua-les, la conservación de objetos de valor cultural, los procesos industriales y el control de calidad, entre otros. Esto es especialmente útil en objetos comple-jos en términos de sus formas, contornos y bordes, elementos clave en el modelado de piezas mecáni-cas, moldes, objetos ergonómicos o estéticos (Moc-cozet, s.f.). La reconstrucción tridimensional consiste en la re-producción de un objeto real en el computador, de modo que sean conservadas sus características físi-cas como forma, dimensión, relación de aspecto y volumen. Las mejoras en la tecnología de medición óptica han hecho posible capturar geometrías tridi-mensionales con relativa facilidad. Muchos son los sistemas de reconstrucción de geometrías que han sido desarrollados; sin embargo, no ha sido estable-cida una metodología general y automatizada para crear modelos geométricos a partir de dicha tecno-logía (Santolaria, s.f.).Dentro de los métodos existentes hay dos alter-nativas para su realización: el primero es a través del contacto mecánico entre el objeto de interés y una punta de prueba que recorre toda su super-cie, transriendo las coordenadas de cada punto al computador. La resolución de este método depende de la resolución del sistema de desplazamiento de la punta; sin embargo, el proceso de reconstrucción es muy lento, pudiendo tardar horas, e incluso días, para reconstruir una pieza; además, el contacto mecánico puede dañar la supercie del objeto (Kus, 2009). El segundo método se fundamenta en la interac-ción del objeto que elimina la necesidad de contac-to mecánico. Dentro de estas técnicas, las que más aceptación han tenido y que han sido ampliamente estudiadas son las que están fundamentadas en mé-todos ópticos, que utilizan una conguración cono-cida de haces luminosos que son proyectados sobre el objeto de estudio, y a través de visión articial se obtiene las coordenadas de los puntos muestreados del objeto. Con la ayuda de algoritmos se realiza la conexión entre ellos, para generar los elementos de supercie que permitan obtener la forma y dimen-siones del objeto.La triangulación láser es una técnica óptica que permite determinar las dimensiones de un objeto mediante la interpretación de la imagen generada por un haz de láser reejado en la supercie ana-lizada, basándose en los planteamientos teóricos del comportamiento de la perspectiva. Esto se lo-gra mediante la obtención de una imagen con la posición del espectro del láser en la supercie del objeto en análisis. El desplazamiento medido se puede relacionar directamente con la distancia en la que se ubica la supercie respecto al sensor para, nalmente, obtener una topografía del objeto en 3D (Cock, 2000).En este trabajo se describe la implementación de un sistema de reconstrucción tridimensional basado
Revista UNIMAR 35(2)- Rev. Unimar - pp. 239-253.ISSN: 0120-4327, ISSN Electrónico: 2216-0116, Universidad Mariana, San Juan de Pasto, Nariño, Colombia, 2017.Reconstrucción de objetos 3d con simetría axial a partir de triangulación láser241en triangulación láser, que presenta una solución a la problemática de la reconstrucción supercial de productos, utilizando un escáner tridimensional basado en componentes comerciales de bajo costo, que permite obtener la forma completa del objeto a través de su rotación sobre un eje de referencia. Se describe el modelo utilizado, los algoritmos desa-rrollados, la calibración del sistema y los problemas encontrados (Geng, 2011).1.1 Antecedentes TeóricosTécnicas de procesamiento de imágenes. La visión articial consiste en la deducción automática de la estructura y propiedades de un mundo tridimen-sional, mediante la captación de imágenes desde una cámara CCD y su posterior tratamiento a tra-vés de técnicas de procesamiento avanzadas, per-mitiendo así la extracción de características de una imagen, donde sus propiedades incluyen propieda-des geométricas (forma, tamaño y localización) y propiedades materiales (color, textura, iluminación y composición).El concepto de imagen está asociado a una fun-ción bidimensional, cuyo valor será el grado de in-tensidad de luz en el espacio en coordenadas de la imagen en cada punto. A cada punto discreto de la imagen se le llama píxel. El valor del píxel depen-de de la cantidad de luz que incide sobre el objeto, así como de la parte que es reejada. Las principa-les causas que llevan a la pérdida de información cuando se adquiere una imagen, son la naturaleza discreta de los píxeles y los valores que son capaces de medir. No existen criterios que permitan deci-dir el número óptimo de píxeles y de bits con los que muestrear una determinada imagen. Distintos estudios experimentales han llegado a la conclusión de que existen determinados valores de umbral por encima de los cuales no se aprecia una signicativa ganancia, pero por debajo de ellos sí se aprecia una pérdida efectiva en la imagen.Técnica de Triangulación Láser. El método de triangulación láser centra su funcionamiento en proyectar una fuente de luz estructurada sobre un objeto para conocer las dimensiones en 3D del ob-jeto. “La intersección entre la iluminación proyecta-da y la supercie del cuerpo a reconstruir, produce un único patrón deformado dependiendo de las di-mensiones y forma del cuerpo” (Ledezma, Patiño, A., Patiño, J., 2007, p. 132). Con el n de reconstruir el objeto, se hace necesario proyectar la línea láser sobre todos los puntos de interés; para lograrlo exis-ten dos métodos, principalmente: la translación ho-rizontal del objeto bajo el haz lineal de luz, y la rota-ción del objeto de 360 º bajo la línea láser alrededor de un eje de referencia.Para el sistema de reconstrucción implementado se utilizó el método de rotación; en este caso el obje-to se ubica sobre una plataforma rotatoria, como se ilustra en la Figura 1. La imagen de la línea de-formada por la topografía del objeto es capturada por una cámara, cada vez que la plataforma rota un determinado ángulo, hasta completar los 360 º. El eje óptico de la cámara y el plano láser proyectado forman un ángulo de inclinación . El desplazamien-to lateral di que sufre cada punto de la línea pro-yectada respecto a una línea de referencia depende de este ángulo de inclinación, de la topografía del objeto y de su coordenada radial respecto al eje de rotación (Forest, 2004). Figura 1. Sistema de triangulación laser por rotación im-plementado para la reconstrucción del objeto.Utilizando un sistema de coordenadas cilíndricas, con el eje z coincidiendo con el eje de rotación, las coordenadas (rii,zi) del i-ésimo punto en la inter-
Revista UNIMAR 35(2)- Rev. Unimar - pp. 239-253.ISSN: 0120-4327, ISSN Electrónico: 2216-0116, Universidad Mariana, San Juan de Pasto, Nariño, Colombia, 2017.Dagoberto Mayorca Torres, Anghelo Marino López242sección de la supercie del objeto y la línea proyec-tada, se determina mediante aproximación telecén-trica dada por las ecuaciones (1,2 y 3):(1)θi= ∆θ.i(2)zi = zi(3)… donde ∆θ es el ángulo mínimo que puede girar la plataforma de manera controlada, mientras que i es el número de pasos que ha girado la plataforma:(4)A partir de la imagen capturada por la cámara, es posible determinar di y zi que corresponden al des-plazamiento lateral que sufre la línea con respecto a la línea de referencia sin objeto y la profundidad del objeto calculado a partir de la deformación. Para lograrlo se hace necesario determinar de manera precisa la relación que existe entre la posición del píxel y las coordenadas del mundo real, lo que se consigue a través de un proceso experimental de calibración, el cual permite traducir los píxeles de la cámara a su equivalencia en milímetros sobre el sistema coordenado (x, y, z) del cuerpo, teniendo en cuenta la perspectiva de observación (Schnee y Fuerlieb, 2011). Para reconstruir la totalidad de la supercie se captura una imagen por cada paso de barrido, pero de esa imagen solo es importante la información que contiene de la línea deformada; lo demás es información del fondo que no es de inte-rés, situación que se maximiza si se tiene en cuenta que por cada desplazamiento angular de la plata-forma es necesario capturar una imagen. Con el n de representar grácamente la supercie reconstruida, se hace necesario convertir el conjun-to de coordenadas cilíndricas en coordenadas rec-tangulares; para realizarlo se utiliza las siguientes transformaciones:xi = ri cos(θi)(5)yi = ri sen(θi)(6)zi = zi(7)Una vez se tiene las coordenadas rectangulares 3D del objeto, se puede enviar los resultados de la nube de puntos a una API de visualización en 3D; en este caso, se usa la plataforma de OPENGL, biblioteca que permite la visualización de escenas tridimen-sionales complejas a partir de primitivas geométri-cas simples de puntos adquiridos para la genera-ción de grácos y reconstrucción de supercies. Un proceso subyacente es la generación de la supercie y generación de la malla mediante métodos de in-terpolación de datos (Argüello-Sarmiento, Barrero-Pérez y Meneses-Fonseca, 2012).2. MetodologíaEl sistema desarrollado se puede descomponer en tres partes: Un sistema mecánico de rotación con-trolado por computador, el sistema de iluminación y captura de las imágenes y una aplicación soft-ware que se encarga de la sincronización de los dos sistemas anteriores y del registro, procesamiento y despliegue de la información 3D del objeto a re-construirse. Finalmente, se aplica un método para la generación de la malla basado en métodos de inter-polación de puntos y basado en la información de color de la escena.En la Figura 2 se muestra un diagrama de bloques que describe todo el proceso, cada una de las eta-pas que realiza el software de reconstrucción y la secuencia que sigue.
Revista UNIMAR 35(2)- Rev. Unimar - pp. 239-253.ISSN: 0120-4327, ISSN Electrónico: 2216-0116, Universidad Mariana, San Juan de Pasto, Nariño, Colombia, 2017.Reconstrucción de objetos 3d con simetría axial a partir de triangulación láser243Figura 2. Diagrama de bloques del proceso de reconstrucción.2.1 Calibración de cámara Los instrumentos de medición requieren métodos que permitan garantizar la precisión y la exactitud; los procedimientos de calibración establecen una comparación del instrumento con un patrón de re-ferencia para la estimación de errores. Cuando se realiza mediciones sobre imágenes digitales, la ca-libración de la cámara permite obtener distancias en el mundo real a partir de las imágenes tomadas. Una parte de la calibración de la cámara es la esti-mación de los parámetros intrínsecos de la misma, los cuales modelan la geometría interna de la cáma-ra y las características ópticas del sensor. Estos pa-rámetros determinan las coordenadas de un punto en la imagen a partir de la posición del punto en la escena, mientras los parámetros extrínsecos miden la posición y la orientación de la cámara respecto al sistema de coordenadas establecido para el mundo.En la actualidad existen varios métodos para la ca-libración de una cámara. Uno de ellos son los mé-todos lineales que utilizan resolución de sistemas de ecuaciones basados en mínimos cuadrados que obtienen una matriz de transformación que rela-ciona los puntos tridimensionales en el mundo, con sus proyecciones sobre la imagen. Otros métodos de calibración incluyen las distorsiones que produ-ce la cámara; es necesario minimizar índices no li-neales de forma iterativa; su ventaja radica en que cualquier modelo puede ser calculado y además, la exactitud del mismo aumenta con el número de ite-raciones hasta que converge (Ahmed y Farag, 2005). Existen estudios sobre los errores cometidos en la calibración, debidos a imprecisiones en las medidas del plano de la imagen, dando como resultado una asociación errónea de un punto en el mundo real. Un modelo muy complejo puede complicar mucho el algoritmo de búsqueda, y los resultados obteni-dos, no mejorar signicativamente frente a otro mo-delo más simple (Weng, Huang y Ahuja, 1989).El método de Tsai (Tsai, 1987) representa un proceso clásico de calibración basado en las medidas de las coordenadas de los puntos de una plantilla 3D res-pecto a un punto de referencia jo. Por el contrario, el método de Zhang (1998) representa una nueva era en el proceso de calibrado de la cámara. Este méto-do utiliza las coordenadas de los puntos situados en un patrón de ajedrez 2D, tomando diferentes imáge-nes desde distintas posiciones y orientaciones. Este modo de calibración resulta muy exible desde el punto de vista de que tanto la cámara como la plan-tilla pueden ser movidas libremente, y además se puede tomar tantas imágenes como se quiera, sin tener que volver a realizar medidas en la plantilla. El método de calibración de Zhang basado en plan-tilla 2D no requiere especial diseño de la plantilla, y tampoco una medición tan exacta de los puntos de la misma. A partir de los resultados obtenidos por estos dos autores, se toma el método de Zhang como referencia para el calibrado de la cámara.
Revista UNIMAR 35(2)- Rev. Unimar - pp. 239-253.ISSN: 0120-4327, ISSN Electrónico: 2216-0116, Universidad Mariana, San Juan de Pasto, Nariño, Colombia, 2017.Dagoberto Mayorca Torres, Anghelo Marino López244Figura 3. Método de calibración mediante patrón de ajedrez.El patrón de calibración usado fue un arreglo de ajedrez de 12x7 cuadros, con un valor de 13mm de lado, y se realizó el proceso de calibración con un total de 40 imágenes, sucientes para la determinación de matriz intrínseca de la cámara. La matriz obtenida fue la siguiente:(6)Los parámetros hacen referencia a las distancias focales en cada uno de los ejes, mientras la coordenada del centro de la imagen, en pixeles de la ecuación (6). Con relación a los parámetros extrínsecos, se obtuvo la pose de la cámara mediante matriz de rotación R y vector de translación T.Figura 4. Estimación de pose de la cámara.
Revista UNIMAR 35(2)- Rev. Unimar - pp. 239-253.ISSN: 0120-4327, ISSN Electrónico: 2216-0116, Universidad Mariana, San Juan de Pasto, Nariño, Colombia, 2017.Reconstrucción de objetos 3d con simetría axial a partir de triangulación láser245Las matrices obtenidas están descritas a continuación:(6)2.2 Sistema de control de rotaciónTiene como objetivo, permitir el desplazamiento angular del objeto, de tal forma que la línea láser pueda iluminar todos los puntos de interés sobre la supercie a reconstruir. Este sistema debe estar de-bidamente ajustado y balanceado, de modo que no introduzca desplazamientos laterales que distorsio-nen la reconstrucción. En este módulo se utilizó como actuador, un motor paso a paso con una resolución de 1.8 grados por paso, lo que permitiría digitalizar el contorno del objeto con 200 pasos. Para aumentar su resolución del sistema se le adicionó una caja reductora de ve-locidad con una relación de 1 a 3.5, lo que aumentó la resolución del paso de giro hasta 0.51 grados por paso, permitiendo una digitalización del contorno con 700 pasos. El movimiento del motor se controla con la ayuda de un microcontrolador, el cual se en-carga de suministrar las señales correspondientes para su rotación; la señal de sincronización entre los elementos del sistema se genera a través del com-putador y se comunica al microcontrolador a través del puerto USB.2.3 Sistema de iluminaciónLa iluminación del objeto se realiza mediante luz láser que se encuentra colocada en una base ja, a una altura de 0.15m, cuyo objetivo principal es in-terceptar la supercie del objeto y, mediante una es-timación de la deformación de la línea, obtener una relación de profundidad del mismo. La línea láser de foco ajustable de 5mW a 5v Industrial Grade, que genera un haz con una longitud de onda de 650 nm, corresponde a luz roja visible. Uno de los principa-les factores a tener en cuenta es que la distribución del patrón de intensidad generado es mayor hacia el centro de la línea, debido a que una de las carac-terísticas del sistema es por proyección telecéntrica, donde el eje de simetría de la plataforma debe coin-cidir con la línea láser proyectada; esto se consiguió colocando un sistema de guía a lo largo del eje y, mediante rotación controlada del objeto, se verica la simetría de la línea con respecto a la referencia; de esta manera se realiza el ajuste en el sistema de iluminación. El sistema inicia el proceso de recons-trucción una vez es validada esta etapa.Figura 5. Alineación de eje geométrico de simetría con eje de giro de la plataforma.2.4 Procesamiento de imágenesEl software utilizado para realizar la reconstrucción fue desarrollado en lenguaje C++ y la biblioteca que se utilizó fue OpenCV, la cual permite de una ma-nera rápida y eciente el uso de funciones de proce-samiento de imágenes. La primera etapa es registrar y almacenar las imágenes capturadas del objeto, así como sincronizar el movimiento de la plataforma giratoria, con el n de obtener la imagen cuando el objeto se encuentre estático, de tal manera que sea posible determinar y registrar la posición angular del objeto en el momento de la captura. El sistema de captura consta de una cámara conectada al com-
Revista UNIMAR 35(2)- Rev. Unimar - pp. 239-253.ISSN: 0120-4327, ISSN Electrónico: 2216-0116, Universidad Mariana, San Juan de Pasto, Nariño, Colombia, 2017.Dagoberto Mayorca Torres, Anghelo Marino López246putador a través del puerto USB y una plataforma ajustable que permitía posicionarla de acuerdo con los requerimientos del montaje. El ángulo formado entre la línea láser y el eje óptico de la cámara era de 30°.Figura 6. Componentes del sistema de reconstrucción.En la Figura 6 se muestra una imagen del sistema implementado, en donde se observa la disposición de los elementos que conforman el sistema de re-construcción dentro de un contenedor que consiste en una caja metálica que cumple dos funciones: la primera es brindarles protección a los dispositivos, manteniéndolos aislados del entorno de trabajo, y la segunda es impedir que la iluminación externa introduzca alteraciones en la reconstrucción del ob-jeto. El proceso que sigue es realizar corrección de distorsiones y transformaciones de translación y ro-tación a partir de sistema de referencia mediante la aplicación de las matrices de coecientes obtenidas en el proceso de calibración ya descrito; el resulta-do se puede observar en Figura 7-a, que presenta la imagen calibrada. Una de las principales etapas en los sistemas de vi-sión articial es el mejoramiento de las caracterís-ticas a determinar mediante etapa de preprocesa-miento. La primera etapa es para una conversión en escala de grises, como se observa en la Figura 7-b, y de esta manera realizar un mejoramiento mediante ltrado basado en el alto contraste de las imágenes debido al patrón de Speckle (Castañeda, 1994) de la iluminación del láser; se hace indispensable realizar un suavizado de las imágenes sin perder informa-ción detallada de la línea. Para este objetivo se apli-ca Filtro Kuwahara, ltro no lineal, donde se atenúa las componentes de alta frecuencia que no pertene-cen a los bordes (Figura 7-c) para, a partir de ella, realizar el proceso de segmentación que consiste en la separación de la línea láser del fondo; dados los cambios de iluminación presentes en las imágenes se decide utilizar el método de mezcla de gaussianas (Mixtures of Gaussians), aproximación que accede a los valores de intensidad de cada píxel y determina las intensidades más probables del fondo, donde se obtiene una imagen binarizada (Figura 7-d). Figura 7. Etapas del módulo de procesamiento: a. Imagen capturada, b. Imagen en niveles de gris, c. Imagen ltrada.Finalmente se obtiene el centro de la línea láser de tal forma que su espesor sea de un píxel median-te esqueletización. Una vez se ha obtenido la ima-gen segmentada se aplica ltrado de suavizado de la línea a n de minimizar el número de artefactos para el proceso de esqueletización. Ésta tiene por objetivo, obtener una línea representativa del objeto inicial. El objetivo de los algoritmos de esqueletiza-ción es la obtención del esqueleto con la menor dis-torsión posible, consumiendo el menor número de recursos computacionales. El algoritmo que se implementó fue el propuesto por Zhang y Suen (1984). Los algoritmos de esquele-tización están basados en la ejecución de un conjun-to de iteraciones, donde en cada una se realiza el bo-rrado de los pixeles pertenecientes a los bordes de la imagen, hasta que solamente queda el esqueleto. El borrado de cada pixel requiere de un análisis local de los pixeles vecinos, para determinar si pertenece
Revista UNIMAR 35(2)- Rev. Unimar - pp. 239-253.ISSN: 0120-4327, ISSN Electrónico: 2216-0116, Universidad Mariana, San Juan de Pasto, Nariño, Colombia, 2017.Reconstrucción de objetos 3d con simetría axial a partir de triangulación láser247al borde de la imagen, y si su borrado permite con-servar conectividad con el resto del esqueleto. La mayoría de diferencias entre algoritmos están en la forma implementada para asegurar la conectividad (Lam, Lee y Suen, 1992). Los resultados obtenidos de la aplicación del proceso de esqueletización pue-den ser observados en la Figura 8, donde es posible apreciar el paso de la iteración y sub-iteración del kernel 3x3 usado para esta etapa. Figura 8. a. Segmentación de la imagen, b. Esqueleto de la imagen con ramicaciones, c. Esqueleto de la imagen sin ramicaciones.El procedimiento que realiza el algoritmo es el si-guiente: en cada iteración se tiene dos sub-iteracio-nes, donde se evalúa cada pixel de la imagen con re-lación a cuatro condiciones que debe cumplirse, que permiten que el pixel en cuestión sea borrado, por no tratarse de una parte fundamental del esqueleto de la rma. El resultado de la imagen con los pixe-les que hayan cumplido las condiciones de borra-dos, será la entrada para la siguiente sub-iteración. La última iteración se da cuando se cumple dos sub-iteraciones, donde ningún pixel se borra. Esta información es almacenada en una matriz donde se etiqueta a qué posición angular corresponde, lo que permite desechar la información del fondo, ya que no es relevante para la reconstrucción, pero sí con-sume recursos de cómputo.2.5 Reconstrucción 3D y generación de la mallaEl módulo de reconstrucción recibe la matriz de datos generada en el módulo anterior, y le reali-za la transformación de coordenadas cilíndricas a coordenadas rectangulares, le aplica una corrección para obtener las dimensiones reales del objeto, don-de los coecientes de esta transformación son obte-nidos por medio de un proceso de calibración. Los datos correspondientes al mundo real son proyecta-dos en el sistema de coordenadas bidimensionales de la pantalla, con el n de generar una imagen con aspecto tridimensional. El módulo cuenta con un gestor de mensajes que identica los movimientos del ‘ratón’ del computa-dor y los traduce en desplazamientos y rotaciones del objeto reconstruido, de tal manera que es posi-ble visualizar el objeto desde diferentes perspectivas. Para el desarrollo de esta etapa se utilizó la librería OpenGL, que cuenta con un grupo de funciones op-timizadas para realizar software de animación tridi-mensional con alta eciencia. El método usado para la interpolación de los puntos y generación de la ma-lla es mediante la triangulación Delaunay, una de las más interesantes por ser aplicable para la resolución de multitud de problemas geométricos que involu-cran la formación a partir de un arreglo de puntos, una red de triángulos conexos y convexos. Esta con-dición dice que la circunferencia circunscrita de cada triángulo de la red no debe contener ningún vértice de otro triángulo, y por contar con algoritmos bas-tante ecientes, se usa la implementación dada por la biblioteca de Opencv para la realización de la malla.El software también permite mostrar la matriz de datos de la supercie a ser reconstruida mediante un mapa de temperaturas, o también llamado ‘falso color’, donde el nivel de profundidad está asociado a una escala de color que va desde el azul hasta el rojo, donde la altura de cada punto está codicada en falso color. Para lograrlo se normaliza la matriz de datos, posteriormente se le asigna el color azul al va-lor más bajo y el color rojo al mayor valor; los valores intermedios resultan a través de una función de in-terpolación que permite degradar el color entre estos dos extremos en función de la altura de cada punto.3. ResultadosEl dispositivo de captura es una cámara web con una resolución de 1920 x 760. Al poseer diferente re-solución entre el horizontal y el vertical, los ángulos de apertura (horizontal y vertical) del campo de vi-sión son diferentes y tienen utilidades distintas. En el caso de la horizontal, será utilizado para determi-nar la distancia mínima que debe existir entre la cá-a.b.c.
Revista UNIMAR 35(2)- Rev. Unimar - pp. 239-253.ISSN: 0120-4327, ISSN Electrónico: 2216-0116, Universidad Mariana, San Juan de Pasto, Nariño, Colombia, 2017.Dagoberto Mayorca Torres, Anghelo Marino López248mara y el objeto, a n de poder asegurar que todo el ancho del objeto se encuentre en el campo de visión de la cámara. En el caso de la vertical, será utilizado para calcular la equivalencia entre un píxel y los án-gulos que corresponde. Luego del desarrollo de cada una de las fases del sistema, se procedió a mostrar y detallar los resul-tados obtenidos en cada una de las fases. Luego del proceso de barrido del objeto se procedió a estimar la nube de puntos dada, las coordenadas cilíndricas del objeto y su posterior conversión a coordenadas rectangulares , el resultado obtenido es un conjunto de puntos, también llamada ‘Nube de puntos’ como se observa en la Figura 9a. A partir de la nube de puntos es posible generar malla; para ello se utili-za la función Delaunay, implementada en Opencv para la generación de triángulos de la malla. El re-sultado se puede observar en la Figura 9b. Figura 9. a. Nube de puntos, b. Objeto construido con renderi-zado en forma de malla.En la Figura 9 se presenta la reconstrucción del mis-mo objeto, pero con la ayuda de la librería OpenGL; en este caso la visualización mejora sustancial-mente, aunque la matriz de datos es la misma. Esta mejora en la visualización se logra debido a las funciones de interpolación con las que cuenta esta aplicación, al manejo de un buer1 de profundidad que permite identicar qué parte de la supercie es la más externa, de modo que no se graque más de un punto de la supercie del objeto sobre el mismo punto del plano de visualización; además, la rota-ción y la translación del objeto son mucho más rá-pidas, de tal manera que casi no se percibe retardo entre el desplazamiento del ‘ratón’ y el movimiento del objeto; esto se logra con el almacenamiento de las coordenadas de reconstrucción en una lista pre-viamente llenada y a la técnica de visualización de doble buer, donde se graca primero en memoria y luego se copia al buer de visualización. Figura 10. Objeto reconstruido con OpenGL.Las Figuras 11 y 12 muestran otros objetos que fue-ron tomados como muestra y su reconstrucción res-pectiva. En estas imágenes se observa que el sistema permite obtener la forma del objeto y se conserva la relación entre sus dimensiones, lo que se debe al proceso de calibración del sistema. La resolución de reconstrucción obtenida varía para cada uno de los ejes y fue ± 0,3 mm en dirección horizontal, de ± 0,1 mm en dirección vertical y de ± 0.20 en la dirección radial. La diferencia se debe a que la dirección hori-zontal depende de la resolución de giro de la plata-forma; para este caso, 0.51 grados sexagesimales por paso; para la vertical se digitalizó el objeto con 1.920 píxeles, y en profundidad depende del número de píxeles y del ángulo de observación.Figura 11. Reconstrucción de una jarra en cerámica.1 Buer: memoria de almacenamiento temporal de información que permite transferir los datos entre unidades funcionales con características de transfe-rencia diferentes (Diccionario de la Lengua Española, 2011).a.b.
Revista UNIMAR 35(2)- Rev. Unimar - pp. 239-253.ISSN: 0120-4327, ISSN Electrónico: 2216-0116, Universidad Mariana, San Juan de Pasto, Nariño, Colombia, 2017.Reconstrucción de objetos 3d con simetría axial a partir de triangulación láser249Figura 12. Reconstrucción de una olla de barro.Los objetos reconstruidos no excedían los 8.0 cm. de diámetro y su altura era inferior a 8.0 cm. Su recons-trucción tardó alrededor de 3 minutos, invirtiendo la mayor cantidad de tiempo en la captura de los datos, debido al movimiento lento del sistema de ro-tación para evitar los cabeceos de la pieza.4. DiscusiónUna vez realizada la implementación del sistema de reconstrucción 3D se procede a la identica-ción de los errores presentes en las medidas, para su atenuación en cada una de las etapas de la re-construcción; uno de los errores está relacionado con la sincronización del sistema de adquisición y rotación del objeto que puede generar vibraciones y movimiento sobre las imágenes obtenidas. Esto trae como consecuencia, pérdida de detalles en los bordes del objeto y suavizado de los mismos en la reconstrucción nal. El sistema óptico de captura de imágenes posee aberraciones y distorsiones ópticas que alteran las dimensiones del objeto; por ende, el proceso de ca-libración de la cámara es un proceso necesario a n de reducir la inuencia sobre las medidas del ob-jeto. Otra fuente de error presente sobre el sistema es el ruido electrónico que afecta directamente el sensor CCD de la cámara, generado principalmente por el ruido coherente ocasionado por el láser, dado que éste interere en la distribución de intensidad y diculta el proceso de identicación de los puntos centrales de la línea láser adquirida sobre la ima-gen digital. Estos errores son atenuados mediante algoritmo que permite la restauración de la línea, basado en la información de los píxeles vecinos y el patrón generado.Dentro del proceso de reconstrucción se evidencia algunos problemas que afectan el funcionamiento del sistema; entre los principales se puede citar: -el ruido generado por el esparcimiento de la luz en los bordes del objeto, que origina dicultades en el proceso de segmentación y produce unos contor-nos con baja denición; -la no uniformidad en la iluminación de la línea láser, que produce dicul-tades para binarizar la imagen por métodos con-vencionales; -la dependencia de la reexión de las propiedades de la supercie, en especial del color, lo que diculta la separación de la línea del fondo; -la pérdida de la línea cuando hay variaciones en la continuidad del objeto.La segmentación de las imágenes usa un modelo probabilístico basado en la máxima probabilidad de encontrar un pixel que corresponde al objeto de interés; este proceso es acumulativo y permi-te que sea adaptativo en el tiempo. Para mejorar la iluminación del objeto se usó talco para atenuar las diferencias de reactancia entre sus zonas, y se aplicó ltros digitales a las imágenes, para mejorar la calidad de las imágenes de la línea láser.Además de la captura de las imágenes, es necesa-rio realizar la estimación de pose que comprende las trasformaciones de traslación y rotación del sis-tema coordenado basado en el cálculo del eje de rotación. De la misma manera, basándose en los parámetros extrínsecos de la cámara, se puede en-contrar la relación entre la medida en píxeles en la imagen y la medida real del objeto. Este proceso de calibración tiene una relación directa con el gra-do de empalme entre las diferentes regiones de un cuerpo reconstruido.Una vez realizado el análisis del error detallado de los componentes y su propagación a la imagen -nal, se realiza un análisis de error sobre la recons-trucción tridimensional de un objeto previamente medido, y se procede a realizar la estimación de error a partir de una comparación con otro instru-mento de medida. Para hacer el análisis de error de los objetos reconstruidos, se tomó las medidas físicas del objeto con un calibrador y se comparó sus diferencias. Las guras de referencia tomadas fueron un cilindro circular, uno rectangular y uno hexagonal. Las dimensiones de los objetos son plasmadas en la Tabla 1.
Revista UNIMAR 35(2)- Rev. Unimar - pp. 239-253.ISSN: 0120-4327, ISSN Electrónico: 2216-0116, Universidad Mariana, San Juan de Pasto, Nariño, Colombia, 2017.Dagoberto Mayorca Torres, Anghelo Marino López250Tabla 1. Dimensiones de guras de referenciaObjetoDimensionesCilindro circularRadio: 25.10 mm Altura:65.50Cilindro rectangularLado: 40.20 mm Altura:40.55Cilindro hexagonalLado: 15.50 mm Altura:35.55Para el análisis de error se consideró los objetos cuyo contorno eran un círculo, un rectángulo y un hexá-gono de dimensiones conocidas; los datos obtenidos fueron gracados para los datos reconstruidos para el cilindro circular (ver Figura 13). Debido a la simetría axial del objeto, se procedió a realizar los cálculos en la dirección axial y la dirección transversal.El procedimiento para el cálculo de error fue realizar proyección de los puntos reconstruidos en el plano XY (Puntos azules de la gura) y gura de referencia a partir de geometría ideal, cuyas medidas fueron obtenidas con un calibrador. Luego se elaboró la diferencia entre el valor medido y el valor de referencia para obtener el valor absoluto, como se muestra en la Figura 13. El valor de error fue calculado a partir de la desviación estándar de las mediciones.Figura 13. Distancia entre los datos reconstruidos y datos de referencia del contorno circular.Para el caso del error transversal (a través del eje Z) se procede a tomar las líneas sobre el eje Z que forman el cilindro, también llamadas ‘tirillas de reconstrucción’.
Revista UNIMAR 35(2)- Rev. Unimar - pp. 239-253.ISSN: 0120-4327, ISSN Electrónico: 2216-0116, Universidad Mariana, San Juan de Pasto, Nariño, Colombia, 2017.Reconstrucción de objetos 3d con simetría axial a partir de triangulación láser251Estas mediciones de error fueron realizadas para las 3 guras geométricas seleccionadas. El error total se obtuvo mediante la suma de los cuadrados del error axial, y el error transversal y los resultados fueron los siguientes:Tabla 2. Errores de los objetos para los 3 objetos reconstruidos como referenciaObjetoError Axial (desviaciónestándar)[mm]Error Transversal (desviaciónestándar)[mm]Error Total (desviaciónestándar)[mm]Cilindro circular0.110.070.13Cilindro rectangular0.120.080.14Cilindro hexagonal0.130.100.15Como se logra observar, el máximo valor de error encontrado en la reconstrucción se cometió en el objeto con contorno hexagonal, lo que se esperaba, ya que es la gura más pequeña a reconstruir y por lo tanto es más sensible a errores, siendo aproximadamente 0.15 mm. Es decir, el sistema puede medir un contorno en un campo transversal de 35.50 mm con un error máximo del orden de 0.15 mm. Para la estimación de la resolución y determinar la ecacia para la detección de cambios sobre la región axial se procedió a añadir cinta adhesiva al contorno del cilindro circular. Se hizo pruebas para 1, 2 y 3 cintas adheridas y superpues-tas, a n de determinar el grosor de la cinta.Figura 14. Distancia entre los datos reconstruidos y los datos de referencia del con-torno circular. Error en el plano: STD: 0.17
Revista UNIMAR 35(2)- Rev. Unimar - pp. 239-253.ISSN: 0120-4327, ISSN Electrónico: 2216-0116, Universidad Mariana, San Juan de Pasto, Nariño, Colombia, 2017.Dagoberto Mayorca Torres, Anghelo Marino López252Tabla 3. Errores y cálculo de grosor de la cintaObjetoError Total (desviaciónestándar)[mm]Grosor de la Cinta[mm]1 capa de cinta0.180.312 capas de cinta0.170.603 capas de cinta0.160.80A partir de la Tabla 3 se puede observar que el valor aproximado de espesor es de 0,3mm, lo cual es ra-zonable, ya que el error total encontrado en el análisis anterior es del orden de 0.15mm. A partir de esta información es posible encontrar el error: en el eje X es 0.13 mm; en el eje Y es 0.13 mm y en el eje Z es 0.10 mm. La resolución es de alrededor de 0.3mm.5. ConclusionesEn este artículo se presenta los resultados proce-dentes del prototipo implementado. A partir de los datos obtenidos se evidencia lo siguiente:Se logró diseñar un sistema que realiza mediciones de profundidad mediante técnica de triangulación 3D con la aplicación de herramientas de geometría computacional, procesamiento de imágenes e inter-polación, alcanzando un error total de 0.15mm. Se logró estimar el error axial y transversal.La presencia de cambios en el contorno del or-den de 0,3 mm es fácilmente detectable y medible por el sistema.Se logró caracterizar al escáner láser de trian-gulación con una resolución angular de 0.5 °, así como elaborar un protocolo adecuado de adqui-sición de datos, demostrando que es posible su aplicación para medición y monitoreo de piezas de mayor escala.El sistema implementado permitió realizar la re-construcción 3D de las muestras utilizadas con una precisión bastante alta, en parte debido a que los ob-jetos eran de dimensiones relativamente pequeñas, lo que permitía su digitalización con un alto núme-ro de píxeles; sin embargo, aunque la reconstrucción fue exitosa, se hace necesario un tratamiento previo de la muestra, con el n de disminuir los errores sistemáticos que pueden alterar su reconstrucción, y mejorar la denición del contorno. Es necesario diseñar una estrategia que permita minimizar el efecto del esparcimiento en los bordes, que no se lo-gró eliminar en su totalidad en este trabajo.6. Conicto de interesesLos autores de este artículo declaran no tener ningún tipo de conicto de intereses del trabajo presentado. ReferenciasAhmed, M. & Farag, A. (2005). Non metric calibration of camera lens distortion: dierential methods and robust estimation. IEEE Transactions on Image Processing, 14(8), 1215-1230.Argüello-Sarmiento, G., Barrero-Pérez, J. y Meneses-Fonseca, J. (2012). Reconstrucción tridimensional de objetos con simetría axial a partir del método de triangulación láser con múltiples sistemas de observación. Revista UIS Ingenierías 11(2).Castañeda, R. (1994). Interferometría de Speckles. Revista de la Facultad de Ciencias, 4(2), Universidad Nacional de Colombia, Sede Medellín.Cock, J. (2000). El método de la triangulación aplicado en un escaner laser, para objetos tridimensionales. Revista Universidad Eat, 25-31.Forest, J. (2004). New methods for triangulation-based shape acquisition using laser scanners (Tesis doctoral). Universitat de Girona.Geng, J. (2011). Structured-light 3D surface imaging: a tutorial. Advances in Optics and Photonics, 3(2), 128-160.Kus, A. (2009). Implementation of 3D Optical Scanning Technology for Automotive applications. Recuper-ado de hps://www.ncbi.nlm.nih.gov/pmc/articles/PMC3345859/
Revista UNIMAR 35(2)- Rev. Unimar - pp. 239-253.ISSN: 0120-4327, ISSN Electrónico: 2216-0116, Universidad Mariana, San Juan de Pasto, Nariño, Colombia, 2017.Reconstrucción de objetos 3d con simetría axial a partir de triangulación láser253Moccozet, L., Dellas, F., Magnenat-Thalmann, N., Biasoi, S., Mortara, M., Falcidieno, B. ... Veltkamp, R. (s.f.). Animatable Human Body Model Reconstruction from 3D Scan Data using Templates. Recuperado de hp://www.patrickmin.nl/pubs/moccozet04.pdfLam, L., Lee, S. & Suen, C. (1992). Thinning Methodologies - A Comprensive Survey. IEEE Transactions on Paern Analysis and Machine Inteligence, 14(9), 869-885.Ledezma, Ó., Patiño, A. & Patiño, J. (2007). 3D Surface Scanner for Fuzzy Objects. Revista Colombiana de Tecnologías de Avanzada 2(10), 131-134.Real Academia Española. (RAE). (2011). Real Diccionario de la Academia de la Lengua Española, RAE, vigésima segunda edición virtual. Recuperado de hp://www.rae.es/rae.htmlSantolaria, J., Aguilar, J., Lope, M., Yagüe, J., Royo, J. y Puertas, J. (s.f.). Digitalización rápida de modelos: métodos, instrumentos, estrategias de digitalización y análisis de la precisión obtenida mediante un sensor láser por triangulación. Recuperado de hp://www.egraca.unizar.es/ingegraf/pdf/comunicacion17058.pdfSchnee, J. & Fuerlieb, J. (2011). Laser Line Extraction with Dynamic Line Models. Recuperado de hps://link.springer.com/chapter/10.1007/978-3-642-23672-3_16Tsai, R. (1987). A versatile camera calibration technique for high-accuracy 3D machine vision metrology using o-the-self TV cameras and lenses. IEEE Journal of Robotics and Automation, 3(4), 323-344.Weng, J., Huang, T. & Ahuja, N. (1989). Motion and structure from two perspective views: algorithms, error analysis and error estimation. IEEE Transactions on Paern Analysis and Machine Intelligence 11(5).Zhang, T. y Suen, C. (1984). A Fast Parallel Algorithm for Thinning Digital Paerns. Communications of the ACM 27(3), 236-239.Zhang, Z. (1998). A exible new technique for camera calibration. Recuperado de citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.220