PUC-RIO / Departamento de Informática
Curso de Realidade Aumentada e Colaborativa (2005.2)
Trabalho 2 - Fotografia Tridimensional

Desenvolvedores: Mauricio Ferreira
e Diogo Carneiro


ProjetosProjetos / Computação Gráfica /
Realidade Aumentada e Cooperativa





Introdução [ topo ]

 

O objetivo do projeto foi de fazer a reconstrução de objetos reais em objetos virtuais tridimensionais através de duas câmeras calibradas e um projetor decalibrado.



Processos de Desenvolvimento [ topo ]

   

1. Calibração das Câmeras [ topo ]

 

  Nessa fase foi feita a calibração das câmeras. Foi utilizado a mesma técnica de calibração do trabalho anterior utilizando o Tsai para realizar essa tarefa.

 

2. Projeção de luz estruturada sobre os objetos [ topo ]

 

Foi projetado sobre os objetos, que deseja-se realizar a fotografia tridimensional, uma luz estruturada baseada na codificação (b,s)-BCSL da tese da Asla.

Para cada objeto foram retiradas 16 fotos. São 8 fotos para cada câmera onde 4 são para faixas verticais e mais 4 para faixas horizontais. Dentre essas 4 fotos para cada tipo de faixa compreende:

- Slide 1 positivo
- Slide 1 negativo
- Slide 2 positivo
- Slide 2 negativo

A figura abaixo ilustra uma dessas fotos:

 

 

 

 

 

 

 

 

 

A codificação (b,s)-BCSL descreve 3 tipos de codificações: (3,2), (4,2) e (6,2). Nesse trabalho, foi dado o enfoque na codificação (4,2), onde 4 é o número de cores em cada slide para 2 slides projetados por vez. A Figura abaixo ilustra os slides dessa codificação.

 




3. Identificação das transições de faixa[ topo ]

 

O objetivo da codificação de faixas tem como objetivo obter informações para poder fazer a correspondência das imagens das duas câmeras. Mas vários fatores dificultaram o trabalho como: ruídos, resoluções das câmeras eram diferentes, problemas no projetor.

Então para identificar as transições de faixa foi preciso primeiramente tratar as imgens, segundo os passos descritos abaixo:

 


3.1. Extração do fundo [ topo ]

 

A primeira tentativa de extração de fundo foi utilizando um threshold de (30,30,30) no caso da imagem ao lado, ou seja, todos os pixels com a cor abaixo desse liminar foram considerados fundo e eliminados das imagem. Analisando a figura ao lado, vemos que essa alternativa não obteve resultados eficientes.

 

 

Uma alternativa interessante para eliminar o fundo foi combinar a técnica acima de thershold com uma média de vizinhança. A figura ao lado representa o resultado de uma caixa de 5x5 pixels. Para os pixels dentro dessa caixa caso a media seja mais próxima ao preto, todos os vizinhos ganham também o preto. Assim foi possível eliminar grande parte do ruído. Aumentando a caixa da vizinhança eliminou-se por completo os ruídos.

 

  As Imagens ao lado representam resultados da extração de fundo completa do objeto e a sua reespectiva máscara.


3.2. Identificação das faixas[ topo ]

 

Essa etapa recebe as imagens de entrada já tradadas em relação a ruídos de fundo. No sitema (4,2) usado foi relativamente simples identificar as faixas, pois as 4 cores usadas sao: verde, amarelo, ciano e magenta. Observando melhor as componentes dessas cores, vemos que 3 delas possuem 2 componentes com valor máximo, a única exceção é o verde que pode ser confundido com o amarelo, porém observado as imagens de entrada pode se fazer um threshold baseado na componente vermelha dessas cores para descobrir quando é verde ou amarelo.

A imagem ao lado representa os resultados obtidos para os slides negativos. O mesmo foi feito para os slides positivos e obtivemos um bom resultado também.




3.3. Reconhecimento das transições[ topo ]

 

Com base nas faixas dos slides positivos e negativo foi possivel gerar a imagem ao lado. Onde estão representadas as linhas de transições de faixa.

A partir dessa informação das duas câmeras é possível fazer a correspondência entre os pontos das imagens.

 

 



Conclusões [ topo ]

 

 

O trabalho apresentou resultados satisfatórios, porém o trabalho não pode alcançar a fase de correspondência e triangularização para finalizar a recontrução. O módulo abaixo disponibiliza apenas a fase de tratamento de imagens descritas acima.



Download [ topo ]

  O Projeto foi desenvolvido utilizando as seguintes bibliotecas disponíveis para download abaixo:
 
   
  Os arquivos do projeto seguem abaixo:
 


Referências bibliográficas [ topo ]

  • E. Trucco, A. Verri, “ Introductory Techniques for 3-D Computer Vision ”, Prentice Hall, 1998.

  • Marcelo Gattass, Realidade Aumentada e Cooperativa, PUC – Rio de Janeiro , 2005.2, Link .

  • [Tsai86] Tsai, Roger. “An Efficient and Accurate Camera Calibration Technique for 3D Machine Vision” . Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, págs 364-374, 1986.

  • [Tsai87] Tsai, Roger. “A versatile camera calibration technique for high accuracy 3D machine vision metrology using off-the-shelf tv cameras and lenses” . IEEE Journal of Robotics and Automation 3(4): 323-344, Agosto de 1987.