Upload
trinhtram
View
237
Download
0
Embed Size (px)
Citation preview
Vehicles Classification Using Optical Flow
Fernando de Souza Castro, Francisco Assis da Silva,
Danillo Roberto Pereira
Universidade do Oeste Paulista – Unoeste/FIPP
Presidente Prudente/SP, Brasil [email protected], {chico, danilopereira}@unoeste.br
Almir Olivette Artero, Marco Antonio Piteri,
Universidade Estadual Paulista – Unesp/FCT
Presidente Prudente/SP, Brasil {almir, piteri}@fct.unesp.br
Abstract—Nowadays, supervise the vehicles traffic is a very
hard task that represents a challenge for solutions that can help
control the traffic on the roads and highways. In this work we
used the Lucas and Kanade optical flow algorithm to track and
identify the vehicles of a video frame by frame. For each frame,
the vehicles found were classified by its size: small, medium and
large. The results of this work can be applied in counting systems
of vehicles in highways. Another application would be to
construct of intelligent traffic light that controls the outflow
based on the flow of vehicles.
Keywords—optical flow; track to vehicles; vehicles counting;
intelligent traffic lights
I. INTRODUÇÃO
Com o grande aumento da frota de veículos nas vias das cidades e rodovias, o controle viário é cada vez mais complexo. O uso de semáforos que não utilizam nenhum tipo de controle para interromper ou liberar a passagem dos veículos, limitando-se apenas ao tempo pré-estabelecido, geralmente, causam enormes engarrafamentos, e, como consequência, transtornos para todos os motoristas, além de dificultarem a circulação de viaturas de saúde e segurança. De fato, para se obter um controle adequado do tráfego, é preciso que se faça um monitoramento das demandas. A contagem de veículos em uma rodovia não pedagiada também apresenta dificuldades, quando feita manualmente [2], dificultando o planejamento dos órgãos públicos.
Segundo Chen et al. [3], nos últimos anos, os sistemas de vigilância de tráfego precisam ser discutidos e estudados, pois podem fornecer informações significativas e úteis, tais como excesso de velocidade e violação no trânsito. Ao analisar esses problemas espera-se melhorar a mobilidade e reduzir os congestionamentos. Segundo Tannús et al. [16], o caos observado no trânsito da maioria das cidades ainda apresenta outros efeitos, como o aumento da poluição e do número de acidentes.
Uma das soluções mais apontadas para resolver os problemas do trânsito é utilizar a Visão Computacional para identificar e rastrear veículos, de modo a interromper ou liberar a passagem de veículos, conforme as necessidades observadas. Pelo uso de câmeras de vídeo, o sistema computacional pode contar o número de veículos e aumentar o tempo de abertura do semáforo para aquela via, diminuindo o engarrafamento. Outro exemplo em que o monitoramento pode ser aplicado é em rodovias não pedagiadas, na contagem de veículos que passam em um determinado trecho da rodovia, classificando-os por tamanho (pequeno, médio ou de grande porte).
Sobral [14] afirma que o rastreamento de objetos apresenta como dificuldade estimar a trajetória de um determinado objeto, ou múltiplos objetos numa sequência de frames de um vídeo, ou seja, o algoritmo utilizado para o rastreamento precisa garantir que o objeto tenha identidade única nos diferentes frames. O rastreamento é fundamental para estimar o comportamento do objeto analisando sua trajetória, porém antes de rastreá-lo é necessário que o sistema conheça sua forma para saber qual será o objeto a ser rastreado.
Ao rastrear um objeto, muitas vezes é necessário adotar uma representação ou modelo, que descreva a forma ou características que o definem. Com isso, espera-se que o recurso de fluxo óptico seja mais adequado para o rastreamento de veículos, em que é feita uma comparação entre frames consecutivos, que por sua vez são mapeados em um vetor de deslocamentos [14].
Devido às dificuldades de se obter um sistema totalmente confiável, usando apenas imagens, é comum o emprego de sensores para determinar o posicionamento dos veículos. Um sensor muito usado para isto é chamado de sensor de eixo, que consiste em um par de tubos de borracha, estendidos de forma transversal ao fluxo de trânsito, e dentro destes tubos existem válvulas pneumáticas que são acionadas quando os veículos passam sobre elas.
Este trabalho apresenta uma metodologia para classificar e rastrear veículos utilizando apenas recursos de Visão Computacional, sem auxílio de sensores. Para a consecução destes objetivos foi utilizada a técnica de fluxo óptico de Lucas e Kanade [7], para rastrear veículos e na sequência categorizá-los como: pequeno, médio ou de grande porte, sendo assim possível quantificar os veículos em cada uma dessas classes.
Existem diversas abordagens para obtenção do fluxo óptico, contudo Lukas e Kanade [7] possui reduzido custo computacional se comparado com os demais métodos. A necessidade da aplicação ser executada em tempo real foi o fator crucial para a escolha do algoritmo de Lukas e Kanade.
As demais seções deste trabalho estão organizadas da seguinte maneira: na Seção II, são descritos alguns trabalhos relacionados; na Seção III são introduzidos os fundamentos teóricos da proposta apresentada; enquanto na Seção IV é feita uma descrição da metodologia proposta. Por sua vez, a Seção V relata os experimentos realizados e os resultados obtidos; Por fim, a Seção VI faz uma síntese das conclusões do trabalho.
Proceedings of XI Workshop de Visão Computacional ‐ October 05th‐07th, 2015
310
II. TRABALHOS RELACIONADOS
Brito [2] apresenta um trabalho com o objetivo de descrever quadro a quadro a trajetória dos veículos. Inicialmente, é obtida a imagem de fundo e, em seguida, o fundo é subtraído do frame atual, resultando apenas nos veículos da imagem. Para identificar os veículos, foram sobrepostos sobre eles templates associados à região de cada veículo na imagem. Para realizar o rastreamento dos pontos foi utilizada a técnica de Lucas e Kanade [7]. Segundo o autor, foi possível acompanhar a trajetória completa dos veículos. Entretanto, o algoritmo tem como desvantagem a necessidade de se carregar, previamente na memória, a imagem de fundo.
Sobral [14] apresenta uma proposta baseada em um contexto global, objetivando classificar o estado do trânsito como baixo, médio ou de alto congestionamento. Em seu trabalho, o primeiro passo consiste em definir uma região de interesse no vídeo, escolhendo uma área que apresenta a maior concentração de movimento. Para segmentar o congestionamento dos veículos, também utiliza a técnica de subtração de fundo e, em seguida, estima a densidade de veículos, contando os pixels não nulos da máscara de primeiro plano, obtida na subtração de fundo. O rastreamento da densidade de veículos é feito usando o método de Lucas e Kanade [7]. Algumas limitações deste sistema são: a necessidade do uso de câmeras estáticas; utilizar apenas uma via de trânsito; não utilizar o sistema em ambientes noturnos.
Tannús et al. [16] desenvolveram um algoritmo para contar os veículos que trafegam pelas vias. Para segmentar as imagens utilizaram o modelo de misturas gaussianas com o propósito de dividir a imagem em dois tipos de regiões: cenário e objetos móveis. A quantificação dos objetos no cenário é realizada por meio do primeiro plano. Uma linha horizontal é posicionada na metade do frame e quando o objeto cruza essa linha os pixels do objeto são identificados.
III. REFERENCIAL TEÓRICO
A. Fluxo Óptico
Fluxo óptico é a distribuição 2D da velocidade de cada pixel associado a um vetor de velocidade, em que a utilização da diferença entre tons de cinza em duas imagens permite identificar se houve movimento [1][7][10][6][12]. Segundo Oliveira-Neto [11], fluxo óptico é definido como uma técnica para estimar movimento por meio de intensidades com os mesmos padrões, podendo assim identificar objetos em outra imagem.
Segundo Minetto [9], existem três situações que podem acarretar uma definição errada do fluxo óptico: problema de oclusão, ambiguidade na correspondência óptica e incoerência espacial. O problema de oclusão é quando um ponto identificado em uma imagem não é encontrado na imagem seguinte. Por exemplo, um ponto P em um frame I é visível e não aparece no frame I+1, como mostra a Fig. 1.
Fig. 1. Problema de oclusão de pontos [9].
A ambiguidade na correspondência óptica, também conhecida como problema de abertura, é quando um mesmo ponto tem ambiguidades no frame seguinte. Isto quer dizer que um ponto a no frame I pode ter vários pontos no frame I+1. Essa multiplicidade pode ser unidimensional (pontos encontrados estão na mesma linha) ou bidimensional (pontos encontrados em linhas diferentes) (Fig. 2 (a)).
(a) (b)
Fig. 2. Problema de a) ambiguidade e b) incoerência espacial dos pontos [9].
Incoerência espacial ocorre quando pontos distintos de um mesmo objeto seguem um fluxo incomum em relação ao deslocamento do objeto. Por exemplo, um objeto com deslocamento para a direita possuindo alguns pontos com fluxo diferente (Fig. 2 (b)).
B. Algoritmo de Lucas e Kanade
Lucas e Kanade [7] descrevem o método como uma técnica em que uma imagem (frame) é dividida em regiões, e o fluxo óptico é calculado para cada uma delas (Fig. 3).
Fig. 3. Ilustração do processo de divisão de uma imagem [7].
Lucas e Kanade [7] assumem por hipótese que num vídeo a ser analisado, pixels diferentes em quadros diferentes representam o mesmo ponto de um objeto que esteja em movimento, possuindo intensidades equivalentes, isto é, possuem brilho, contraste e cor com pouca variação. Em geral, a taxa de captura de câmeras de vídeo (frames por segundo) é maior que a velocidade dos objetos. Isto faz com que o movimento dos objetos seja relativamente pequeno entre frames consecutivos [2]. Dada uma região dentro de uma imagem descrita por uma função F(x), que representa o valor do pixel e a sua posição, se em uma segunda imagem, a mesma região é representada por outra função G(x), então existe um valor h tal que [5]:
𝐹(ℎ + 𝑥) = 𝐺(𝑥) (1)
Devido a possibilidade de existir ruídos nas imagens, faz-se necessário estimar o erro (Ɛ), conforme a Eq. (2).
𝜀 = ∑ |𝐹(ℎ + 𝑥) − 𝐺(𝑥)|𝑋𝜖ℝ ² (2)
Pontos de um mesmo objeto
Proceedings of XI Workshop de Visão Computacional ‐ October 05th‐07th, 2015
311
O cálculo do fluxo óptico segundo a proposta de Lucas e Kanade [7] é definida pela Eq. (3).
h=[ ∑ (∂F(x)
∂x)
T
.[G(x)-F(x)]].[R ∑ (∂F(x)
∂x)T.(
∂F(x)
∂x)]R
-1
(3)
C. Algoritmo de Kanade, Lucas e Tomasi (KLT)
O algoritmo KLT utiliza pirâmides em sua implementação, analisando imagens menores do mesmo frame e selecionando os pontos com melhores características [13]. Minetto [9] afirma que o algoritmo KLT calcula o fluxo óptico em múltiplas escalas de resolução, começando com a resolução mais baixa até chegar à resolução original. A coleção de imagens obtidas é chamada de pirâmide. De acordo com Rocha [13] uma mesma cena fornece um conjunto de imagens que são calculadas recursivamente. Partindo de uma imagem inicial I no nível mais alto da piramide (Lm), de modo que o próximo nível seja calculado a partir do nível anterior e assim sucessivamente, ou seja, o fluxo óptico é computado no nível Lm da pirâmide obtendo o vetor de fluxo óptico 𝑣→𝐿 = [𝑢𝐿𝑣𝐿]𝑇, onde u é vetor de velocidade em x, e v é o vetor de velocidade em y. Esses vetores são utilizados como valor inicial no nível Lm–1. Por sua vez, os vetores obtidos nesse nível são utilizados no nível Lm–2, e assim sucessivamente. Para o nível inicial Lm os vetores u e v são nulos (Fig. 4).
D. Algoritmo Good Features to Track
Uma boa escolha dos pontos a serem analisados faz com que o algoritmo tenha maior desempenho e menor custo computacional, geralmente esses pontos são os cantos e arestas de uma imagem [8]. O algoritmo Good Features to Track é baseado no algoritmo de Shi e Tomasi [15] e segundo Dihl [4] utiliza seleção de características pontuais, o rastreamento desses pontos é feito pela similaridade em uma pequena região, tanto no frame atual quanto no frame seguinte. O KLT pode detectar os pontos de uma maneira rápida, desde que o deslocamento dos pontos analisados não seja grande de um frame para outro.
Fig. 4. Utilização dos vetores u, v no algoritmo KLT.
IV. METODOLOGIA
O Fluxograma da Metodologia proposta neste trabalho para a identificação e o rastreamento de veículos, pode ser visualizado na Fig. 5.
Fig. 5. Fluxograma da Metodologia desenvolvida.
Os frames do vídeo são manipulados sempre aos pares, de modo a possibilitar a aplicação da técnica de fluxo óptico. Após a obtenção dos frames é realizada a etapa de pré-processamento, que redimensiona os frames a uma razão de 1:4 (por exemplo, um frame com resolução de 1280 x 1024 pixels é redimensionado para 320 x 256 pixels). Ainda nesta etapa, os frames são convertidos em escala de cinza. A redução dos frames e a conversão para escala de cinza reduz consideravelmente o custo computacional, permitindo assim o processamento em tempo real. Em seguida, para identificar os melhores pontos a serem rastreados é utilizado o algoritmo de Shi e Tomasi [15], que segundo Sobral [14] é um bom extrator de características para selecionar os melhores pontos (pixels) a serem rastreados em um quadro do vídeo.
A técnica de Shi e Tomasi [15] é utilizada no primeiro frame de cada par usado no processo, até o vídeo terminar. A Fig. 6 ilustra os melhores pontos a serem rastreados num frame. Na sequência é realizado o cálculo do fluxo óptico, que tem a finalidade de encontrar no frame subsequente, os pontos correspondentes, identificados previamente. Para o cômputo do fluxo óptico é utilizado o algoritmo Lucas e Kanade [7].
Fig. 6. Pontos rastreados pelo algoritmo de Shi e Tomasi [15].
A Fig. 7 ilustra o deslocamento dos pontos, em que o início da seta representa os pontos encontrados no primeiro frame, enquanto o final da seta indica os pontos encontrados pelo algoritmo de fluxo óptico.
Cálculo do Fluxo Óptico
Cálculo do Fluxo Óptico
Cálculo do Fluxo Óptico
Cálculo do Fluxo Óptico
u,v
u,v
u,v
Lm
Lm-1
Lm-2
Lm-3
𝐼3
𝐼1
𝐼0
𝐼2
𝐽3
𝐽2
𝐽1
𝐽0
Início
Abrir Vídeo
Vídeo Terminou?
Obter frame
Obter frame seguinte
Encontrar sombras dos veículos
Pré-processamento dos frames
Identificação dos melhores pontos a serem rastreados
Fim
Cálculo do Fluxo Óptico
Descarte dos pontos encontrados que não
representam os veículos
Agrupar os pontos que sobraram por veículo
Classificar veículo
Proceedings of XI Workshop de Visão Computacional ‐ October 05th‐07th, 2015
312
Fig. 7. Deslocamento de um ponto entre frames subsequentes. Os pontos
amarelos destacados representam a correspondência entre dois frames.
A etapa seguinte consiste em encontrar as sombras pertencentes aos veículos, de modo que estas não interfiram no cálculo das áreas dos mesmos. Para eliminar as sombras, a metodologia proposta primeiramente encontra a imagem de fundo (segundo plano) e considera o frame atual como primeiro plano. Por fim, as imagens são convertidas no espaço de cor HSV, com o intuito de auxiliar na remoção de sombras, como mostra a Fig. 8 (a) e (b).
(a) (b)
Fig. 8. a) Segundo b) primeiro plano no espaço de cor HSV.
A partir do modelo HSV das imagens de primeiro e segundo plano, utiliza-se apenas a informação de luminosidade (Value). Sobre a imagem resultante da divisão do canal Value, apresentada na Fig. 9, é realizada a normalização em cada posição da imagem e os valores encontrados na faixa entre 0.2 e 0.9 são considerados como sombra, enquanto os demais são desconsiderados (valores obtidos empiricamente). A Fig. 10 ilustra a sombra encontrada.
Fig. 9. Imagem resultante da divisão do canal Value das duas imagens.
Fig. 10. Sombra do veículo detectado.
A próxima etapa da metodologia utiliza técnicas básicas de processamento de imagens para eliminar as sombras dos
veículos detectados, que é feita por meio da subtração entre frames consecutivos da imagem de vídeo. A Fig. 11(a) e (b) mostra um exemplo de par de frames sendo analisado, enquanto que na Fig. 11(c) é exibido o resultado da subtração desses dois frames.
(a) (b)
(c)
Fig. 11. a) Primeiro; e b) segundo frame de um par; c) Diferença entre os dois frames.
O passo seguinte nessa etapa encontra uma imagem que representa o veículo sem a sombra (Fig. 12), sendo ela utilizada na etapa de classificação dos veículos. Para isso, foi realizada a subtração da imagem que mapeia as sombras do veículo (Fig. 10) com a imagem que o representa, inclusive sua sombra (Fig. 11 (c)). O resultado da subtração das imagens é apresentado na Fig. 12. A Fig. 13 mostra o resultado da dilatação morfológica aplicada no resultado da subtração das imagens. Para a operação de dilatação foi usado um elemento estruturante 15 x 15 na forma de um quadrado com o ponto de origem na posição central.
Fig. 12. Subtração das imagens que correspondem a sombra (Fig. 10) com a
imagem resultado da subtração dos dois frames de um par (Fig. 11 (c)).
Fig. 13. Aplicação da operação de dilatação na imagem da Fig. 12.
Na sequência, a metodologia proposta realiza o descarte
dos pontos que não representam os veículos. Neste processo
são eliminados os pontos por onde os veículos não trafegam,
Proceedings of XI Workshop de Visão Computacional ‐ October 05th‐07th, 2015
313
como os canteiros da rodovia e, também é verificada a
coerência dos deslocamentos dos pontos restantes. Durante
este processo, a maior dificuldade consiste em manter apenas
os pontos encontrados, que estão localizados somente sobre a
rodovia. Isto porque, em cada linha que o carro se movimenta
na imagem, a coluna que representa a margem da rodovia
também se altera. Isto ocorre em função do fato de que a
margem da rodovia nem sempre forma um ângulo de 90 graus
com a base da imagem. A solução proposta para resolver esse
problema faz uso do cálculo de interseção das retas associadas
às margens da rodovia, com uma reta perpendicular a elas no
plano da rodovia (Eqs. 4, 5 e 6). Os pontos de interesse que
estiverem entre ambas às margens são considerados, conforme
ilustrado na Fig. 14.
𝑃1𝑥 =𝑃1𝑦−𝑏
𝑎 (4)
𝑏 = 𝑃2𝑦 − (𝑎. 𝑃2𝑥) (5)
𝑎 =𝑃2𝑦−𝑃3𝑦
𝑃2𝑥−𝑃3𝑥 (6)
onde b é coeficiente linear e a é o coeficiente angular.
Fig. 14. Delimitação das margens da rodovia.
Para eliminar os pontos que não pertencem ao veículo, é analisada a direção de deslocamento dos pontos e todos aqueles com direções diferentes da direção que o veículo trafega são eliminados. A Fig. 15 mostra o resultado depois de aplicado o descarte dos pontos que não estão na rodovia e eliminados os pontos que não pertencem ao veículo.
Fig. 15. Resultado depois de eliminar os pontos sem interesse.
Para classificar os veículos, primeiramente foram agrupados os pontos que estão mais próximos, por meio da métrica euclidiana. Cada um dos conjuntos de pontos restantes representa um veículo, em que foi estabelecido um retângulo mínimo ao seu redor. Porém, essa técnica não enquadra corretamente o veículo, como pode ser visto na Fig. 16. Isso foi corrigido redimensionando os lados do retângulo a fim de enquadrar toda a parte branca, conforme pode ser observado na Fig.17.
Fig. 16. Enquadramento incorreto do veículo.
Fig. 17. Resultado do enquadramento do veículo.
Após o retângulo ter sido enquadrado corretamente sobre o
veículo, quando seu lado horizontal inferior coincidir com a
linha vermelha fixa transversalmente sobre a rodovia (Fig.
18), então, sua área é computada e o veículo finalmente é
classificado nas categorias: pequeno, médio ou de grande
porte. É importante observar que a linha vermelha utilizada foi
estabelecida empiricamente, por ser nessa região da imagem
que o número de acertos na classificação dos veículos foi
maximizado.
Fig. 18. Classificação do veículo.
V. EXPERIMENTOS REALIZADOS
Foi realizada a gravação de um vídeo na rodovia Raposo
Tavares na cidade de Presidente Prudente/SP durante o
período de 12 minutos e 22 segundos, com uma resolução de
1920 x 1080 pixels e 30 frames por segundo, num dia
ensolarado e a favor do sol, de modo que a qualidade das
imagens obtidas fosse a melhor possível. Entretanto, para os
testes realizados foi utilizada apenas uma região do vídeo
(1280 x 720 pixels) para a melhor visualização dos veículos. O
tempo de duração do vídeo foi reduzido para 5 minutos, pois
existiam momentos onde não ocorria o tráfego.
Para realização dos experimentos foi utilizado um
computador com processador i5-2467M, 4 GB de memória
RAM e placa de vídeo integrada Intel HD Graphics 3000. O
tempo total de processamento de cada frame na metodologia
ilustrada na Fig. 5 foi aproximadamente 210 milissegundos.
No vídeo analisado, trafegaram pela rodovia 45 veículos. Um
deles, de médio porte não foi identificado, e outro classificado
Proceedings of XI Workshop de Visão Computacional ‐ October 05th‐07th, 2015
314
erroneamente como de grande porte, ao invés de médio porte.
A Tabela I e II mostram os resultados dos experimentos.
TABELA I. RESULTADOS DOS EXPERIMENTOS REALIZADOS.
Total Acertos Erros
Veículo de Pequeno Porte 7 7 0
Veículo de Médio Porte 28 27 1
Veículo de Grande Porte 10 9 1
Total 45 43 2
TABELA II. MATRIZ DE CONFUSÃO DOS EXPERIMENTOS.
Pequeno Médio Grande Não Classificado
Pequeno 7 0 0 1
Médio 0 27 1 0
Grande 0 0 9 0
O veículo de médio porte não foi classificado porque o
mesmo estava no acostamento, e, quando este ultrapassou a
região onde são realizadas as classificações (linha vermelha da
Fig. 19), ele se encontrava em baixa velocidade e os pontos
encontrados durante o cálculo do fluxo óptico não foram
suficientes para classificá-lo.
Fig. 19. Veículo não classificado.
No momento da classificação, o veículo que não foi
classificado corretamente, trafegava muito próximo a outro
veículo, de médio porte e, assim, ambos foram classificado
como sendo um único veículo de grande porte, como pode ser
visto na Fig. 20.
Fig. 20. Dois veículos muito próximos, classificados como um único veículo
de grande porte.
VI. CONCLUSÕES
Os resultados preliminares obtidos a partir da metodologia
proposta se mostram promissores, além de ter um tempo de
processamento relativamente baixo. Entretanto, nesta fase
inicial não foi tratado o problema de oclusão de veículos, que
ocorre quando eles estão próximos entre si. Provavelmente, a
altura em que a câmera foi posicionada para a realização dos
registros das imagens não era a mais adequada. A velocidade
média dos veículos que trafegaram pela rodovia durante a
filmagem foi de 90 Km/h, não sendo possível realizar
experimentos com veículos em alta velocidade, já que este é o
limite da via. Embora os tempos de processamento da
abordagem metodológica proposta possam ser considerados
razoáveis, é importante considerar para um trabalho futuro a
possibilidade de se usar o poder de processamento paralelo das
placas de vídeo, como, por exemplo, a plataforma CUDA,
objetivando obter um processamento próximo do tempo real.
Por fim, outra atividade/tarefa que merece maior investigação
é testar diferentes alternativas algorítmicas [17], para a
extração de pontos característicos que serão posteriormente
usados para a detecção de movimentos.
REFERÊNCIAS
[1] R.L. Barbosa, R.B.A. Gallis, J F.C. Silva, M.M. Junior. A computação do fluxo óptico em imagens obtidas por um sistema móvel de mapeamento terrestre. Revista da Sociedade Brasileira de Cartografia, Geodésia, Fotogram. e Senso. Remoto-SBC, v.57/2, pp.72-78, 2005.
[2] G.R. Brito. Desenvolvimento de algoritmo para tracking de veículos. 2011. 45f. Trabalho de conclusão de curso (Bacharel) - Escola Politécnica da USP de São Paulo, Dep. Eng. Elétrica. São Paulo – SP.
[3] T. Chen, Y. Lin, T. Chen. Intelligent vehicle counting method based on blob analysis in traffic surveillance. In: 2th Inter. Conf. on Innovative Computing, Information and Control, ICICIC’07, pp. 238-242, 2007.
[4] L.L. Dihl. Ratreamento de objetos usando descritores estatísticos. 2009. 69f. Dissertação (Mestrado). Universidade do Vale do Rio dos Sinos, São Leopoldo – RJ.
[5] J.R. Kuiaski. Segmentação de movimento por fluxo ótico. 2012. 90f. Dissertação (mestrado) - Universidade Tecnológica Federal do Paraná, Programa de Pós Graduação em Engenharia Elétrica e Informática Industrial, Curitiba - PR.
[6] A.C. Lara. Segmentação de movimento para aplicações de vigilância eletrônica. 2006. 38f. Dissertação (Mestrado) - Departamento de Ciências da Computação e Instituto de Matemática e Estatística da Universidade de São Paulo, São Paulo – SP.
[7] B.D. Lucas, T. Kanade. An iterative image registration technique with an application to stereo vision. In: Proceedings of the 7th International Joint Conf. on Artificial Intelligence (IJCAI ’81), 1981, pp. 674–679.
[8] S.V.M. Macedo. Aplicação do teste kens para detecção de outliers em fluxo óptico. 2013. 51f. Dissertação (Mestrado) - Universidade Federal de Pernambuco. Fortaleza – CE.
[9] R. Minetto. Detecção robusta de movimento de câmera em vídeos por análise de fluxo óptico Ponderado. 2007. 61f. Dissertação (Mestrado) - Universidade Estadual de Campinas, Campinas – SP.
[10] V.F. Mota. Tensor baseado em fluxo ótico para descrição global de movimentos em vídeos. 2011. 179f. Dissertação apresentada ao programa de pós-graduação para obtenção de grau mestre - Universidade Federal de Juiz de Fora. Juiz de Fora – MG.
[11] V.J. Oliveira-Neto, D.M. Gomes. Comparação de métodos para localização de fluxo óptico em sequências de imagens. In: 27th Conf. on Graphics, Patterns and Images (Sibgrapi), pp. 298-303, 2014.
[12] I. N. S. Oliveira. Metodologia para detecção rápida de movimento em sequências de imagens. 2003. 180f. Dissertação (Doutorado) – Instituto de Física da Universidade de São Paulo. São Carlos - SP
[13] T. Rocha. Uma proposta para classificação de ações humanas baseada nas características do movimento em redes neurais artificiais. 2012. 83f. Dissertação (Mestrado) – Universidade Federal de Brasília - DF.
[14] A.C. Sobral. Classificação automática do estado do trânsito baseada em contexto global. 2012. 94 f. Dissertação (Mestrado) – Universidade Federal da Bahia, Escola Politécnica. Salvador - BA.
[15] J. Shi, C. Tomasi. Good features to track. In: IEEE Computer Society Conf. Comp. Vision and Pattern Recog (CVPR'94), pp. 593-600, 1994.
[16] H.C. Tannús, V.C.V. Soares, R.M. Costa. Técnicas de processamento digital de imagens aplicadas na contagem volumétrica de veículos. In: VIII Work. de Visão Comp. (WVC 2012). Anais... Goiás: UFG, 2012.
[17] F.A. Silva, M.S.V. Paiva, A.O. Artero, M.A. Piteri. Evaluation of keypoint detectors and descriptors. In: VIII Workshop de Visão Computacional (WVC 2013). Anais... Rio de Janeiro: UFF, 2013.
Proceedings of XI Workshop de Visão Computacional ‐ October 05th‐07th, 2015
315