Upload
others
View
2
Download
0
Embed Size (px)
Citation preview
UNIVERSIDADE TECNOLÓGICA FEDERAL DO PARANÁ
GERÊNCIA DE PESQUISA
PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA E INFORMÁTICA INDUSTRIAL
Identificação de Usando Função Densidade de Coincidências de Fase
DISSERTAÇÃO DE MESTRADO
UNIVERSIDADE TECNOLÓGICA FEDERAL DO PARANÁCAMPUS CURITIBA
GERÊNCIA DE PESQUISA E PÓS-GRADUAÇÃO
GRADUAÇÃO EM ENGENHARIA ELÉTRICA E INFORMÁTICA INDUSTRIAL - CPGEI
Tomas Fernandes
de Indivíduos por Biometria da Densidade de Coincidências de Fase
DISSERTAÇÃO DE MESTRADO
CURITIBA 26 de Março de 2009.
UNIVERSIDADE TECNOLÓGICA FEDERAL DO PARANÁ
GRADUAÇÃO EM ENGENHARIA ELÉTRICA E
Íris Densidade de Coincidências de Fase
Livros Grátis
http://www.livrosgratis.com.br
Milhares de livros grátis para download.
UNIVERSIDADE TECNOLÓGICA FEDERAL DO PARANÁ Programa de Pós-Graduação em Engenharia Elétrica e Informática Industrial
DISSERTAÇÃO apresentada à UTFPR
para obtenção do grau de
MESTRE EM CIÊNCIAS
por
TOMAS FERNANDES
IDENTIFICAÇÃO DE INDIVÍDUOS POR BIOMETRIA DA ÍRIS
USANDO FUNÇÃO DENSIDADE DE COINCIDÊNCIAS DE FASE
Banca Examinadora:
Presidente e Orientador:
Prof. Dr. Fábio Kurt Schneider UTFPR
Examinadores:
Prof. Dra. Elisangela Ferretti Manffra PUCPR
Prof. Dr. Hugo Vieira Neto UTFPR
Prof. Dra. Giselle Lopes Ferrari UFPR
Prof. Dr. Humberto Remigio Gamba UTFPR
Curitiba, 26 de Março de 2009
TOMAS FERNANDES
IDENTIFICAÇÃO DE INDIVÍDUOS POR BIOMETRIA DA ÍRIS
USANDO FUNÇÃO DENSIDADE DE COINCIDÊNCIAS DE FASE
Dissertação apresentada ao Programa de Pós-
Graduação em Engenharia Elétrica e
Informática Industrial da Universidade
Tecnológica Federal do Paraná, como
requisito parcial para a obtenção do grau de
“Mestre em Ciências” – Área de
Concentração: Engenharia Biomédica.
Orientador: Prof. Dr. Fábio Kurt Schneider
Curitiba, 26 de Março de 2009
i
AGRADECIMENTOS
Alguns elementos são fundamentais na vida de qualquer pessoa: Dignidade,
Amor, Família, Amigos e Bons Professores. Felizmente encontrei todos esses elementos
e agradeço a Deus por tê-los inserido em minha vida nos momentos exatos em que
precisei, sem sentir necessidades.
Agradeço aos meus Pais pelas células que me deram, pela carga genética que me
passaram e pelo que fizeram durante esse período todo de lá até aqui. Em especial ao
pai, Sr. Timóteo Fernandes, pelo trabalho suado e à mãe, Sra. Ignês Fernandes, pelo
aluguel compartilhado do útero.
À Universidade Tecnológica Federal do Paraná – UTFPR – e aos seus
professores. Fizeram-me acreditar que o caminho da ciência é um caminho que vale a
pena seguir.
Em especial ao professor Dr. Humberto Gamba, pelo seu exemplo de caráter e
pelo apoio incondicional, recebido por este projeto desde o primeiro segundo de
nascimento.
Ao professor Dr. Hugo Vieira Neto, pela amizade e confiança depositada, pelas
conversas que, sem intenção talvez, abriram os olhos às infinitas possibilidades de
estudo.
Ao professor Dr. Pedro Miguel Gewehr, pelo seu envolvimento na correção de
artigos.
Ao professor Dr. Paulo José Abatti, pelas incontáveis “conversas de boteco”, nos
tempos da Engenharia, que instigaram a curiosidade científica.
Ao professor Dr. Bertoldo Schneider, pela leitura, sugestões e críticas que
ajudaram a melhorar a qualidade final do trabalho.
ii
Ao professor Dr. Aurélio Flávio Charão e a seu pupilo M.Sc. Alexandre
Filippeto Henzen, pelas horas de conversa e trabalho em seus projetos voluntários que
abriram a mente para outra forma de pensar e agir.
Ao querido amigo e professor M.Sc. Jefferson Osowski, por sua amizade fiel e
prazerosa e por ter me ensinado a linguagem C/C++, minha principal ferramenta de
trabalho atual.
Aos meus colegas e companheiros de mestrado, entre eles: Diogo Rosa Kuiaski,
Claudio R. Marquetto e Joyce Cristiane Klock, Walter e Luciana Araújo, Luis Gamboa,
Valfredo Pilla Jr. e Joaquim de Mira. Estas pessoas me ensinaram tanto quanto os
professores, nos exemplos de estudo, na força do companheirismo, nas amizades, nas
críticas e nos questionamentos.
Ao meu orientador, professor Dr. Fábio Schneider, pela confiança, pela
segurança, pela liberdade de pensamento, pela serenidade, pelo respeito pessoal, por
horas de conversa, pela direção aos nossos seminários que renderam inúmeros exemplos
positivos, pela paciência, pelas críticas que sempre foram construtivas, pelas opiniões
sinceras, pelo seu envolvimento e dedicação na minha orientação e pelo exemplo de
método.
Agradeço a todos os que contribuíram diretamente ou indiretamente à construção
deste trabalho.
iii
iv
Sumário
Lista de Abreviaturas e Siglas ..................................................................................... vii
Lista de Figuras ......................................................................................................... viii
Lista de Tabelas ......................................................................................................... xiii
RESUMO .................................................................................................................. xiv
ABSTRACT ............................................................................................................... xv
INTRODUÇÃO ............................................................................................................ 1
1.1. Motivações ........................................................................................... 1
1.2. Objetivos .............................................................................................. 3
1.2.1. Objetivo Geral................................................................................ 3
1.2.2. Objetivos Específicos ..................................................................... 3
1.3. Estrutura da Dissertação ....................................................................... 4
FUNDAMENTAÇÃO TEÓRICA ................................................................................. 5
2.1. Introdução ............................................................................................ 5
2.2. Anatomia do Olho Humano .................................................................. 5
2.3. Processamento Digital de Imagens ....................................................... 7
2.3.1. Correlação e Convolução ............................................................... 7
2.3.2. Detector de Bordas Sobel ............................................................... 8
2.3.3. Transformada de Hough ............................................................... 10
2.3.4. Filtro Gabor ................................................................................. 13
2.4. Extração de Características ................................................................. 17
2.5. Biometria e Identificação Biométrica de Indivíduos ........................... 19
2.6. Sistemas de Confronto Biométricos .................................................... 22
2.6.1. Confronto 1:1 - Sistema Biométrico Mínimo ................................ 22
2.6.2. Confronto 1:N .............................................................................. 22
2.6.3. Confronto N:N ............................................................................. 24
2.7. Métricas para Avaliação Estatística de Resultados .............................. 25
v
2.7.1. Curvas de Densidade de Similaridade ........................................... 25
2.7.2. Figuras de Mérito ......................................................................... 29
2.7.3. Curvas ROC ................................................................................. 31
REVISÃO BIBLIOGRÁFICA .................................................................................... 33
3.1. Introdução .......................................................................................... 33
3.2. Estado da Arte .................................................................................... 33
MATERIAIS E MÉTODOS ....................................................................................... 37
4.1. Introdução .......................................................................................... 37
4.2. Método de Referência ........................................................................ 38
4.3. Método Proposto ................................................................................ 40
4.3.1. Sistema de Iluminação ................................................................. 41
4.3.2. Detecção de Contexto................................................................... 42
4.3.3. Extração do Vetor de Características ............................................ 45
4.3.4. Função de Similaridade ................................................................ 57
4.4. Plataforma de Análise, Confronto Biométrico e Avaliação Estatística 59
4.4.1. Módulo de Configuração .............................................................. 59
4.4.2. Módulo de Análise de Imagens e Extração de Características ....... 60
4.4.3. Módulo de Comparação Biométrica e Estatística .......................... 61
4.5. Base de Dados de Testes .................................................................... 63
RESULTADOS E DISCUSSÕES ............................................................................... 67
5.1. Introdução .......................................................................................... 67
5.2. Curvas de Distribuição de �� e de ∆�� ............................................. 68
5.3. Curvas de Distribuição de Áreas de Confronto ................................... 69
5.4. Curvas de Similaridade ...................................................................... 70
5.5. Curvas ROC ....................................................................................... 73
5.5.1. Curvas ROC para os Métodos de Referência e Proposto ............... 73
5.5.2. Curvas ROC para Restrições da ∆�� ............................................ 74
vi
5.5.3. Curvas ROC para Perturbações do Modelo ................................... 77
5.5.4. Curvas ROC para Limitação de Área Útil de Confronto ............... 79
CONCLUSÕES .......................................................................................................... 81
Bibliografia ................................................................................................................. 84
vii
Lista de Abreviaturas e Siglas
AFIS Automated Fingerprint Identification System
PDS Processamento Digital de Sinais
PDI Processamento Digital de Imagens
ROI Região de Interesse (Region of Interest)
HT Transfomada de Hough (Hough Transform)
ROC Receiver Operating Characteristics
FRR Taxa de Falsa Rejeição (False Rejection Rate)
FAR Taxa de Falsa Aceitação (False Acceptance Rate)
TAR Taxa de Aceitação de Autênticos (True Acceptance Rate)
TRR Taxa de Rejeição de Impostores (True Rejection Rate)
ERR Taxa de Erro Igual (Equal Error Rate)
RPL Linha de Performance Aleatória (Random Performance Line)
ERRL Linha de Taxa Erro Igual (Equal Error Rate Line)
XOR Operação Lógica OU Exclusivo
XNOR Operação Lógica OU Exclusivo Negada
CDS Sistema de Detecção de Contexto (Context Detection System)
BCS Sistema de Captura Biométrica (Biometric Capture System)
IR Infravermelho (Infra-Red)
NIST National Institute of Standards and Technology
ICE Iris Challenge Evaluation
viii
Lista de Figuras
Figura 1 – a) Partes principais do olho humano (modificada de WIKI, 2009) e corte
transversal da íris, b) miose ou constrição da pupila, c) pupila em estado intermediário e
d) midríase ou dilatação da pupila. (adaptada de MILLER, et al., 2005). ....................... 6
Figura 2 – Detecção de bordas: a) Imagem original, b) Módulo do gradiente (���, �), c)
Derivada parcial em relação a x (��, ��/�) e d) Derivada parcial em relação a y
(��, ��/�). Em c) e d) valores positivos são mais claros e valores negativos são mais
escuros. ....................................................................................................................... 10
Figura 3 – Níveis de abstração e técnicas de segmentação de imagens. O diagrama foi
inspirado a partir da classificação apresentada em JÄHNE (2005). .............................. 10
Figura 4 – Princípio da Transformada de Hough ......................................................... 11
Figura 5 – Parâmetros da circunferência ...................................................................... 11
Figura 6 – Princípio da Transformada de Hough para circunferências. Os parâmetros � , � , � que definem a circunferência são obtidos a partir do ângulo do gradiente da
imagem através de um processo de contagem. ............................................................. 12
Figura 7 – Algoritmo da Transformada de Hough para círculos ................................... 13
Figura 8 – Diagrama tempo/freqüência proposto por Gabor ........................................ 15
Figura 9 – Filtro Gabor 1D para �0=1Hz e �=0.4: a) parte real, b) parte imaginária .... 17
Figura 10 – Filtro Gabor 2D para �0=1, �0=0 e ��,��=0.4: a) parte real, b) parte
imaginária ................................................................................................................... 17
Figura 11 – Sistema de reconhecimento de padrões ..................................................... 18
Figura 12 – Extração de características definida como uma relação entre indivíduos do
espaço físico e vetores de características definidos em um espaço vetorial. ................. 18
Figura 13 – Identificação biométrica definida como uma relação entre vetores de
características do espaço vetorial de características e indivíduos representados no espaço
físico. .......................................................................................................................... 19
Figura 14 – Espaço de características, F. Os indivíduos são representados por vetores de
características. Através deste modelo vetorial, a identificação biométrica resume-se em
uma medição de distância entre vetores do espaço F. .................................................. 20
ix
Figura 15 – Sistema biométrico mínimo (Confronto 1:1). O resultado da função de
similaridade entre vetores de características é comparado com um limiar de decisão T,
definindo um classificador binário entre as classes de vetores. .................................... 22
Figura 16 – Confronto 1:N. Este confronto é utilizado para identificar um indivíduo em
uma base de dados. A função de confronto f1:N retorna um conjunto de vetores que
possuem similaridade alta em relação ao vetor de características submetido. ............... 23
Figura 17 – Curvas idealizadas de densidades de probabilidade para similaridades ..... 26
Figura 18 – Exemplo de curvas de densidades de probabilidade para similaridades reais
................................................................................................................................... 27
Figura 19 – Curvas de densidades cumulativas ............................................................ 28
Figura 20 – Matriz de Confusão .................................................................................. 29
Figura 21 – Espaço da curva ROC. A linha tracejada é a linha de performance aleatória
(RPL) e a linha pontilhada é a Linha de Erro Igual (ERRL). ........................................ 31
Figura 22 – Demodulação de fase pelo método de Daugman. Dois bits são utilizados
para codificar o quadrante a que o ângulo pertence através do sinal da parte real e da
parte imaginária da saída do filtro. O valor “1” representa sinal positivo e “0” representa
sinal negativo. ............................................................................................................. 39
Figura 23 – Representação pictórica do código de íris pelo método de Daugman. ....... 39
Figura 24 – Visão geral do sistema proposto, formado pela captura biométrica (BCS)
pela detecção de contexto (CDS) e pelo sistema de iluminação. .................................. 40
Figura 25 – Diagrama de blocos do sistema proposto. A detecção de contexto controla a
iluminação e o processo de captura biométrica. Após a captura biométrica é realizado o
processamento das imagens, a extração de características e o confronto. ..................... 41
Figura 26 – Cone de iluminação da face ...................................................................... 42
Figura 27 – Localização dos olhos: a) detecção da face e delimitação das regiões dos
olhos e b) localização da posição dos olhos. ................................................................ 43
Figura 28 – Determinação da posição dos olhos. As sub-imagens dos olhos são
processadas para obter a posição aproximada dos olhos. ............................................. 43
x
Figura 29 – Resultados parciais do segundo estágio para localização dos olhos. a)
equalização do histograma, b) filtragem de média, c) binarização e d) localização do
centróide da região escura. .......................................................................................... 44
Figura 30 – Esquema de cálculo da distância face-câmera por semelhança de triângulos
................................................................................................................................... 44
Figura 31 – Região de interesse da íris. ....................................................................... 45
Figura 32 – a) Imagem de íris em alto contraste b) Histograma c) Imagem binarizada.
Em imagens com alto contraste, a segmentação da pupila pode ser obtida com nível de
binarização a partir do primeiro máximo no histograma. ............................................. 46
Figura 33 – a) Imagem de íris em baixo contraste b) Histograma c) Imagem binarizada.
Em imagens com baixo contraste, um nível de binarização não é capaz segmentar a
pupila de outros elementos da imagem (e.g. cílios). ..................................................... 47
Figura 34 – Diagrama de blocos do algoritmo de localização da pupila. A transformada
de Hough fornece o centro da pupila. A localização da borda da pupila é definida no
ponto de máximo da saída do bloco integrador em um caminho circular. .................... 47
Figura 35 – Detecção do centro da Pupila. a) Saída do filtro Sobel (Gm), b) Saída do
acumulador de Hough (H). O ponto de máximo do acumulador define o centro da
pupila. ......................................................................................................................... 48
Figura 36 – Diagrama de blocos do algoritmo de localização da íris. Os números entre
parênteses nos blocos integradores indicam os limites de integração para o ângulo �°. 50
Figura 37 – Posição das bordas à direita e a esquerda do centro da íris. ....................... 50
Figura 38 – Detecção das pálpebras superior e inferior é realizada pela maximização de
duas integrações em caminhos parabólicos. ................................................................. 51
Figura 39 – Diagrama de blocos do algoritmo de localização das pálpebras. ............... 52
Figura 40 – Modelo geométrico da íris para normalização: a) Representação no espaço
cartesiano, b) Representação intermediária não-normalizada em coordenadas polares e
c) Representação normalizada em coordenadas polares. .............................................. 54
Figura 41 – Exemplo de representação normalizada de uma íris em coordenadas polares
................................................................................................................................... 54
xi
Figura 42 – Deformações não-uniformes da íris devido à contração/dilatação da pupila.
a) Pupila contraída e b) Pupila dilatada ....................................................................... 55
Figura 43 – Diagrama do algoritmo de extração de características. .............................. 56
Figura 44 – Módulo da saída do filtro Gabor normalizado em 256 níveis de cinza....... 56
Figura 45 – Ângulo da saída do filtro Gabor com intervalo de �0, . . ,360�° ajustados para
níveis de cinza entre [0,..,255] . ................................................................................... 56
Figura 46 – Quantização do ângulo de fase com 2 bits ................................................ 57
Figura 47 – Função de similaridade proposta. ............................................................. 58
Figura 48 – Tela do módulo de configuração do software HISP .................................. 60
Figura 49 – Interface de análise de imagens e extração de características .................... 61
Figura 50 – Sistema de avaliação: a) Curvas de densidade de similaridade, b) Curvas de
densidade de similaridade cumulativas ........................................................................ 62
Figura 51 – Sistema de avaliação (Curvas ROC) ......................................................... 62
Figura 52 – Seleção de pares para inspeção visual: são selecionados os pares de vetores
intra-classe com similaridade menor ou igual ao valor A e os pares de vetores inter-
classe com similaridade maior ou igual ao valor A. ..................................................... 64
Figura 53 – Exemplos de imagens da base de dados CASIA ....................................... 66
Figura 54 – Distribuição de �� ................................................................................... 68
Figura 55 – Distribuição de ∆�� ................................................................................. 69
Figura 56 – Exemplo de oclusões na região da íris ...................................................... 69
Figura 57 – Distribuição de Áreas ............................................................................... 70
Figura 58 – Curvas de similaridades e similaridades cumulativas obtidas para o método
de referência. A curva normal sobreposta apresenta µ=0,458 e σ=0,0197 (DAUGMAN,
2001) e mostra a equivalência da implementação do método de referência. ................. 71
Figura 59 – Gráficos de similaridades do método proposto. O comportamento menos
abrupto das curvas cumulativas e a separação das classes favorecem a redução das taxas
de erro......................................................................................................................... 72
xii
Figura 60 – Curvas ROC sobrepostas em escala logarítmica. Melhores desempenhos de
classificação são obtidos para a base DB0 em relação à DB1 por ambos os métodos,
devido à exclusão das imagens de interseção inter-classe. ........................................... 73
Figura 61 – Curvas ROC sobrepostas em escala linear. Os pontos A e C são
respectivamente a FRRFAR=0 e a FARFRR=0 para o método de referência e os pontos B e
D são a FRRFAR=0 e a FARFRR=0 para o método proposto. ............................................ 74
Figura 62 – Curvas ROC para restrições de ∆��. Pares em confronto com menores
valores de ∆�� apresentam menores taxas de erro no confronto. ................................. 75
Figura 63 – Curvas ROC para perturbações no parâmetro ��. Erros no raio da pupila
implicam redução na taxa de acerto do classificador.................................................... 77
Figura 64 – Curvas ROC para perturbações no parâmetro �� . Erros no raio da íris
implicam redução na taxa de acerto do classificador.................................................... 78
Figura 65 – Curvas ROC para restrições na área de confronto. Confrontos que dispõem
de menor área de interseção na imagem da íris apresentam taxas de erro mais elevadas.
................................................................................................................................... 80
xiii
Lista de Tabelas
Tabela 1 – Classificação de características biométricas ............................................... 19
Tabela 2 – Principais métodos propostos na literatura para segmentação de imagens,
codificação e confronto de íris .................................................................................... 35
Tabela 3 – Subconjuntos de imagens da base de dados CASIA ................................... 63
Tabela 4 – Imagens excluídas da base de dados CASIA. O número entre parênteses
indica a estratégia utilizada para a exclusão da imagem. .............................................. 65
Tabela 5 – Desempenho comparativo entre o método de referência e método proposto 72
Tabela 6 – Número de confrontos realizados por faixa de ∆�� .................................... 76
Tabela 7 – Redução da TAR em função do erro no valor de �� ................................... 78
Tabela 8 – Redução da TAR em função do erro no valor de �� .................................... 78
Tabela 9 – Redução da TAR em função da Área de Confronto ..................................... 79
xiv
RESUMO
Este trabalho apresenta um método para identificação de indivíduos por biometria da
íris, compreendendo a detecção de contexto, a localização e segmentação da região de
interesse da imagem, a extração de características e o confronto biométrico. O algoritmo
proposto usa o ângulo de saída do filtro Gabor como característica biométrica. Ao
contrário do método de Daugman, que realiza a contagem dos ângulos de fase com
valores divergentes, o algoritmo proposto define uma função de Densidade
Coincidência de Fases e a utiliza para calcular a similaridade. Uma implementação do
método de Daugman foi utilizada como método de referência. Análises estatísticas
foram realizadas no banco de dados de imagens de íris CASIA, fornecendo uma
avaliação de desempenho do método proposto em termos de probabilidades de erro e as
dependências do algoritmo proposto com as perturbações nos parâmetros da localização
e às limitações de área útil das representações. Para esta base de dados, as análises
mostram que o algoritmo proposto tem um desempenho superior quando comparado
com o método de referência. O trabalho também propõe técnicas de redução dos erros
pela monitoração de variáveis em tempo real e controle automatizado do processo de
captura de imagens.
Palavras Chave: Biometria, Reconhecimento de Íris, Processamento de Imagens,
Curvas ROC
xv
ABSTRACT
SUBJECT IDENTIFICATION BY BIOMETRICS OF THE IRIS US ING
PHASE COINCIDENCY DENSITY FUNCTION
This work presents a method for subject identification by biometrics of the iris,
comprising context detection, localization and segmentation of the region of interest,
feature extraction and biometric match. The proposed algorithm uses the angle of the
Gabor Filter output as biometric feature. Unlike the Daugman method, which counts
phase angles with different values, the proposed algorithm defines a Phase Coincidency
Density function and applies it to calculate the similarity. An implementation of the
Daugman method was used as reference method. A statistical analysis was carried out in
the CASIA iris image database, providing a performance evaluation of the proposed
method in terms of error probabilities and its dependencies on the perturbations in the
localization and segmentation parameters, and of the limitations in the useful area of the
representations. For that database, the analysis shows that the algorithm has a slightly
better performance when compared with the reference method. This work also proposes
techniques for error reduction by real time system variables monitoring and automated
control of the image capture process.
Keywords: Biometrics, Iris Recognition, Image Processing, ROC Curves
1
CAPÍTULO 1
INTRODUÇÃO
1.1. Motivações
Historicamente, a identificação de indivíduos por biometria iniciou com a
utilização da impressão digital na ciência forense. De fato, órgãos governamentais
ligados à segurança pública arquivam as impressões digitais de pessoas para formar
bases de dados com o objetivo de comparação com impressões digitais coletadas em
cenas de crimes, identificação de cadáveres e situações onde se deseja a confirmação ou
a busca da identidade de indivíduos (FBI, 2009).
Com o advento dos sistemas computacionais, em meados da década de 70
nasciam os primeiros sistemas automáticos para identificação de pessoas por análise de
impressões digitais, denominados AFIS (Automated Fingerprint Identification Systems).
Além de aplicações governamentais, os sistemas de identificação estão sendo
utilizados em outros setores da economia, com diferentes exigências de confiabilidade e
tempo de resposta. Isto motiva a pesquisa e o desenvolvimento de processos de
identificação, tanto para a evolução dos sistemas AFIS quanto para a proposta de
sistemas baseados em outras características do indivíduo, tais como íris, voz, face,
retina, distribuição de veias, geometria da mão e DNA.
Segundo estudos realizados pela International Biometric Group, empresa líder
do mercado em consultoria e integração de sistemas biométricos, o mercado mundial de
biometria crescerá de $3,4 bilhões para $9,4 bilhões entre os anos de 2009 e 2014. As
demandas deste mercado são formadas por aplicações de controle de acesso a áreas
restritas, identificação civil, identificação criminal, identificação de consumidores,
identificação de passageiros, setores financeiro e militar (IBG, 2009).
Soluções biométricas são mais apropriadas para o atendimento destas demandas,
pois os métodos clássicos de identificação baseados em senhas e cartões são falhos: a
simples posse de um cartão ou crachá e/ou o conhecimento de uma senha não são
requisitos suficientes para atestar uma identidade. Ao contrário, as características
biométricas são inerentes ao indivíduo e apresentam padrões estáveis com variabilidade
alta entre indivíduos diferentes. Estas características são utilizadas como identificadores
do indivíduo em uma população.
2
Os sistemas biométricos baseados em impressão digital, embora integrem cerca
de 60% do mercado atual de biometria no mundo (IBG, 2009), oferecem baixa
dificuldade para a realização de cópias. Esta desvantagem também está presente quando
a base tecnológica é a geometria da mão e palmares, cujos padrões, impressos com
resíduos de gordura e água da pele em objetos de uso cotidiano, são obtidos com
materiais comuns e baratos, tais como massas de modelar e silicone, sem o
consentimento, cooperação ou conhecimento do indivíduo.
Estes fatos subtraem os principais requisitos desejados em um sistema
biométrico: a impossibilidade de transferência e assimilação e a impraticabilidade de
cópias dos padrões característicos.
Ao contrário das impressões digitais, uma cópia da textura da íris é mais difícil
de realizar, pois ela não é espalhada no ambiente. Mesmo que uma cópia desta textura
seja realizada com sucesso, a prevenção de fraudes pode ser realizada com métodos de
certificação in-vivo da íris apresentada ao sistema, identificando a presença de uma
textura de íris falsa ou rejeitando uma íris que fora extraída cirurgicamente do
indivíduo, monitorando o contexto de captura da imagem e a dilatação da pupila.
Outras questões não diretamente associadas ao núcleo tecnológico também
devem ser consideradas em um sistema biométrico, pois formam requisitos que
viabilizam as aplicações da tecnologia no mercado, por exemplo: a facilidade de
utilização, a não-intrusividade, a necessidade de operadores e treinamento, a
colaboração e a interação dos usuários com o sistema. Na aquisição de imagens de íris,
especificamente, a segurança relativa aos limites de exposição à iluminação e fatores
nocivos à saúde dos usuários (e.g. contato físico dos olhos ou dos tecidos próximos com
o hardware de captura) ou à integridade dos padrões devem ser considerados a fim de
garantir uma utilização segura. Requisitos de segurança devem ser observados
principalmente quando não há a assistência de operadores no processo de captura, tais
como em caixas eletrônicos e aplicações de controle de acesso.
Este contexto enfatiza o caráter multidisciplinar do tema, que envolve áreas de
conhecimento em biomédica, eletrônica, ciência da computação, processamento de
imagens, física óptica, matemática e estatística.
Do ponto de vista de desempenho quanto às taxas de erros e acertos dos
algoritmos computacionais, existe a necessidade de submetê-los a testes e avaliações em
situações desfavoráveis onde os erros estão presentes, onde a quantidade de informação
está limitada e onde há distorções nos padrões da imagem. Dado que a biometria é
3
essencialmente um problema de classificação, o desenvolvimento de diferentes métodos
de identificação biométrica justifica-se, pois estes métodos podem ser utilizados em
conjunto, visando um único resultado com menores erros de classificação do que seriam
obtidos pelos métodos separadamente (KO, 2005).
Métodos computacionais para identificação humana por biometria da íris têm
sido propostos na literatura desde 1992 (DAUGMAN, 1992; WILDES, 1997; HUANG,
LUO et al., 2002; MA et al., 2002). As diferenças principais entre eles estão nos
algoritmos utilizados no processamento computacional, na extração da característica
biométrica, na forma de codificação e representação e no processo de comparação de
características ou confronto biométrico. O desenvolvimento destes métodos é motivado
pela necessidade de maximizar as taxas de acerto e minimizar as taxas de erros. Estas
taxas são variáveis importantes para o dimensionamento técnico e financeiro de um
sistema, influenciando diretamente na escolha de um fornecedor de tecnologia.
A natureza aberta do problema, a viabilidade de soluções técnicas de
identificação inovadoras em biometria por íris, a expansão projetada do mercado,
políticas de governo com perspectivas de continuidade para incentivo à pesquisa em
setores estratégicos (FINEP, 2009) e o sentimento da necessidade de soluções
tecnológicas nacionais motivaram a execução deste trabalho.
1.2. Objetivos
1.2.1. Objetivo Geral
O objetivo geral desta pesquisa é desenvolver um sistema para identificação de
pessoas através de biometria da íris.
1.2.2. Objetivos Específicos
1. Desenvolver e implementar o algoritmo de pré-processamento de imagens,
incluindo a localização e segmentação da região de interesse da imagem, a
extração de características e a representação computacional em vetores de
características;
2. Desenvolver e implementar um método para confrontar vetores de características
e fornecer um valor de similaridade entre estes vetores;
4
3. Aplicar métodos de validação estatística para estabelecer métricas de
desempenho em relação às taxas de erro do método proposto, incluindo a análise
de curvas ROC (Receiver Operating Characteristics);
4. Comparar o método de confronto proposto com um método de referência;
5. Avaliar a influência das variações dos parâmetros dos modelos adotados no
desempenho do confronto em termos estatísticos.
6. Propor um sistema de aquisição de imagens robusto para captura não-assistida;
1.3. Estrutura da Dissertação
O trabalho está dividido em 6 capítulos. Neste primeiro capítulo foi apresentada
uma introdução onde são expressas as motivações, objetivos gerais e específicos do
trabalho. O segundo capítulo contém uma fundamentação teórica que trata de assuntos
relacionados à processamento de imagens, biometria, sistemas de confronto e métricas
de avaliação estatísticas de resultados. Esta fundamentação é necessária para o
entendimento dos trabalhos relacionados apresentados na literatura, descritos no
capítulo 3, do método de referência e do método proposto, desenvolvidos no capítulo 4.
Os resultados do trabalho são apresentados no capítulo 5 e compreende a
apresentação das curvas de distribuição de variáveis relevantes, curvas de similaridades
e curvas ROC para os métodos de referência e proposto e discussões acerca dos
resultados obtidos. Por fim as conclusões e propostas para a continuidade da pesquisa
são apresentadas no capítulo 6.
5
CAPÍTULO 2
FUNDAMENTAÇÃO TEÓRICA
2.1. Introdução
Neste capítulo são apresentados fundamentos de teoria necessários ao
entendimento dos capítulos subseqüentes, tanto para a apresentação dos métodos
explorados e apresentados na literatura quanto para a proposta deste trabalho. O
objetivo é a contextualização multidisciplinar e a uniformização de conceitos, de
nomenclaturas e de linguagem. Para alcançar estes objetivos são utilizadas descrições,
definições formais, equações matemáticas e diagramas.
Com exceção da anatomia do olho humano, são apresentados temas comuns a
qualquer sistema biométrico, não considerando uma tecnologia específica, tratando de
forma generalizada o processo de extração de características, apresentando técnicas de
processamento de imagens e de identificação baseados em biometria. São apresentados
modelos matemáticos genéricos de confrontadores e as métricas de avaliações
estatísticas.
2.2. Anatomia do Olho Humano
O olho é o órgão mais externo da visão humana. Sua função é atuar como um
sensor de luz e convertê-la em sinais eletro-químicos, enviados através do nervo óptico
ao córtex visual no cérebro, para processamento de informações. A luz entra pela
córnea, atravessa uma cavidade preenchida com um líquido incolor chamado humor
aquoso, passa por uma abertura na íris, chamada pupila, e é focalizada pelo cristalino
para atingir uma superfície formada por mais de 100 milhões de fotorreceptores,
chamada retina (PALMER, 1999). A Figura 1 (a) ilustra os componentes principais do
olho humano.
A íris é um tecido visível externamente através da córnea. É composta de várias
camadas de tecidos e por dois músculos responsáveis pelo controle da quantidade de luz
que chega à retina, através da dilatação (midríase) e constrição (miose) da pupila. Estes
músculos são: o esfíncter da íris, formado por fibras dispostas em forma de anel, e o
músculo dilatador da pupila, formado por fibras radiais (NILSSON & HOLMGREN,
6
1994). A Figura 1 (b), (c) e (d) ilustram o corte transversal da íris em três estados de
abertura da pupila.
b)
c)
a) d)
Figura 1 – a) Partes principais do olho humano (modificada de WIKI, 2009) e corte
transversal da íris, b) miose ou constrição da pupila, c) pupila em estado intermediário e
d) midríase ou dilatação da pupila. (adaptada de MILLER, et al., 2005).
A estrutura geral da íris é geneticamente determinada, porém detalhes da
disposição das fibras são dependentes de condições iniciais na fase embrionária e de
processos de crescimento que ocorrem até os dois primeiros anos de vida, improváveis
de serem replicados, mesmo em olhos diferentes de uma mesma pessoa. Doenças tais
como iridosquise, iridoplegia, iridonese e outras podem afetar os padrões de disposição
das fibras musculares da íris, modificar a coloração e causar lesões nos tecidos o que
alteraria sua aparência externa. Porém estes fatores representam situações raras. Apesar
das variações referentes à idade e outros fatores não serem completamente
determinados, a estabilidade e a diversidade observadas nos padrões evidenciam a
unicidade destes padrões, possibilitando a utilização da íris para identificação
biométrica de indivíduos (WILDES, 1997).
7
2.3. Processamento Digital de Imagens
O processamento digital de imagens (PDI) é uma área do processamento de
sinais (PDS) que trata da manipulação de sinais bidimensionais através de operações
realizadas com o auxílio de um sistema computacional. Estas técnicas compõem as
primeiras etapas de processamento em sistemas de reconhecimento de padrões, atuando
como um passo intermediário entre a entrada, que pode ser uma imagem proveniente de
um sistema de captura ou de um sistema de armazenamento, e processos
computacionais posteriores, tais como a extração de características e a classificação.
A pesquisa em PDI está focada em processos de segmentação, filtragem,
compactação e restauração de imagens. Nesta seção são abordadas algumas técnicas de
PDI necessárias para a compreensão do restante do trabalho. Optou-se por se utilizar o
espaço contínuo para formulação, pois proporciona uma notação concisa e independente
de detalhes de implementação tais como a resolução das imagens e as formas dos
caminhos e superfícies de integração, que serão definidas no decorrer deste trabalho. As
implementações utilizam somatórios no espaço discreto bi-dimensional das imagens.
2.3.1. Correlação e Convolução
Em PDS e PDI as operações de correlação e de convolução são empregadas em
filtragem e na extração de características, por exemplo. As Equações (1) e (2) definem
respectivamente a correlação e a convolução para sinais unidimensionais (adaptado de
BRIGHAM, 1988). Para sinais bidimensionais a correlação e a convolução estão
definidas nas Equações (3) e (4). As integrais de correlação e convolução diferem uma
da outra apenas no espelhamento da função �. No caso especial onde a função � é par, a
correlação e a convolução são equivalentes.
� � ! " �#�� $ #�%#&'& (1)
� � ! " �#�� ( #�%#&'& (2)
Onde: • � �: é o sinal de entrada;
• � � : é o sinal de saída;
8
• � �: é a função de correlação ou convolução;
• #: é uma variável auxiliar para o processo de integração;
��, �� ! " " �#, )��� $ #, � $ )�%)%#&'&
&'& (3)
��, �� ! " " �#, )��� ( #, � ( )�%)%#&'&
&'& (4)
Onde: • ��, ��: é o sinal bidimensional de entrada;
• ��, �� : é o sinal bidimensional de saída;
• ��, ��: é a função de correlação ou convolução;
• # e ): são variáveis auxiliares para o processo de integração;
A função �, no caso discreto, é implementada como uma matriz de coeficientes
definida sem a necessidade de modificar a natureza da operação (e.g. filtros passa baixa
e passa alta), o que faz da correlação e da convolução algoritmos genéricos utilizados
em PDS e PDI.
2.3.2. Detector de Bordas Sobel
Os objetos presentes em uma imagem são caracterizados por suas propriedades
tais como cor, textura e forma. O formato de um objeto é percebido pela variação destas
propriedades entre regiões adjacentes que definem a fronteira de um objeto para outros
elementos da imagem, tais como outros objetos e o fundo.
Em um caso simples, utilizando imagens em tons de cinza, esta fronteira pode
ser expressa matematicamente através de um processo de derivação da imagem que
fornece o módulo do gradiente e a direção da variação dos níveis de cinza entre as
regiões, conforme a Equação (5) e a Equação (6) (JÄHNE, 2005).
|���, ��| ! +,��, ��� -. $ ,��, ��� -. (5)
9
/ ! 0� 012 3��, �����, ��� 4 (6)
Onde:
• |���, ��| é o módulo do gradiente da imagem ��, ��;
• 567,8�57 é a derivada parcial da imagem ��, �� em relação a x;
• 567,8�58 é a derivada parcial da imagem ��, �� em relação a y;
• / é o ângulo de direção do gradiente da imagem;
As derivadas parciais são implementadas no caso discreto pela convolução da
imagem com funções � , projetadas para que os resultados aproximem as derivadas
parciais 567,8�57 e
567,8�58 , apresentadas pelas Equações (7) e (8). A notação ��, �� 9��, �� denota a convolução entre ��, �� e ��, ��.
��, ��� : ��, �� 9 �;�, �� (7)
��, ��� : ��, �� 9 �<�, �� (8)
Estas funções � são chamadas de máscaras horizontal (�=�, �� ) e vertical
(�>�, ��) e estão definidas nas Equações (9) e (10) com valores conforme propostos por
Sobel (JÄHNE, 2005). A detecção de bordas através destas mascaras é exemplificada na
Figura 2.
�;�, �� ! ?(1 0 1(2 0 2(1 0 1B (9)
�<�, �� ! ?(1 (2 (10 0 01 2 1 B (10)
10
a) b)
c) d)
Figura 2 – Detecção de bordas: a) Imagem original, b) Módulo do gradiente (|���, ��|), c) Derivada parcial em relação a x (��, ��/�) e d) Derivada parcial em relação a y
(��, ��/�). Em c) e d) valores positivos são mais claros e valores negativos são mais
escuros.
2.3.3. Transformada de Hough
Uma das áreas de pesquisa em PDI é a segmentação, que busca separar as
regiões da imagem onde estão presentes elementos de interesse. As técnicas de
segmentação podem ser classificadas a partir do nível de abstração, conforme ilustrado
no diagrama da Figura 3.
Figura 3 – Níveis de abstração e técnicas de segmentação de imagens. O diagrama foi
inspirado a partir da classificação apresentada em JÄHNE (2005).
11
A transformada de Hough (HT) e suas variações formam um conjunto de
técnicas de alto nível de abstração para segmentação de imagens baseadas em modelos
geométricos (e.g. linhas, círculos, elipses) que descrevem uma região de interesse que se
deseja segmentar. Neste trabalho a HT será utilizada para a detecção da região de
interesse circular que define a pupila. O princípio da HT é uma mudança de espaço da
imagem para um espaço de parâmetros que definem o modelo geométrico (JÄHNE,
2005), conforme ilustrado na Figura 4.
Figura 4 – Princípio da Transformada de Hough
Para a detecção de regiões circulares, uma maneira de definir o espaço de
parâmetros é dada pelas Equações (11) e (12) que são as equações paramétricas da
circunferência, com as quais as coordenadas de um ponto qualquer pertencente à
circunferência são obtidas pelo conjunto de parâmetros (� , � , �, C). Estas equações são
deduzidas a partir da Figura 5.
Figura 5 – Parâmetros da circunferência
� ! �D $ � · cos C (11) � ! �D $ � · sin C (12)
Onde:
• �, �� são as coordenadas de um ponto sobre a circunferência;
12
• �D , �D� são as coordenadas do centro da circunferência;
• � é o raio da circunferência;
• C é o ângulo de direção normal à tangente no ponto �, ��, em relação ao eixo de
referência;
Dado que o ângulo C é equivalente ao ângulo / de direção do gradiente da
imagem no ponto �, �� calculado pela Equação (6), infinitas circunferências podem
passar pelo ponto �, ��, porém apenas duas para cada valor do parâmetro �, conforme
ilustrado na Figura 6, e a apenas uma caso o interesse seja limitado apenas ao gradiente
positivo ou negativo.
Figura 6 – Princípio da Transformada de Hough para circunferências. Os parâmetros �D, �D , �� que definem a circunferência são obtidos a partir do ângulo do gradiente da
imagem através de um processo de contagem.
Seguindo as Equações (11) e (12), o espaço de parâmetros, ou espaço de Hough,
para circunferências define uma matriz tridimensional em que cada célula representa
uma circunferência definida pela tripla �D , �D , ��. O algoritmo da Figura 7 apresenta a
HT para círculos que se resume em um processo de contagem do número de pontos da
imagem cujo gradiente aponta para um centro �D , �D� e que estão dispostos a uma
distância � deste centro. Os resultados desta contagem são armazenados nas células da
matriz, que é dita matriz acumuladora. A constante R é o raio máximo esperado para
uma circunferência e W e H são a largura e a altura da imagem de entrada.
13
Figura 7 – Algoritmo da Transformada de Hough para círculos
Se existem pontos de máximos proeminentes na matriz, isto indica que existem
circunferências na imagem de entrada, definidas pelos parâmetros associados às
coordenadas destes pontos. A detecção de circunferências é então resumida à procura de
máximos locais na matriz acumuladora.
2.3.4. Filtro Gabor
A origem dos filtros Gabor está na teoria de comunicações, que estuda a
transmissão e a recepção de informações. Baseados nas observações realizadas por
Carson, Nyquist e Küpfmüller, Hartley concluiu que a quantidade total de informação
que pode ser transmitida é proporcional ao produto da banda de freqüência do canal
pelo tempo disponível para transmissão (GABOR, 1946). Este enunciado é aceito como
a Lei Fundamental da Teoria de Comunicações.
Para análise de sinais na área de comunicações a análise de Fourier é um método
padrão que define as integrais recíprocas no domínio do tempo e da freqüência, dadas
14
respectivamente pelas Equações (13) e (14). Estas integrais consideram sinais em
intervalos infinitos, o que não é observado em sinais práticos, e as descrições dos
fenômenos são realizadas de forma mutuamente exclusiva nos domínios, isto é, o sinal
não é tratado simultaneamente no tempo e na freqüência.
K � ! " LM�NO.PQR%M&'& (13)
LM� ! " K �N'O.PQR% &'& (14)
Onde: • K � é uma função do tempo;
• LM� é o espectro de freqüências de K �;
• S é a unidade imaginária √(1.
GABOR (1946) propôs um método que descreve de forma matematicamente
adequada a análise temporal e a análise espectral, contrapondo-se ao método de Fourier,
pois estas são realizadas simultaneamente. O tempo e a freqüência formam eixos
ortogonais e os sinais são representados em um diagrama bidimensional, como
apresentado na Figura 8.
Devido às incertezas na determinação do período de tempo e da freqüência da
parte oscilatória de um sinal, presentes nas respostas de sistemas físicos reais, o
diagrama foi dividido em retângulos, chamados logons, que definem genericamente as
informações que podem ser recebidas inequivocamente por um receptor em um
intervalo de tempo ∆ e em uma banda de passagem ∆M, associados às incertezas. Gabor
concluiu que existe uma área mínima que um sinal pode ocupar no diagrama, e que essa
área está associada a um sinal elementar ou genericamente uma informação elementar,
definindo um princípio quântico para a informação1. Ele também demonstra que os
sinais que ocupam esta área podem ser funções exponenciais complexas moduladas por
uma função de probabilidade gaussiana2, como mostrado na Equação (15).
1 Fundamentado no Princípio da Incerteza de Heisenberg, que enuncia que ∆ ∆M U 1/2
(GABOR, 1946). 2 Posteriormente outras funções base foram definidas na literatura tais como em DAUBECHIES
(1987) e MALLAT (1989), conhecidas como Wavelets.
15
Figura 8 – Diagrama tempo/freqüência proposto por Gabor
V � ! N'WXR'RY�X · NO.PQYRZ[� (15)
Onde: • V � é o sinal elementar;
• C é uma constante associada ao desvio padrão da gaussiana.
• \ é a posição central do sinal no eixo do tempo;
• M\ é a freqüência central do sinal;
• / é uma constante de fase do sinal;
A transformada de Fourier desta função apresenta-se como um caso especial,
pois o formato da função de probabilidade é mantido tanto no domínio do tempo quanto
no da freqüência. Isto enfatiza que o sinal elementar além de limitado no tempo,
também possui o espectro de freqüência limitado, tornando-o mais adequado para
descrever sinais reais. Esta descrição é realizada pela decomposição de um sinal como
uma combinação de sinais elementares.
O filtro Gabor foi estendido para duas dimensões espaciais por DAUGMAN
(1988) e definido nos domínios do espaço (x, y) e da freqüência, para modelar o
comportamento dos campos receptivos de células nervosas encontradas no córtex visual
no cérebro de mamíferos. A função espacial do filtro Gabor é apresentada na Equação
(16). Um estudo mais completo, incluindo restrições baseadas em observações
neurofisiológicas, é realizado em (LEE, 1996).
Os filtros Gabor 2D estão sendo utilizados em várias aplicações de visão
computacional, pois permitem análises em diferentes freqüências, orientações e escalas,
16
como por exemplo em compactação, reconstrução de imagens e extração de
características.
��, �� ! 12]�7�8 N'.̂,7'7Y�X_`X Z8'8Y�X_aX - · NO.PbY7ZcY8� (16)
Onde: • �\, �\ : é a posição central da gaussiana no espaço.
• �7: é o desvio padrão da gaussiana na direção x.
• �8 : é o desvio padrão da gaussiana na direção y.
• : é a freqüência central do filtro no eixo x.
• : é a freqüência central do filtro no eixo y.
A Equação (16) pode ser generalizada para qualquer orientação espacial do filtro
através da rotação de eixos definida pela Equação (17).
d�e�ef ! gcos � ( sin �sin � cos � h · g��h (17)
Onde: • �i, �i� : é a versão rotacionada de �° do ponto �, �).
A aplicação desta rotação de eixos resulta na forma completa da função Gabor
2D, apresentada na Equação (18).
��, �, ��! 12]�7�8 N'.̂jklmno p'qors p�'7YtX_`X Zkl ors pZ8 mno p�'8YtX_aX uNO.PkbYlmno p'qors p�ZcYl ors pZ8 mno p�t
(18)
Na Figura 9 estão apresentadas as partes real e imaginária do filtro Gabor 1D
definido na Equação (19), para � ! 0.4 e �\ igual à 1 Hz.
� � ! 1√2]� N'.̂wRX_Xxcos2]�\ � $ S sen2]�\ �� (19)
0u
0v
17
A parte real e a parte imaginária da Equação (16) são plotadas para �7 ! �8 !1.5, e freqüências espaciais �\=1 e �\=0, respectivamente na Figura 10 (a) e na Figura
10 (b).
a) b)
Figura 9 – Filtro Gabor 1D para �\=1Hz e �=0.4: a) parte real, b) parte imaginária
a) b)
Figura 10 – Filtro Gabor 2D para �\ =1, �\ =0 e �7 ,�8 =0.4: a) parte real, b) parte
imaginária
2.4. Extração de Características
Uma informação de um objeto sob estudo é um conhecimento básico acerca do
objeto (e.g., cor, forma, tamanho, peso e densidade). Quando uma informação for
relevante para quantificar ou qualificar o objeto em relação a outros, esta informação
pode ser entendida como uma informação característica do objeto. A extração de
características é uma etapa de processamento em sistemas de reconhecimento de
padrões, como ilustrado na Figura 11 (modificada de DUDA, HART, & STORK, 2000).
-1,0
-0,8
-0,6
-0,4
-0,2
0,0
0,2
0,4
0,6
0,8
1,0-5
,0
-4,5
-4,0
-3,5
-3,0
-2,5
-2,0
-1,5
-1,0
-0,5
0,0
0,5
1,0
1,5
2,0
2,5
3,0
3,5
4,0
4,5
5,0
Ga
nh
o
t
-1,0
-0,8
-0,6
-0,4
-0,2
0,0
0,2
0,4
0,6
0,8
1,0
-5,0
-4,5
-4,0
-3,5
-3,0
-2,5
-2,0
-1,5
-1,0
-0,5 0,0
0,5
1,0
1,5
2,0
2,5
3,0
3,5
4,0
4,5
5,0
Gan
ho
t
18
Figura 11 – Sistema de reconhecimento de padrões
Em essência, a extração de características é um processo de coleta e
transformação representacional das características do objeto. Esta transformação se
estabelece entre um espaço físico, no qual o objeto se encontra, para um espaço lógico e
computacional, onde as características são representadas e definidas de forma
conveniente (e.g., números, vetores e símbolos) para utilização em processos ulteriores.
A transformação representacional é ilustrada na Figura 12. A notação de teoria
dos conjuntos foi utilizada para representar de forma pictórica o espaço físico e o espaço
vetorial de características F, como conjuntos onde os elementos são, respectivamente,
indivíduos e vetores de características. O elemento I j no espaço físico representa um
indivíduo j qualquer e Xi representa um vetor de índice i, onde cada componente é uma
característica. Os indivíduos do espaço físico são relacionados aos vetores de
características por uma relação de transformação, definida como o processo de extração
de características.
O resultado da extração de características está sujeito às incertezas de diversas
fontes, tais como o processo de medição, o mensurando, a disponibilidade de dados e as
influências do ambiente. Por este motivo, as representações são variáveis aleatórias e
suas análises e descrições envolvem processos e métodos estatísticos.
Figura 12 – Extração de características definida como uma relação entre indivíduos do
espaço físico e vetores de características definidos em um espaço vetorial.
19
2.5. Biometria e Identificação Biométrica de Indivíduos
Recorrendo à definição apresentada em 2.3, o termo “biometria” define um
processo de medida e obtenção de características, onde os seres vivos são os objetos de
estudo. Uma classificação para as características biométricas é apresentada na Tabela 1.
Tabela 1 – Classificação de características biométricas
Estruturais Comportamentais
Exemplos: Exemplos:
• Íris • Impressões Digitais • Geometria da Mão • Distribuição de Veias
• Voz • Gestos • Forma de Andar
A identificação biométrica, ilustrada na Figura 13, é um processo que busca
identificar quais indivíduos possuem determinadas características. Para a identificação
de indivíduos, o interesse em biometria está focado nas características que expressam
singularidades que podem ser utilizadas como identificadores estatísticos dos indivíduos
em uma população. Estas singularidades são definidas como características que
apresentam baixa variabilidade quando forem originadas de um mesmo indivíduo e alta
variabilidade quando se originarem de indivíduos diferentes.
Figura 13 – Identificação biométrica definida como uma relação entre vetores de
características do espaço vetorial de características e indivíduos representados no espaço
físico.
No caso ideal hipotético, as características obtidas para um indivíduo
apresentariam uma combinação única. Ou seja, cada indivíduo seria mapeado para um
20
único vetor do espaço de características e este não seria mapeado por nenhum outro
indivíduo. Porém, devido às variações no processo de aquisição de dados e extração de
características, um indivíduo pode gerar diferentes vetores característicos espalhados no
espaço, como exemplificado na Figura 14 pelos indivíduos 1 e 2, e indivíduos diferentes
podem gerar vetores característicos muito próximos, situação exemplificada pelos
indivíduos 3 e 4.
Figura 14 – Espaço de características, F. Os indivíduos são representados por vetores de
características. Através deste modelo vetorial, a identificação biométrica resume-se em
uma medição de distância entre vetores do espaço F.
Cada indivíduo define uma classe no espaço e todos os vetores característicos
obtidos para um mesmo indivíduo são definidos como Vetores Intra-Classe. Os vetores
característicos que foram gerados por indivíduos diferentes são definidos como Vetores
Inter-Classes.
A similaridade entre vetores pode ser definida como uma função da distância
entre os vetores no espaço. Quanto maior a distância, menor a similaridade entre os
vetores. Ao contrário, se a distância tende a zero, a similaridade tende ao máximo
(vetores idênticos). A similaridade entre vetores só pode ser completamente definida
usando definições formais do espaço de características, do significado e do intervalo de
valores de cada componente do vetor.
A priori, pode-se assumir que a função de similaridade possui imagem
convenientemente limitada a um intervalo de interesse. Desta forma, dado que a
imagem da função expressa um valor real de similaridade, seu intervalo pode ser
21
restringido ao intervalo [0,..,1], onde o valor 0 significa “completamente não similar” e
o valor 1 significa “completamente similar”.
A Equação (20) define genericamente a similaridade como uma função da
distância entre vetores de um espaço de características F.
K�^, �.� ! Mk%�^, �.�t (20)
Onde:
• �^, �. são vetores de características definidos em F;
• %�^, �.� é a uma função de distância entre pares de vetores de F;
• K: | } | ~ �0, 1� é a função similaridade que mapeia um par de vetores
característicos a um número real no intervalo �0, . . , 1�. Propriedades da função de similaridade:
o Reflexiva: K�, �� ! 1;
o Simétrica: K�^, �.� ! K�., �^�;
Os vetores de características e a função de similaridade definem um modelo
matemático para comparação biométrica de indivíduos. A hipótese implícita na
utilização deste modelo é que a distância mínima entre qualquer par de vetores inter-
classes é significativamente maior que a distância máxima obtida para qualquer par de
vetores intra-classe.
Em situações práticas, o intervalo de saída da função similaridade pode ser
definido de formas diferentes e as propriedades de simetria e reflexividade podem não
ser respeitadas. Contudo, esta função é apresentada neste trabalho de forma idealizada.
22
2.6. Sistemas de Confronto Biométricos
2.6.1. Confronto 1:1 - Sistema Biométrico Mínimo
Um sistema biométrico mínimo é um classificador que possui como resposta
dois valores possíveis na saída (e.g., mesma pessoa e pessoas diferentes), por este
motivo é chamado de classificador binário. O valor de saída da função de similaridade
entre dois vetores, comparado com um valor de similaridade mínima, T, estabelece um
classificador binário. Se a similaridade entre os vetores for menor do que T, admite-se
que os vetores de entrada foram originados de indivíduos diferentes (inter-classe). Caso
contrário, se a similaridade for maior ou igual a T, considera-se que os vetores de
entrada foram originados de um mesmo indivíduo (intra-classe).
O diagrama da Figura 15 apresenta um tipo de confronto conhecido como
confronto 1:1, pois compara apenas um vetor com outro, produzindo uma única saída de
similaridade. Este tipo de confronto é utilizado para aceitar ou rejeitar a hipótese de que
os dois vetores de entrada foram originados pelo mesmo indivíduo e define um sistema
biométrico mínimo.
Figura 15 – Sistema biométrico mínimo (Confronto 1:1). O resultado da função de
similaridade entre vetores de características é comparado com um limiar de decisão T,
definindo um classificador binário entre as classes de vetores.
2.6.2. Confronto 1:N
O confronto 1:N, dito confronto um contra N, é um processo de comparação que
possui como entradas um vetor característico submetido e um conjunto de N vetores
23
característicos em F que compõem uma base de dados. A saída do processo é um
subconjunto de F chamado de conjunto de candidatos, C.
Figura 16 – Confronto 1:N. Este confronto é utilizado para identificar um indivíduo em
uma base de dados. A função de confronto f1:N retorna um conjunto de vetores que
possuem similaridade alta em relação ao vetor de características submetido.
Os vetores característicos que estão contidos no conjunto de candidatos C são
todos os vetores �6 da base de dados que possuem distância em relação ao vetor
característico submetido �� menor que uma distância limite DLimite. Matematicamente:
� ! ��6 � | | %��, �6� � ��6�6R�� (21)
O conjunto de candidatos C pode ser definido em termos da similaridade entre os
vetores de entrada, definido na Equação (22), de forma a selecionar os vetores de F que
possuem similaridade maior que SLimite. O valor de SLimite equivalente ao nível de decisão
T, definido para o confronto 1:1, apresentado na seção 2.6.1:
� ! ��6 � | | K��, �6� � L�6�6R�� (22)
A tarefa da função de confronto 1:N ( f1:N ) é selecionar os vetores característicos
da base de dados que possuam alta similaridade em relação ao vetor submetido. Este
confronto é aplicável em sistemas de identificação onde a identidade do sujeito gerador
do vetor característico submetido é desconhecida e deseja-se confirmar ou rejeitar a
hipótese de que o indivíduo se encontra representado na base de dados. Se o número de
elementos do conjunto, ou seja, se a cardinalidade do conjunto C, for igual à zero,
conclui-se que o indivíduo não está representado por um vetor em F. A situação oposta,
quando a cardinalidade do conjunto C for maior que zero, existe pelo menos um
24
candidato na base com possibilidade de ser o sujeito que gerou o vetor característico
submetido.
2.6.3. Confronto N:N
Estatisticamente é interessante conhecer os valores de similaridade produzidos
pelo confronto de todos os vetores característicos entre si. A este processo dá-se o nome
de confronto N:N, ou todos contra todos. O resultado pode ser arranjado em uma matriz
bidimensional onde cada par ordenado de vetores confrontados gera um valor de
similaridade que ocupa uma célula. Se a função de similaridade for simétrica e
reflexiva, uma matriz de escores MNxN pode ser reduzida a uma matriz triangular de
similaridades onde os elementos da diagonal principal são iguais a 1, conforme ilustrado
na Equação (23).
M�:�|� ! ��}��, S� !��������� 1 K\^ K\. K\� � K\�'^�1 K^. K^� � K^�'^�1 K.� � K.�'^�1 � K��'^�� �1 ���
������ (23)
Onde
• K6O contém o valor da similaridade entre os vetores �6 e �O , obtida pela
função K�6 , �O�.
Este confronto é utilizado para realizar avaliações estatísticas da função de
similaridade, obtidas para uma base de dados confiável onde é conhecida a classe de
todos os pares de vetores submetidos ao confronto. Outro exemplo de utilização deste
tipo de confronto é a busca de registros (imagens) duplicados em uma base de dados
causados por fraudes.
25
2.7. Métricas para Avaliação Estatística de Resultados
2.7.1. Curvas de Densidade de Similaridade
Os confrontos 1:1 e 1:N formam as funções básicas para processos de
autenticação e identificação biométricos, respectivamente. Nestes dois confrontos o
problema é resumido na escolha de um nível de decisão que, comparado com os valores
de similaridade ou distância entre os vetores característicos de entrada, produz uma
saída binária que expressa a classe à qual o par de vetores de entrada pertence. Uma boa
escolha para o valor do nível de decisão é aquela que minimiza o erro de classificação
dos pares de vetores submetidos ao algoritmo.
Devido à natureza estocástica do problema, esta escolha é baseada em análises
estatísticas realizadas em uma base de dados com vetores de referência. A matriz de
saída do confronto N:N é utilizada para computar os histogramas de freqüências e as
probabilidades de ocorrência de um valor específico de similaridade. A Equação (24)
expressa o histograma de similaridades obtido da matriz de similaridades ��:� para a
classe K. Dado que a matriz ��:� é simétrica e que os elementos da diagonal principal
são desnecessários no cálculo do histograma, os limites inferiores e superiores dos
somatórios na equação são definidos para computar somente a porção superior da
matriz.
��|�� ! � � � 1 KN ��:��, S� ! � e k�6, �Ot � �0 0K� �1 ���
��'^O�6Z^
�'^6�\
(24)
Onde:
• K é a classe do par de vetores {intra, inter};
• ��|�� é o histograma de similaridades da classe K;
• � é o número de vetores da base de dados;
• �, S são os índices das linhas e das colunas da matriz ��:�, respectivamente;
• k�6 , �Ot é um par qualquer de vetores de características da base de dados;
• � é o valor da similaridade �6 e �O;
A Função Densidade de Probabilidade (pdf – Probability Density Function)
condicional à classe K, ilustrada na Equação (25), é obtida normalizando ��|��.
26
�%M�|�� ! ��|��|�| (25)
Onde:
• |�| é a cardinalidade da classe K.
• �%M�|�� é a função densidade de probabilidade de um valor r de similaridade,
condicional à classe K;
• ��|�� é o histograma de similaridades da classe K;
No caso ideal hipotético, definido anteriormente na seção 2.5, os pares de vetores
característicos intra-classe possuem similaridade máxima e que os pares inter-classe não
possuem similaridade. Isto é ilustrado nas curvas de distribuição da Figura 17. Portanto,
qualquer nível de decisão colocado no intervalo aberto (0,.., 1) separaria completamente
as duas classes.
Figura 17 – Curvas idealizadas de densidades de probabilidade para similaridades
As variações nos vetores característicos entre seções de captura e o
comportamento do algoritmo de confronto provocam o deslocamento das médias e o
0,0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1,0
0,00 0,10 0,20 0,30 0,40 0,50 0,60 0,70 0,80 0,90 1,00
Pro
bab
ilid
ade
Similaridade
Intra-Classe
Inter-Classe
27
aumento dos desvios das distribuições de densidade de probabilidades. A Figura 18
ilustra um exemplo onde estas distribuições seguem um aspecto normal (gaussiano).
Figura 18 – Exemplo de curvas de densidades de probabilidade para similaridades reais
Estas curvas revelam o comportamento da função similaridade para as classes de
confronto. São utilizadas para computar a função densidade de probabilidades
cumulativa (cdf – cumulative density function), definida para a classe K na Equação
(26).
%M�|�� ! " �%MK|�����\ %K (26)
Onde:
• �%MK|�� é a função densidade de probabilidades de um valor s de similaridade,
condicional à classe K;
• %M�|�� é a função de densidade de probabilidades cumulativa para um valor
de similaridade r, condicional à classe K.
A Figura 19 mostra as curvas obtidas para as curvas de densidade da Figura 18,
plotadas utilizando-se as funções %M�|�1 �0� e k1 ( %M�|�1 N��t.
0,00
0,01
0,02
0,03
0,04
0,05
0,06
0,07
0,08
0,09
0,10
0,00 0,10 0,20 0,30 0,40 0,50 0,60 0,70 0,80 0,90 1,00
Pro
bab
ilid
ade
Similaridade
Intra-Classe
Inter-Classe
28
Figura 19 – Curvas de densidades cumulativas
Estas curvas são utilizadas na escolha do nível de decisão para separação entre
classes diferentes e na previsão das taxas de erros e acertos de classificação.
Os dois tipos de erros presentes em um sistema biométrico são: a) Erro de Falsa
Rejeição, quando um confronto intra-classe é classificado como inter-classe e b) Erro
de Falsa Aceitação, quando um confronto inter-classe é classificado como intra-classe.
Estes erros são estimados em função de um limiar de decisão T e são definidos como a
Taxa de Falsa Rejeição (FRR - False Rejection Rate) e da Taxa de Falsa Aceitação
(FAR - False Acceptance Rate) nas Equações (27) e (28), respectivamente.
|���� ! %M�|�1 �0� (27) |���� ! 1 ( %M�|�1 N�� (28)
De forma complementar, as Equações (29) e (30) definem respectivamente a
Taxa de Aceitação de Autênticos (TAR – True Acceptance Rate) e a Taxa de Rejeição
de Impostores (TRR – True Rejection Rate).
����� ! 1 ( %M�|�1 �0� ! 1 ( |���� (29) ����� ! %M�|�1 N�� ! 1 ( |���� (30)
0,0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1,0
0,00 0,10 0,20 0,30 0,40 0,50 0,60 0,70 0,80 0,90 1,00
Pro
bab
ilid
ade
Similaridade
cdf(r│intra)
1-cdf(r│inter)
29
O ponto � onde |���� ! |���� define o ponto de erro igual (ERR – Equal
Error Rate). Se o limiar de classificação for menor que a similaridade para erro igual, a
FRR será reduzida e a FAR aumentada. Caso o valor do limiar seja maior, a FRR será
aumentada e a FAR reduzida. Na prática, o limiar padrão para a classificação é
escolhido no ponto de ERR, desta forma, nenhuma das classes é privilegiada frente à
outra.
2.7.2. Figuras de Mérito
A biometria aplicada à identificação e autenticação de indivíduos é
essencialmente um problema de classificação binária, pois a decisão é uma entre duas
classes de identidade: positiva ou negativa. Se esta saída for comparada à saída esperada
para uma base de dados de referência, existirão quatro possibilidades de resultado: a)
Saída positiva quando esperada positiva; b) Saída negativa quando esperada positiva; c)
Saída positiva quando esperada negativa; d) Saída negativa quando esperada negativa
(FAWCETT, 2004). Os resultados obtidos nas ocorrências de (a) e (d) representam
acertos, pois os resultados do classificador coincidem com a classe real. O contrário
acontece com as ocorrências de (b) e (c) e representam erros de classificação.
A Figura 20 mostra o arranjo destas ocorrências em uma matriz chamada de
Matriz de Confusão (Confusion Matrix) ou Tabela de Contingência (Contingency
Table), onde cada célula contém o número de ocorrências de uma das quatro
possibilidades. A diagonal principal e a diagonal secundária representam,
respectivamente, os acertos e erros de classificação.
Classe Real
Positivo Negativo
Cla
ssifi
caçã
o
Positivo TP FP
Negativo FN TN
Totais P N
Figura 20 – Matriz de Confusão
30
Onde:
• TP (True Positive) é o total de positivos classificados como positivos;
• TN (True Negative) é o total de negativos classificados como negativos;
• FP (False Positive) é o total de negativos classificados como positivos;
• FN (False Negative) é o total de positivos classificados como negativos;
• P = TP + FN é o número total de positivos na base de referência;
• N = FP + TN é o número total de negativos na base de referência;
As figuras de mérito são estabelecidas por relações entre os valores das células
da Matriz de Confusão e expressam índices de qualidade do classificador que dependem
dos seus parâmetros. Por exemplo, se o classificador possui um limiar de decisão, tal
como apresentado no Sistema Mínimo da seção 2.6.1, para cada valor de T, novos
valores de TP, FN, FP e FN são obtidos. Portanto, podem-se utilizar estas variáveis para
traçar curvas de qualidade do classificador em função deste limiar de decisão, através de
figuras de mérito.
A Taxa de Positivos Verdadeiros (TP rate – True Positive rate), é a figura de
mérito definida na Equação (31), que relaciona a quantidade de positivos retornada pela
quantidade total de positivos da base.
�� �0 N�� ! ����� (31)
A Taxa de Falsos Positivos (FP rate – False Positive rate), definida na Equação
(32), expressa uma relação entre a quantidade de negativos erroneamente classificados
como positivos, pelo total de negativos. Espera-se que em um classificador este erro
seja minimizado e idealmente anulado.
|� �0 N�� ! |���� (32)
As equações (33) e (34) mostram as equivalências de termos utilizados para as
figuras de mérito. Outras figuras de mérito com menor utilização em biometria, tais
como a Precision, Recall, Accuracy e a F-Measure, tratadas em (FAWCETT, 2004) não
são utilizadas neste trabalho.
31
LN1K� ��� � ! �� �0 N ! ��� (33) L�N �M� � � ! 1 ( |� �0 N ! 1 ( |�� (34)
2.7.3. Curvas ROC
As Curvas ROC (Receiver Operating Characteristics) são gráficos bi-
dimensionais que relacionam a Taxa de Verdadeiros Positivos (TP rate) e a Taxa de
Falsos Positivos (FP rate). Estas curvas são úteis para comparar classificadores,
independentemente da forma, dos limites e dos intervalos dos parâmetros específicos,
para determinar um ponto de operação e para avaliar a desempenho em termos de
probabilidades, prevendo os erros por falsa aceitação e por falsa rejeição (FAWCETT,
2004). A figura a seguir mostra o espaço da curva ROC.
Figura 21 – Espaço da curva ROC. A linha tracejada é a linha de performance aleatória
(RPL) e a linha pontilhada é a Linha de Erro Igual (ERRL).
A linha tracejada é a Random Performance Line (RPL), formada pelos pontos do
espaço ROC onde a desempenho do classificador é equivalente a uma escolha aleatória
entre as classes. Esta linha é resultado de distribuições equivalentes entre a FAR e a
TAR. Acima e abaixo da RPL um classificador possui desempenho superior e inferior a
uma escolha aleatória, respectivamente. A linha pontilhada é a Equal Error Rate Line
(ERRL). Um classificador ajustado para operar em um ponto de sua ROC coincidente
32
com esta a linha, apresenta taxas de erro de classificação igual para as duas classes.
Quando um classificador opera em um ponto não coincidente com a ERRL uma das
classes será privilegiada em relação à outra, isto é, a FP rate será diferente da TP rate.
Os pontos notáveis do espaço estão identificados pelas letras A, B e C. O ponto
A é o ponto ótimo do espaço onde o erro de classificação é nulo para as ambas as
classes. Os pontos B e C representam estratégias de classificação que retornam somente
saídas negativas e positivas respectivamente.
33
CAPÍTULO 3
REVISÃO BIBLIOGRÁFICA
3.1. Introdução
Este capítulo tem por objetivo a apresentação e descrição dos aspectos relevantes
dos principais métodos descritos na literatura acerca de identificação humana por
biometria da íris. A organização está por ordem cronológica do aparecimento dos
autores dos principais métodos.
3.2. Estado da Arte
Historicamente o primeiro sistema de identificação humana por biometria de íris
de forma computadorizada foi patenteado por FLOM & SAFIR (1987). Esta patente
descreve um aparato para captura de imagens que inclui um sistema de iluminação e
sugere a comparação com imagens previamente armazenadas. A patente é pouco
descritiva quanto ao método computacional envolvido na comparação.
A primeira proposta efetiva em termos de resultados estatísticos foi realizada por
DAUGMAN (1992). Este autor utiliza uma integral de linha para a detecção da região
de interesse na imagem, formada pela região entre a pupila e a íris, limitada pelas
pálpebras. Os sinais do resultado das partes real e imaginária de saída de um filtro
Gabor bi-dimensional aplicado à região de interesse é utilizado como característica
codificada para um processo de comparação, que mede a dissimilaridade entre
representações utilizando a distância de Hamming, através de operações lógicas tipo ou-
exclusivo (DAUGMAN, 1992). As distribuições da HD para a intra-classe e para a
inter-classe, revelam o potencial discriminante do classificador, apresentando TAR igual
a 99,2% quando a FAR é igual à 0,0001. Este resultado confere ao algoritmo o quarto
lugar em um teste biométrico de larga escala realizado pelo NIST (ICE, 2006). Este
método é apresentado em detalhes na seção 4.2.
No trabalho desenvolvido por WILDES (1997), a segmentação da região de
interesse é realizada por um método de localização da região circular da pupila e da íris
baseado na Transformada de Hough para círculos. As representações da íris são obtidas
através de uma decomposição em uma pirâmide Laplaciana de 4 níveis, obtida da
imagem da região de interesse, que preserva as informações da íris em múltiplas bandas
34
de freqüência da imagem. A comparação de duas representações de íris é realizada entre
níveis correspondentes das pirâmides, através de um processo de correlação
normalizada. A combinação do resultado das correlações normalizadas dos 4 níveis da
pirâmide compõe o valor de saída da comparação (WILDES, 1997).
HUANG, LUO, & CHEN descrevem um método de localização da íris baseado
no detector de borda de Canny, juntamente com a Transformada de Hough. O método
utiliza uma representação em coordenadas polares da íris e a linha entre centros das
pupilas dos olhos direito e esquerdo como ponto de referência para a transformação de
coordenadas. A codificação é realizada pela obtenção dos coeficientes da Análise de
Componentes Independentes (ICA) para pequenas janelas da imagem da íris. O processo
de comparação é baseado na distância euclidiana entre os coeficientes ICA (HUANG,
LUO, & CHEN, 2002).
MA, WANG, & TAN (2002) utilizam dois círculos não concêntricos para a
modelagem da íris e da pupila, realizando uma primeira aproximação da região da íris
por projeções da imagem nas direções vertical e horizontal. A extração dos parâmetros
das circunferências é realizada pela aplicação da Transformada de Hough. A imagem da
íris é geometricamente normalizada para um bloco retangular de 64x512 pixels onde são
aplicadas técnicas de equalização local do histograma e filtragem gaussiana. A extração
de características é realizada por uma etapa de filtragem da imagem utilizando Filtros
Circulares Simétricos (CSF), que possuem características semelhantes aos filtros Gabor.
O valor da característica é o desvio médio absoluto em cada bloco de 8x8 do resultado
da filtragem da imagem normalizada. O vetor de características é formado por 384
componentes e a comparação é realizada por um método de medição de distância
chamado Nearest Feature Line (NFL) (MA, WANG, & TAN, 2002). Posteriormente os
autores introduziram um controle de qualidade na imagem baseado em análise de
freqüências por Transformada de Fourier. A dimensão do vetor de características foi
aumentada para 1536 componentes e reduzida posteriormente para 384 componentes
com o uso de um Discriminante Linear de Fisher (MA, TAN, WANG, & ZHANG,
2003). O confronto é realizado por uma medição de distância entre os vetores com
dimensão reduzida.
Vários outros trabalhos foram publicados, propondo novos métodos de
comparação biométrica utilizando outras características biométricas (MA, et al., 2004;
SUNG, et al., 2004; IVES, et al., 2004; MIYAZAWA, et al., 2005; YUAN & SHI, 2005;
YAO, et al., 2006). A diferença entre os métodos está nos algoritmos de localização e
35
segmentação da região de interesse, particularmente importante devido à variedade de
fontes de imagens de diversas qualidades, nas informações que são utilizadas como
características, em como estas características são codificadas em representações
computacionais e na função que executa a comparação destas representações. A Tabela
2, resume os principais autores e métodos empregados nas etapas de processamento.
Tabela 2 – Principais métodos propostos na literatura para segmentação de imagens,
codificação e confronto de íris
Autor Ano Segmentação Codificação
Representação Confronto
Daugman 1992 Operadores Íntegro Diferenciais
Filtros Gabor Ângulos de Fase
Distância de Hamming
Wildes 1997 Transformada de Hough Pirâmides Laplacianas Correlação
Huang 2002 Detector de Bordas Canny Transformada de Hough
Coeficientes ICA Distância Euclidiana
Ma 2002 Transformada de Hough Filtros Circulares Simétricos Nearest Feature
Line
Sung 2004 Detector de Bordas Canny Decomposição Wavelet Support Vector
Machines
Ives 2004 Detector de Bordas Canny Transformada de Hough
Histograma Normalizado DU Measure
Miyazawa 2005 Ellipse Fitting Ângulos de Fase Correlação
Yuan 2005 Transformada de Hough Log-Gabor Ângulos de Fase
Distância Euclidiana
Yao 2006 - Modified Log-Gabor
Ângulos de Fase Distância de Hamming
Além de temas específicos de pré-processamento, segmentação, extração de
características e comparação, métodos de geração de imagens sintetizadas são
discutidos na literatura (ZUO, et al., 2007; SHAH & ROSS, 2006), motivados pela
baixa disponibilidade de bases de dados para testes de larga escala (e.g., milhões de
indivíduos e milhares de amostras por indivíduo).
O objetivo das pesquisas é melhorar o desempenho dos sistemas sob dois
aspectos principais: a diminuição das taxas de erro de classificação e a minimização do
custo computacional em termos de tempo de processamento e armazenamento de dados.
Apesar de algumas das publicações apresentarem resultados estatísticos
comparativos entre taxas de erro, os métodos de análise são pouco descritos e a
36
indisponibilidade de bases de dados confiáveis prejudicam a reprodução dos
experimentos. Além do fato das implementações dos algoritmos de segmentação,
codificação e confronto estarem sujeitos a interpretações, o que torna uma análise
comparativa pouco confiável.
Para referenciar o mercado de biometria, o NIST (National Institute of Standards
and Technology), órgão do governo americano, promove testes independentes de larga
escala com o objetivo de comparar algoritmos de identificação por biometria da íris
(ICE, 2006), nos mesmos moldes dos testes que são realizados para impressões digitais
e face. Nestes testes os algoritmos são submetidos a uma mesma base de dados e os
resultados são publicados em um ranking por taxas de erros e acertos de classificação e
tempo de processamento.
Devido ao interesse comercial em biometria aplicada à identificação, os
algoritmos submetidos ao teste de larga escala do NIST, em sua maioria, não são
publicados completamente e são protegidos por patentes, propriedades intelectuais e
direitos autorais.
37
CAPÍTULO 4
MATERIAIS E MÉTODOS
4.1. Introdução
Neste capítulo são apresentados dois métodos para localização, segmentação,
extração de característica e comparação de íris. O primeiro método é uma
implementação do trabalho apresentado na literatura, onde a comparação é baseada em
uma medição de distância de Hamming entre representações, calculada a partir das
características codificadas nas representações (DAUGMAN, 1992; 2001). Este método
é utilizado como referência.
O segundo método, que foi desenvolvido neste trabalho, utiliza a mesma
característica proposta pelo método de referência, porém a comparação das
representações não é obtida diretamente a partir das características, mas pelo resultado
de uma função que calcula a densidade de características coincidentes entre as
representações, como uma proposta para melhorar o desempenho do classificador.
Complementando esta abordagem, foi proposto um sistema para identificação de
pessoas, compreendendo os sistemas de captura de imagem, iluminação e blocos de
processamento envolvidos na localização e segmentação da região de interesse da íris,
extração e codificação de características e comparação biométrica. Uma plataforma de
software para avaliação estatística foi desenvolvida para realizar a comparação dos
métodos e análises do algoritmo proposto.
38
4.2. Método de Referência
DAUGMAN (1992) propõe as localizações da pupila e da íris pela maximização
de uma derivada da integração normalizada dos valores dos pixels da imagem em um
caminho circular definido por r, x0 e y0. A Equação (35) apresenta matematicamente
este processo, que em resumo, atua como um operador para detecção de bordas
circulares na imagem. Para a localização das pálpebras o caminho circular da equação é
substituído por um caminho curvilíneo, não especificado pelo autor.
0��,7Y,8Y� ¡¢_�� 9 � £ ¤�, ��%K2]��,7Y,8Y¡ (35)
Onde:
• r é o raio da circunferência;
• x0 e y0 são as coordenadas do centro da circunferência;
• ds é um diferencial do caminho circular;
• ¢_�� é um filtro gaussiano;
• ¤�, �� é a imagem de entrada;
O resultado da localização da íris por este método é a segmentação da ROI que é
dada pela região anular compreendida entre a pupila e a esclera, e limitada superior e
inferiormente pelas pálpebras. O algoritmo filtra esta região da imagem com um filtro
Gabor 2D e define a característica biométrica como o quadrante ao qual pertence o
ângulo de saída desta filtragem. Este processo é definido na Equação (36) e o resultado
assume um em quatro valores possíveis obtidos dos sinais da parte real e da parte
imaginária da saída do filtro (DAUGMAN, 2001), como ilustrado na Figura 22.
��¥�,¦�� ! K21�¥�,¦�� §¨ ¤©, /�N'6ªpY'[�«[ N'�Y'«�XWX N'pY'[�X¬X ©%©%/ (36)
Onde:
• K21 extrai o sinal das partes real e imaginária do argumento;
• ¤©, /� é a imagem descrita em coordenadas polares;
39
• C e ® são os parâmetros de desvio padrão do envelope gaussiano do filtro;
• ¯ é a freqüência angular central do filtro.
Figura 22 – Demodulação de fase pelo método de Daugman. Dois bits são utilizados
para codificar o quadrante a que o ângulo pertence através do sinal da parte real e da
parte imaginária da saída do filtro. O valor “1” representa sinal positivo e “0” representa
sinal negativo.
Os bits que representam o sinal da parte real e imaginária são arranjados em uma
representação computacional como um vetor de bits (vetor de características) com 2048
bits que é ilustrado na Figura 23 (adaptada de DAUGMAN, 2001). Na implementação
foram utilizadas 8 circunferências igualmente espaçadas a partir da pupila até a borda
externa da íris e 128 pontos por circunferência, totalizando 1024 pontos. Para cada
ponto, 2 bits armazenam o sinal da parte real e imaginária da saída do filtro. A filtragem
foi realizada no domínio da freqüência com ¯ ! 2] °̂ e ® ! C ± 1/¯.
Figura 23 – Representação pictórica do código de íris pelo método de Daugman.
A comparação entre duas representações é realizada pelo cômputo da distância
de Hamming normalizada entre as duas representações sob confronto, excluindo as
regiões inválidas causadas pelas pálpebras. Esta comparação é definida na Equação (37)
(modificada de DAUGMAN, 2001).
40
=� ! ² �%N� ³ �%N´� µ 0K¶� µ 0K¶´²² 0K¶� µ 0K¶´² (37)
Onde:
• HD é a distância de Hamming Normalizada;
• �%N� e �%N´ são os códigos de íris (representações) obtidos pela Equação
(36), para a imagem de íris A e B, respectivamente;
• 0K¶� e 0K¶´ são máscaras que contém os bits válidos das representações;
• ³ é a operação lógica XOR (OU-exclusivo);
• ² ² é a norma do vetor de bits e define o número de bits com valor igual “1”
do vetor argumento.
4.3. Método Proposto
O sistema proposto é composto estruturalmente por três subsistemas, um para
controle de iluminação e dois para capturas de imagens. O Sistema de Detecção de
Contexto (CDS – Context Detection System) captura imagens da cena e as utiliza para
localizar a face e os olhos do indivíduo à sua frente. As informações de posicionamento
e distância da face são utilizadas pelo Sistema de Captura Biométrica (BCS – Biometric
Capture System) para controlar a iluminação e o arranjo óptico/mecânico. O objetivo é
diminuir a necessidade de colaboração dos usuários e agilizar o processo de captura de
imagens.
Figura 24 – Visão geral do sistema proposto, formado pela captura biométrica (BCS)
pela detecção de contexto (CDS) e pelo sistema de iluminação.
41
O diagrama em blocos funcional do método proposto é mostrado na Figura 25,
onde os principais blocos de funcionamento estão representados. Nas próximas seções
estes blocos serão detalhados quanto ao funcionamento e suas aplicações.
Figura 25 – Diagrama de blocos do sistema proposto. A detecção de contexto controla a
iluminação e o processo de captura biométrica. Após a captura biométrica é realizado o
processamento das imagens, a extração de características e o confronto.
4.3.1. Sistema de Iluminação
A iluminação da região ao redor dos olhos durante o processo de captura
biométrica tem por objetivo a manutenção de um nível mínimo de contraste entre os
elementos notáveis da imagem (pupila, íris, pálpebras, pele e cílios), fundamental para a
obtenção de bons resultados na segmentação da região de interesse e conseqüentemente
no resultado de saída da função de confronto.
O iluminador é composto por uma matriz de LED’s infravermelhos que emitem
luz com comprimento de onda de 850 nm. Este comprimento de onda foi escolhido, pois
se obtém bom contraste na imagem independente da pigmentação da íris. A potência
emitida é controlada pela corrente nos LED’s e calculada em função da distância da face
à câmera. Este controle é necessário para manter a iluminação em níveis seguros para os
tecidos da pele e dos olhos (córnea, cristalino e retina). Estes níveis devem ser menores
que 0,01 ·D�X para comprimentos de onda maiores que 780 nm, prevenindo efeitos
prejudiciais nas lentes dos olhos (SUESS & MORISON, 1983).
42
O modelo representado na Figura 26 é utilizado para o cálculo da potência
incidente na face posicionada a uma distância D. Considera-se que a fonte de
infravermelho (IR) esteja no vértice de um cone e que emita toda a potência dentro de
uma abertura de ângulo C. A potência incidente por unidade de área é calculada pela
Equação (38).
Figura 26 – Cone de iluminação da face
� ! �\] · ¸� · tan ¸C2»».
(38)
Onde:
• �¼ é a potência óptica em watts emitida pela fonte de IR;
• � é a distância entre face e a fonte de iluminação;
• C é o ângulo de abertura do cone de iluminação da face;
4.3.2. Detecção de Contexto
O objetivo da detecção de contexto é determinar se existe uma face bem
posicionada em frente ao sistema, isto é, se a distância face-câmera e alinhamentos da
face em relação ao sistema estão dentro de limites adequados para que uma imagem da
íris possa ser adquirida. O algoritmo descrito nesta seção foi proposto para a detecção
do estado das pálpebras utilizado em sistemas de auxilio à deficiência física
(FERNANDES, et al., 2008).
As informações da posição dos olhos são utilizadas para estimar a distância da
face. Inicialmente a face é localizada na imagem do CDS, utilizando-se o algoritmo
baseado em Haar Features e ADA Boosting (VIOLA, 2004). A posição dos olhos é
então encontrada pelo algoritmo descrito nesta seção. Na Figura 27 o resultado deste
processo é ilustrado. A primeira fase identifica a região da face e separa a metade
43
superior em duas sub-regiões, indicadas pelas regiões rotuladas como A e B na Figura
27 (a), formando a ROI para a segunda fase, quando o algoritmo de refinamento da
posição dos olhos é aplicado para determinar os centros aproximados dos olhos,
representados pelos pontos P1 e P2 na Figura 27 (b).
(a) (b)
Figura 27 – Localização dos olhos: a) detecção da face e delimitação das regiões dos
olhos e b) localização da posição dos olhos.
Os passos de processamento de imagens utilizados na determinação das posições
dos olhos são apresentados no diagrama de blocos da Figura 28. A redução dos efeitos
de iluminação é obtida pela equalização do histograma da imagem da região de
interesse. Posteriormente, a imagem é entregue a um filtro de média 3x3 para diminuir a
influência causada por ruídos e pela presença de cílios. As regiões da íris, pálpebras,
cílios e sobrancelhas aparecem mais escuras que a pele ao redor dos olhos, ocupando
aproximadamente 25% da região, definindo dinamicamente o limiar de binarização no
primeiro quartil do histograma da região. O tamanho do filtro de média foi definido
empiricamente no estágio atual do trabalho. Outros tipos de filtragens (e.g. filtragem
passa-baixa gaussiana) não foram abordados, pois, pelo tamanho reduzido da máscara
do filtro, o ganho prático da redução de artefatos tende a ser insignificante.
Figura 28 – Determinação da posição dos olhos. As sub-imagens dos olhos são
processadas para obter a posição aproximada dos olhos.
44
O ponto obtido como centróide da região pode não coincidir com o centro da íris,
porém a estabilidade observada na prática é suficiente para utilizar esta posição como
referência para controle de posicionamento e para tomada de decisão do processo de
captura de imagem em resolução mais elevada da íris, realizada pelo BCS. Os resultados
parciais de saída dos blocos de (a) equalização de histograma, (b) filtragem de média,
(c) binarização e (d) cálculo do centróide da região são apresentados, nesta seqüência,
na Figura 29.
(a) (b) (c) (d)
Figura 29 – Resultados parciais do segundo estágio para localização dos olhos. a)
equalização do histograma, b) filtragem de média, c) binarização e d) localização do
centróide da região escura.
A distância da face à câmera é estimada utilizando as posições dos centros dos
olhos. Esta estimativa é definida matematicamente na Equação (39) (modificada de
JÄHNE, 2005), e ilustrada na Figura 30. Esta relação é válida para câmeras com lentes
tipo pinhole. Para outras lentes a relação é influenciada por aberrações e distorções do
sistema óptico, no entanto, uma LUT (lookup table) é uma alternativa para realizar a
estimativa da distância.
Uma restrição à utilização prática desta estimativa é que a relação da Equação
(39) é válida somente para faces frontais. Em caso de faces oblíquas a relação não é
válida. Nesta situação o algoritmo de detecção da face deve ser treinado para localizar
somente faces frontais, garantindo uma estimativa correta para a distância D.
Figura 30 – Esquema de cálculo da distância face-câmera por semelhança de triângulos
45
� ! % · �¼�½ (39)
Onde:
• �¼ é um valor médio de distância entre os olhos em centímetros;
• �½ é o número de pixels entre os centróides obtidos para cada olho pelo
algoritmo da Figura 28;
• % é uma constante que expressa a distância virtual em pixels entre a lente e o
sensor de imagem e é obtida por calibração manual para uma distância
conhecida;
• � é a distância incógnita entre face e a lente da câmera.
O valor de referência utilizado para �¼ foi de 6.5 cm, obtido pela média da
distância entre os olhos de 15 pessoas adultas. Este valor de referência deve ser
calculado para um número maior de pessoas, aumentando a precisão da estimativa. Para
este valor de �¼, e com uma face posicionada a 40 cm de distância, o valor de �½obtido
é de 52 pixels, resultando em uma constante % de 320 pixels.
4.3.3. Extração do Vetor de Características
A região de interesse da imagem biométrica de entrada é composta somente pela
porção que compreende a região da íris. Esta região é ilustrada na Figura 31 e forma a
ROI para a detecção da pupila, da íris e das pálpebras. A íris, limitada internamente pela
pupila e externamente pela esclera e pelas pálpebras, forma a ROI do processo de
extração de características.
Figura 31 – Região de interesse da íris.
46
Uma modelagem geométrica dos elementos que limitam a região da íris na
imagem, baseados em circunferências e parábolas, foi utilizada no processo de
localização da região de interesse. As fronteiras pupila-íris e íris-esclera são modeladas
como circunferências não necessariamente concêntricas e as pálpebras são modeladas
como arcos parabólicos.
Após a localização, a segmentação e a padronização de tamanho da região de
interesse são realizadas. A representação intermediária da imagem é uma transformação
do espaço cartesiano (x, y) original para um espaço polar �, ��. Esta representação é
normalizada para padronizar o tamanho, formando a entrada do bloco de extração de
características. Tal como no método de referência, o vetor de características é formado
por informações do ângulo de fase do resultado da aplicação de um filtro Gabor na
representação normalizada.
Nas próximas seções são descritos os algoritmos propostos para o processamento
de imagens, utilizados para a segmentação da região de interesse.
4.3.3.1. Detecção da Pupila
A pupila é identificada como a região central do olho, que possui um aspecto
circular, que se expande e se contrai para controlar a entrada de luz que atinge a retina.
Em imagens com alto contraste, o histograma mostra que a região da pupila se apresenta
na porção mais a esquerda, diferenciando-se das demais pelo seu nível de cinza mais
escuro, como mostrado na Figura 32.
a) b) c)
Figura 32 – a) Imagem de íris em alto contraste b) Histograma c) Imagem binarizada.
Em imagens com alto contraste, a segmentação da pupila pode ser obtida com nível de
binarização a partir do primeiro máximo no histograma.
Quando as imagens possuem baixo contraste ou a pupila contém reflexos de
iluminação que comprometem a área escura, a busca por um pico proeminente no início
47
do histograma pode não ser suficiente para delimitar a região da pupila. Um método de
segmentação baseado em um simples nível de binarização, obtido a partir da posição do
pico, causa resultados insatisfatórios mesmo em casos onde a imagem ainda poderia ser
utilizada para fins biométricos. Esta situação é exemplificada na Figura 33.
a) b) c)
Figura 33 – a) Imagem de íris em baixo contraste b) Histograma c) Imagem binarizada.
Em imagens com baixo contraste, um nível de binarização não é capaz segmentar a
pupila de outros elementos da imagem (e.g. cílios).
Neste trabalho é proposta uma forma de detecção da pupila, inspirado nos
trabalhos de WILDES (1997) e DAUGMAN (1992), utilizando as informações do
histograma não como base da segmentação, mas como uma referência para
determinação de limites para o raio no processo de procura de uma circunferência
descritora da pupila. O objetivo é unir a eficiência computacional em termos de tempo
de processamento da Transformada de Hough para localizar o centro da pupila e reduzir
o espaço de busca de uma circunferência, conforme descrito neste item. O diagrama de
blocos do algoritmo de detecção da pupila é ilustrado na Figura 34.
Figura 34 – Diagrama de blocos do algoritmo de localização da pupila. A transformada
de Hough fornece o centro da pupila. A localização da borda da pupila é definida no
ponto de máximo da saída do bloco integrador em um caminho circular.
48
O primeiro bloco do algoritmo é composto por filtro gaussiano que visa redução
de ruídos que causariam artefatos na saída da convolução do detector de bordas,
realizada por um filtro Sobel (JÄHNE, 2005).
O bloco principal é composto pela Transformada de Hough para círculos. Como
definido na seção 2.3.3, esta transformada é um processo de mudança do espaço
cartesiano (x, y) da imagem para o espaço de parâmetros que define uma circunferência,
formado pela posição do centro k�½, �½t e pelo raio r. Na Figura 35 são ilustradas as
representações pictóricas das saídas do (a) detector de bordas (Gm) e (b) uma projeção
do acumulador 3D de Hough (H) em um espaço 2D, obtidas para a Figura 32 (a).
a) b)
Figura 35 – Detecção do centro da Pupila. a) Saída do filtro Sobel (Gm), b) Saída do
acumulador de Hough (H). O ponto de máximo do acumulador define o centro da
pupila.
O centro da pupila k�½, �½t, indicado pela cruz vermelha na Figura 35 (b), é
aceito como o ponto onde o acumulador de Hough possui valor máximo. O raio da
pupila é determinado pela maximização de uma integral de linha realizada ao redor do
ponto k�½, �½t em uma circunferência de raio r no resultado de saída do filtro Sobel,
definido na Equação (40). Esta integral é normalizada em relação ao comprimento da
circunferência.
12]� £ ¢�k�½ $ � · cos � , �½ $ � · sin �t% ¾
(40)
Onde:
• C é um caminho de integração circular definido por � e �;
• �½, �½ são as coordenadas do centro da pupila;
49
• ¢ é o módulo da saída do filtro Sobel, Figura 35 (a);
Os limites de integração são definidos nos intervalos�0, 360�° para �° e ���6¿, ��À7� para o raio r, onde ��6¿ e ��À7 são obtidos da análise do histograma e
pelo número de votos no ponto de máximo do espaço acumulador de Hough. A análise
do histograma fornece uma estimativa da área e do raio da pupila pela contagem do
número de pixels que estão localizados abaixo do nível que isola o primeiro pico de
máximo no histograma, a partir do nível de cinza mais escuro, como sugerido na Figura
32 (b).
O valor máximo da integral é armazenado e deverá ser utilizado no futuro como
um índice de qualidade da localização da pupila, na tentativa de relacionar o contraste
da imagem, representado pela a borda entre a pupila e a íris, com as taxas de erro de
confronto.
4.3.3.2. Detecção da Íris
Para a detecção da íris foi utilizado um algoritmo semelhante ao da determinação
do raio da pupila. O objetivo é determinar a posição do centro da circunferência que
delimita a íris, realizando aproximações para o centro e raio da íris, seguindo os
seguintes passos:
1. Admitir inicialmente que a íris e a pupila são círculos concêntricos;
2. Estimar os raios da íris à esquerda e à direita em relação ao centro, pelos
pontos de máximos na integração de linha das bordas, utilizando arcos
circulares como caminhos de integração;
3. Calcular o raio médio entre os raios à esquerda e à direita;
4. Calcular o centro em x definitivo da íris;
5. Calcular o centro em y pela maximização da integração de linha das
bordas.
Estes passos são realizados pelo algoritmo representado no diagrama da Figura
36. A filtragem gaussiana e a detecção de bordas por Sobel são reaproveitadas do
cálculo prévio realizado na detecção da pupila. A partir da borda da pupila são
realizadas duas integrações em caminhos circulares por uma equação semelhante à
50
Equação (40), porém com limites de integração para o ângulo �° limitado em �(45, 45�° e �(135, 225�°, conforme indicado nos blocos. Esta limitação é imposta
para diminuir a influência das bordas resultantes das pálpebras e cílios.
Os resultados desta fase são as posições da borda direita e da borda esquerda,
como ilustrado na Figura 37. Estas posições são utilizadas para calcular a posição xi do
centro e o raio médio da íris. A ordenada do centro da íris, �6, que ainda é incógnita, é
estimada repetindo-se o processo de integração, dado pelo ultimo bloco integrador, em
um intervalo de variação de �6 em g�½ ( Á�Â'�Ã�Ä Á , �½ $ Á�Â'�Ã�Ä Áh e em �(45, 45�° e �(135, 225�° para ângulo �° e com valor da abscissa constante. O valor final de �6 é
selecionando na posição em que a integração apresentar-se máxima.
Figura 36 – Diagrama de blocos do algoritmo de localização da íris. Os números entre
parênteses nos blocos integradores indicam os limites de integração para o ângulo �°.
Figura 37 – Posição das bordas à direita e a esquerda do centro da íris.
Se as circunferências da íris e da pupila são concêntricas, os raios obtidos à
direita (rd) e à esquerda (re) são iguais. Caso contrário, a íris e a pupila possuem centros
distintos e a abscissa do centro da íris pode ser determinada pela Equação (41).
�6 ! �½ $ �Å(���2 (41)
51
Onde:
• �6 é a abscissa do centro da íris;
• �½ é a abscissa do centro da pupila;
• �� N �Å são os raios da íris respectivamente à esquerda e à direita do centro da
pupila;
4.3.3.3. Detecção das Pálpebras
De forma semelhante à detecção da pupila e da íris, a determinação dos
parâmetros das parábolas que modelam as pálpebras é realizada pela maximização de
integrais de linha. Para as pálpebras os caminhos adotados nas integrações são arcos
parabólicos no gradiente vertical de saída do filtro Sobel, Gy. A integral de linha para as
parábolas é definida na Equação (42), onde as variáveis a, b e c são os parâmetros da
parábola.
Figura 38 – Detecção das pálpebras superior e inferior é realizada pela maximização de
duas integrações em caminhos parabólicos.
1L " ¢8�, 0�. $ Æ� $ �% ¾
(42)
Onde:
• C é um caminho de integração parabólico, descrito por 0�. $ Æ� $ ;
• ¢8 é o gradiente vertical de saída do filtro Sobel;
• L é o fator de normalização da integral e é dado pelo o comprimento do arco
parabólico.
52
No sistema de referência adotado, com x crescendo da esquerda para a direita e y
crescendo de cima para baixo na imagem, o valor do parâmetro a para a pálpebra
superior é maior ou igual a zero, pois a parábola correspondente possui concavidade
positiva, voltada para baixo. De forma análoga, a é menor ou igual a zero para a
parábola da pálpebra inferior, pois sua abertura é voltada para cima. O diagrama da
Figura 39 ilustra o algoritmo aplicado na detecção das pálpebras. Após o filtro
gaussiano e a detecção de bordas por Sobel, os dois integradores são aplicados e os
parâmetros obtidos nos seus pontos de máximos, dentro do intervalo de integração, são
considerados como descritores das parábolas das pálpebras.
Figura 39 – Diagrama de blocos do algoritmo de localização das pálpebras.
4.3.3.4. Abertura Relativa da Pupila
Devido às contrações e relaxamentos da estrutura muscular da íris que resultam
no controle da quantidade de luz que entra nos olhos pela pupila, espera-se que os
padrões na imagem sofram deformações. Estas deformações podem afetar os resultados
dos sistemas de confronto quando as representações submetidas forem obtidas em
diferentes condições de iluminação e sob influência de fatores físicos e psicológicos que
afetem a dilatação da pupila.
A relação entre o raio da pupila (�½) e o raio da íris (�6) estabelece uma forma
invariante à escala para determinar a abertura da pupila em relação ao tamanho da íris,
pois o resultado, reconhecendo a variação da precisão que pode existir, não é
influenciado por diferentes resoluções de captura da íris.
A Abertura Relativa da Pupila e a Diferença Absoluta de Aberturas Relativas
entre Pupilas estão definidas nas Equações (43) e (44).
53
�½ ! �½�6 (43)
Onde:
• �½ é a Abertura Relativa da Pupila;
• �½ é o raio da pupila;
• �6 é o raio da íris.
∆�½ ! Ç�½^ ( �½.Ç (44)
Onde:
• ∆�½ é a Diferença Absoluta de Aberturas Relativas entre Pupilas;
• �½6 é a Abertura Relativa da Pupila de índice i;
A ∆�½ é obtida para cada par de vetores de características sob confronto. Esta
variável será utilizada para avaliar o desempenho do classificador em função de
diferentes valores de �½ dos vetores de características.
4.3.3.5. Normalização
A normalização é uma transformação geométrica da região de interesse da íris
para um formato apropriado para as operações de filtragem e extração de características,
com largura e altura padronizadas. Esta operação é executada em duas fases.
Na primeira fase é obtida uma imagem intermediária, com tamanho variável em
função do raio da íris e do raio da pupila, conforme as Equações (45) e (46) e
exemplificado na Figura 40 (b). A largura desta imagem é igual ao comprimento da
circunferência externa da íris e a altura é igual ao comprimento do segmento �¤ÈÈÈ para o
ângulo � ! 0°, conforme indicado na Figura 40 (a). Os centros da pupila e da íris estão
indicados respectivamente por �Í�6� e �Êb½6ËÀ. Os valores dos pixels são obtidos pela
interpolação ao vizinho mais próximo dos níveis de cinza dos segmentos �¤ÈÈÈ para cada
ângulo �, correspondente entre a imagem em coordenadas cartesianas e polares. Outras
formas de interpolação (e.g. bilinear, bicúbica) devem ser exploradas no futuro para
avaliar a influência nas taxas de erro do classificador.
54
�6 ! 2]�6 (45) Δ�¤ ! �¤ÈÈÈp�\° (46)
Onde:
• �6 é o comprimento da circunferência da íris;
• Δ�¤ é a distância entre os pontos P e I para � ! 0° (Figura 40 (a));
• �6 é o raio da íris;
b)
a) c)
Figura 40 – Modelo geométrico da íris para normalização: a) Representação no espaço
cartesiano, b) Representação intermediária não-normalizada em coordenadas polares e
c) Representação normalizada em coordenadas polares.
Na segunda fase, a imagem intermediária tem o seu tamanho padronizado por
interpolação linear, formando a imagem final representada na Figura 40 (c), onde Í é a
largura e Î é a altura. O resultado da normalização da região de interesse da íris é
exemplificado na Figura 41.
Figura 41 – Exemplo de representação normalizada de uma íris em coordenadas polares
55
A dilatação e contração da pupila causam deformações não uniformes na
imagem da representação: a região central próxima à pupila é mais afetada que a região
mais externa próxima à esclera. Este fato está representado na Figura 42 (a) e (b).
a) b)
Figura 42 – Deformações não-uniformes da íris devido à contração/dilatação da pupila.
a) Pupila contraída e b) Pupila dilatada
Ao utilizar o método de normalização proposto, os efeitos destas deformações
são negligenciados, afetando o resultado final do algoritmo de comparação biométrica.
Esta influência é apresentada na seção 5.2. Estuda-se como abordagem futura a
modificação do método de normalização na tentativa de minimizar estes efeitos, através
do uso de outros algoritmos de interpolação. No estágio atual do trabalho o valor de Í
foi fixado em 256 pixels que representam 360° e o valor de Î foi fixado em 64 pixels.
Os valores de Í e Î também devem ser avaliados no futuro para determinar as
influências resultado da comparação.
4.3.3.6. Codificação
A codificação é a última etapa de processamento aplicada na extração de
características e tem o objetivo de armazenar as informações de interesse em uma
estrutura de dados computacional que representa um vetor de características. Como no
método de referência, a característica é o ângulo de fase do sinal complexo resultante da
aplicação de um filtro Gabor na imagem.
O vetor de características contém o número de características igual ao número de
pixels da representação normalizada, respeitando a mesma posição e preservando a
informação da distribuição espacial das características no vetor. O diagrama de blocos
da Figura 43 ilustra o processo de filtragem e codificação. A filtragem Gabor 2D foi
realizada no domínio da freqüência com os mesmos parâmetros utilizados no método de
referência. Na saída é fornecido
estrutura de dados do vetor de características
informações adicionais, tais como a relação entre os raio
parâmetros das parábolas das pálpebras
informações, apesar de não ser
comparação e são utilizadas para análises estatísticas dos resultados.
Figura 43 – Diagrama do algoritmo de e
As imagens da Figura
filtragem Gabor para o módulo e
ilustra a quantização do ângulo com
pertence, tal como na Figura
coincidências de fase. Mais e
influência do número de bits de quantização no desempenho estatístico do classificador.
Figura 44 – Módulo da saída do
Figura 45 – Ângulo da saída do
níveis de cinza entre [0,..,255] .
. Na saída é fornecido o módulo e o ângulo de fase, este último é anexado
estrutura de dados do vetor de características. A estrutura de dados final
tais como a relação entre os raios da pupila e da íris, os
parâmetros das parábolas das pálpebras e dados referentes à segmentação
apesar de não serem características biométricas, afetam o resultado da
comparação e são utilizadas para análises estatísticas dos resultados.
Diagrama do algoritmo de extração de características.
Figura 44 e da Figura 45 exemplificam as saídas do bloco de
filtragem Gabor para o módulo e para o ângulo de fase, respectivamente. A
ilustra a quantização do ângulo com 2 bits, identificando o quadrante a que o ângulo
Figura 22. Esta quantização é utilizada na etapa de cálculo das
Mais estudos devem ser realizados no futuro para avaliar a
número de bits de quantização no desempenho estatístico do classificador.
aída do filtro Gabor normalizado em 256 níveis de cinza.
aída do filtro Gabor com intervalo de �0, . . ,360�° ajustados para
níveis de cinza entre [0,..,255] .
56
anexado na
. A estrutura de dados final contém
pila e da íris, os
segmentação. Estas
afetam o resultado da
exemplificam as saídas do bloco de
A Figura 46
que o ângulo
Esta quantização é utilizada na etapa de cálculo das
studos devem ser realizados no futuro para avaliar a
número de bits de quantização no desempenho estatístico do classificador.
normalizado em 256 níveis de cinza.
ajustados para
Figura 46 – Quantização
4.3.4. Função de Similaridade
Ao computar a distância de Hamming pelo número de bits
diferentes em posições correspondentes
proposto por DAUGMAN (1992)
divergências de fase na vizinhança
informação é hipoteticamente
a qualidade da classificação, aumentando as taxas de acerto
erros associados ao processo de comparação biométrica
Baseando-se nesta hipótese
de Fase (dcf), definida na
intermediária, onde o resultado considera a coincidência de fases
ponto entre dois vetores de características
da representação intermediária,
um somatório do número de pontos vizinhos ao ponto
coincidem, dividido pelo número total de pontos vizinhos.
% McÏ,cX�, �� ! Ð Ñ 10·
Onde:
• % McÏ,cX�, �� é a função
vetores �^ e �.;
• LÒ é uma área limitada
O valor de saída da função
atribuir um peso à região W.
pixels e deve ser avaliada quanto
Quantização do ângulo de fase com 2 bits
Similaridade
Ao computar a distância de Hamming pelo número de bits com valores
em posições correspondentes de uma representação para outra, o
(1992) desconsidera a informação relativa às coincidências e
divergências de fase na vizinhança de um ponto da saída do filtro Gabor. Esta
importante e deveria ser utilizada na tentativa de
a qualidade da classificação, aumentando as taxas de acerto e diminuindo as taxas de
erros associados ao processo de comparação biométrica.
se nesta hipótese, é proposta uma função Densidade de Coincidências
), definida na Equação (47). Esta função define uma representação
o resultado considera a coincidência de fases na vizinhança de cada
dois vetores de características �^e �.. Na prática, devido à natureza discreta
da representação intermediária, a integração apresentada na Equação (47) é obtida por
um somatório do número de pontos vizinhos ao ponto �, �� cujos ângulos de fase
coincidem, dividido pelo número total de pontos vizinhos.
Ñ 1 KN �^�, �� ! �.�, ��0 0K� �1 �á��� � %Ó
LÒ
� é a função Densidade de Coincidências de Fase
;
limitada W na vizinhança de um ponto �, ��;
da função dcf está no intervalo fechado [0,..,1] e é utilizado para
. Esta região W está fixada em janelas quadradas de
pixels e deve ser avaliada quanto às influências no resultado do confronto.
57
com valores
de uma representação para outra, o método
relativa às coincidências e
Gabor. Esta
na tentativa de melhorar
e diminuindo as taxas de
Densidade de Coincidências
função define uma representação
na vizinhança de cada
devido à natureza discreta
é obtida por
cujos ângulos de fase
(47)
Densidade de Coincidências de Fase para dois
é utilizado para
está fixada em janelas quadradas de 9x9
influências no resultado do confronto. Quanto
58
maior a densidade de coincidências de fase na região, maior o peso desta região no
resultado final de similaridade entre os dois vetores. A função de similaridade proposta,
definida na Equação (48), integra o valor da função dcf, normalizada pela área útil de
confronto. Entende-se por área útil a região de interseção entre representações excluídas
as regiões de oclusões. Como na implementação da função dcf, a Equação (48) é
implementada no caso discreto por um somatório da densidade de coincidências de fase
obtida para cada ponto �, ��, dividido pelo número total pontos úteis.
K�^, �.� ! Ô Ô % McÏ,cX�, ��%�%�p� L� (48)
Onde:
• K�^, �.� é a função Similaridade;
• L� é a área da superfície útil para confronto entre �^e �.;
O diagrama da Figura 47 resume o esquema geral para cálculo da função de
similaridade. As entradas �^ e �. são as entradas utilizadas na geração do mapa de
coincidências de fase. Cada ponto deste mapa contém um valor 1 ou 0, para indicar que
no ponto correspondente dos vetores de características de entrada, existe ou não existe
coincidência de fase, respectivamente. A % McÏ,cX�, �� é uma estrutura de dados
intermediária utilizada no processo de integração.
Figura 47 – Função de similaridade proposta.
59
A função de similaridade proposta não é invariante à rotações da imagem de
entrada, ou seja, não é invariante à translações relativas entre representações
normalizadas em coordenadas polares. Para compensar esta limitação, a função é
calculada para translações no intervalo [(45°, $45° ] em coordenadas polares e a
similaridade máxima é utilizada pelo classificador.
4.4. Plataforma de Análise, Confronto Biométrico e Avaliação Estatística
Para automatizar o processo de leitura, processamento de imagens, extração de
características, codificação e confronto biométrico, foi utilizada uma plataforma de
software capaz de auxiliar a análise de resultados estatísticos. Este software, batizado de
HISP (Human Iris Analysis, Match and Statistical Platform), realiza a leitura de
arquivos de imagem, o armazenamento e a recuperação de informações de uma base de
dados, o ajuste de parâmetros e configurações, a visualização e a análise de imagens de
íris, a extração de características e a realização de confronto N:N. O resultado do
confronto N:N é utilizado para cálculos de figuras de mérito, curvas de similaridade,
curvas cumulativas e curvas ROC. Estes resultados são utilizados para avaliações
estatísticas do algoritmo.
O HISP é dividido em três módulos: a) Módulo de Configuração, b) Módulo de
análise de imagens e extração de características e c) Módulo de confronto e estatísticas.
Estes módulos são apresentados nas subseções a seguir.
4.4.1. Módulo de Configuração
A configuração da plataforma é realizada em tela específica (Figura 48). Nesta
interface é ajustado o nome da base de dados, o nome dos arquivos de dados, as versões
dos componentes de software, o tipo de imagem, os diretórios e os identificadores de
imagem e de vetores de características. Estas informações são utilizadas para
armazenamentos de resultados em arquivos de dados separados, possibilitando
comparações entre dados obtidos provenientes de experimentos diferentes.
60
Figura 48 – Tela do módulo de configuração do software HISP
4.4.2. Módulo de Análise de Imagens e Extração de Características
A análise de imagens consiste na identificação dos parâmetros do modelo
geométrico que descreve a íris em uma imagem. Foram implementados dois métodos de
análise: automático e o manual. A análise automática executa o algoritmo de
localização, segmentação da região de interesse e extração de características, descritos
na seção 4.3.3, armazenando a posição e o raio das circunferências da pupila e da íris e
os parâmetros das parábolas das pálpebras. Na análise manual é possível ajustar os
parâmetros encontrados previamente na análise automática.
Após a análise, os vetores de características são extraídos e armazenados em
arquivos binários para comparações biométricas. O aspecto da interface com o usuário
é ilustrado na Figura 49.
61
Figura 49 – Interface de análise de imagens e extração de características
4.4.3. Módulo de Comparação Biométrica e Estatística
Os vetores de características obtidos da análise de imagens e extração de
características são submetidos ao confronto N:N que resulta em uma matriz de
similaridades NxN, utilizada para o levantamento das curvas de similaridade para as
classes de confrontos intra-classe e inter-classe apresentados na seção 2.7.1.
As curvas de densidade de similaridade, densidade de similaridade cumulativa e
a curva ROC são apresentadas na interface do sistema de avaliação e são exemplificadas
respectivamente na Figura 50 (a) e (b) e na Figura 51. Os resultados finais são
apresentados e discutidos no Capítulo 5.
62
a) b)
Figura 50 – Sistema de avaliação: a) Curvas de densidade de similaridade, b) Curvas de
densidade de similaridade cumulativas
Figura 51 – Sistema de avaliação (Curvas ROC)
63
4.5. Base de Dados de Testes
Os experimentos realizados nesta pesquisa utilizam imagens da base de dados
CASIA-IrisV3, coletada pela Chinese Academy of Sciences Institute of Automation
(CASIA). Esta base de dados está disponível publicamente através do link
http://www.cbsr.ia.ac.cn/IrisDatabase.htm. As imagens foram capturadas sob
iluminação infravermelha (com comprimento de onda não informado) e armazenadas
em formato JPG com nível de cinza quantizado em 8bits.
A base de dados CASIA está dividida em 3 subconjuntos (CASIA-Iris V3-
Interval, CASIA-Iris V3-Lamp, CASIA-Iris V3-Twis) que totalizam 22.051 imagens de
íris obtidas de mais de 700 pessoas e 1500 olhos, como mostrado na Tabela 3.
Tabela 3 – Subconjuntos de imagens da base de dados CASIA
CASIA-Iris V3 Interval
CASIA-Iris V3 Lamp
CASIA-Iris V3 Twis
Ambiente Interno Interno Externo Número de Seções de Captura 2 1 1 Intervalo de Captura 1 mês - - Número de Indivíduos 249 411 200 Número de Classes (Olhos) 396 819 400 Número de Imagens 2655 16213 3183
Tamanho da Imagem 320x240 640x480 640x480
O subconjunto CASIA-IrisV3-Interval utilizado nos experimentos, foi capturado
em duas seções de captura, com intervalo de um mês entre as seções. Para esta base de
dados, as imagens adquiridas não obedecem a um padrão de captura, tanto para a
distância quanto para o número de imagens capturadas por classe. Os indivíduos da base
de dados são em maioria chineses e informações adicionais, tais como a idade e cor dos
olhos, não são informadas. Estes dados são relevantes para testes estatísticos e motivam
a aquisição de uma base de dados própria, que armazene tais informações.
É admitida a existência de interseções entre classes nos subconjuntos CASIA-
IrisV3-Interval e CASIA-IrisV3-Lamp, justificado pela falta de controle no processo de
captura de imagens, realizado em seções de captura diferentes. Para tentar identificar as
classes em que ocorrem interseções foi realizado o confronto N:N e a seleção para
inspeção visual dos pares de vetores característicos cujos confrontos, supostamente
64
inter-classe, resultavam em um valor de similaridade maior que o valor da similaridade
para o ponto de ERR. Da mesma forma, para os confrontos supostamente intra-classe,
foram selecionados os pares de vetores característicos que resultavam em valores de
similaridade menores que o valor da similaridade para o ponto de ERR. Este processo de
seleção é ilustrado na Figura 52, onde o ponto de ERR é indicado pela seta A.
Figura 52 – Seleção de pares para inspeção visual: são selecionados os pares de vetores
intra-classe com similaridade menor ou igual ao valor A e os pares de vetores inter-
classe com similaridade maior ou igual ao valor A.
Para os pares em que a similaridade possui valores em uma das regiões indicadas
no gráfico, foram utilizadas as seguintes estratégias de exclusão de imagens:
1. Excluir imagens que são únicas representantes de classe;
2. Excluir imagens que, por inspeção visual, não pertençam à classe
indicada;
A estratégia 1 é justificável, pois uma classe com uma única imagem
representante não contribui para o levantamento da curva de similaridades intra-classe,
portanto pode ser ignorada. A estratégia 2 foi adotada, pois no caso de confrontos intra-
65
classe a exclusão das imagens reduz insignificantemente o número de confrontos de
9009 para 8945 e, para os confrontos inter-classe, de 207123 para 201051. Ou seja, para
confrontos intra-classe e interclasse as reduções foram de apenas 0.71% e 2,93% dos
confrontos, respectivamente, o que não afeta o levantamento das curvas.
A base de dados completa, isto é, sem a exclusão de imagens, foi nomeada como
DB0, para diferenciar da base de dados reduzida, nomeada como DB1. Ao total, 30
imagens foram excluídas utilizando as estratégias 1 e 2. Os nomes dos arquivos de
imagens excluídos e a estratégia utilizada por imagem estão listados na Tabela 4. As
imagens que resultaram em falhas de segmentação da íris foram ignoradas e estão
indicadas pelo índice 0.
Tabela 4 – Imagens excluídas da base de dados CASIA. O número entre parênteses
indica a estratégia utilizada para a exclusão da imagem.
S1002R03.jpg (0) S1005L01.jpg (1) S1008R02.jpg (2) S1009L01.jpg (1)
S1020L01.jpg (1) S1038L01.jpg (2) S1044R01.jpg (1) S1047R01.jpg (1)
S1076R01.jpg (2) S1151L01.jpg (1) S1156L02.jpg (2) S1158R06.jpg (2)
S1170R02.jpg (0) S1178R01.jpg (1) S1181R01.jpg (1) S1183L01.jpg (1)
S1189L01.jpg (1) S1192L01.jpg (1) S1197R01.jpg (1) S1202L01.jpg (1)
S1203R01.jpg (1) S1208R01.jpg (1) S1212R01.jpg (1) S1213L01.jpg (1)
S1213R01.jpg (1) S1214R01.jpg (1) S1216L01.jpg (1) S1221L01.jpg (1)
S1227R01.jpg (1) S1228R01.jpg (1) S1231L08.jpg (2) S1248L01.jpg (1)
A seguir, na Figura 53, são apresentados exemplos de imagens da base de dados
CASIA-Iris V3-Interval. Os reflexos oriundos do sistema de iluminação infravermelho
não influenciam a localização do centro da pupila que é baseado na Transformada de
Hough, pois a mesma utiliza a direção do gradiente no processo de acumulação. No
entanto, estes reflexos reduzem a estimativa de área da pupila obtida pela a análise do
histograma, para valores abaixo da área real. Na prática, esta redução é compensada nos
limites de integração para o raio na Equação (40), através da soma da área aproximada
do reflexo. Esta área é aproximadamente constante e comum para as imagens do
subconjunto e vale 280 pixels.
66
Figura 53 – Exemplos de imagens da base de dados CASIA
67
CAPÍTULO 5
RESULTADOS E DISCUSSÕES
5.1. Introdução
Neste capítulo são apresentados e discutidos os resultados obtidos utilizando as
bases de dados de imagens de íris DB0 e DB1, aplicando as métricas para avaliação
estatística apresentadas na seção 0. Estes resultados são apresentados na seqüência:
1. Distribuições de �½ e ∆�½;
2. Distribuição de Áreas de Confronto;
3. Curvas de similaridade para os métodos de referência e proposto;
4. Curvas ROC
o Curvas ROC para os métodos de referência e proposto;
o Curvas ROC utilizando restrições de ∆�½;
o Curvas ROC para perturbações no modelo geométrico;
o Curvas ROC para restrições na área de confronto.
Para garantir a mesma condição de entrada dos dados para os métodos de
referência e proposto, os resultados das funções de confronto foram obtidos utilizando-
se o mesmo processo de segmentação da região de interesse para ambos os métodos,
seguindo o algoritmo da seção 4.3.3.
Os resultados enumerados são comparados no final do capítulo de forma a
elencar os principais erros, discutir suas influências e abordagens para a redução desses
erros.
68
5.2. Curvas de Distribuição de �� e de ∆��
O gráfico da Figura 54 mostra que, para a base de dados em estudo,
considerando iluminação constante, a distribuição de �½ apresenta um comportamento
normal com desvio padrão de 0,06 e média 0,41. Da distribuição de �½ conclui-se que
são esperados confrontos onde os vetores de características foram originados em
diferentes situações de abertura da pupila. Se os vetores em confronto foram obtidos
para uma mesma íris, isto é, o confronto é intra-classe, valores diferentes de �½
implicam diferentes dilatações da pupila e por conseqüência, implicam deformações no
tecido da íris que podem afetar os resultados dos confrontos. Devido a este fato, deve-se
avaliar a influência do valor de �½ nas taxas de erro de classificação.
Figura 54 – Distribuição de �½
Computando ∆�½ para todos os pares de representações possíveis da base de
dados é obtida a distribuição de freqüências da Figura 55. Este gráfico fornece o número
de confrontos realizados para cada valor de ∆�½. Na seção 5.5.2, as diferenças absolutas
do valor de �½ para pares de imagens de íris da base em estudo serão relacionadas ao
desempenho do confronto, através do levantamento de curvas ROC restritas.
0,00
0,01
0,02
0,03
0,04
0,05
0,06
0,07
0,08
0,09
0,10
0,00 0,10 0,20 0,30 0,40 0,50 0,60 0,70 0,80 0,90 1,00
Fre
qu
ên
cia
No
rmal
izad
a
Ap
Distribuição de Ap
Aproximação Normal
69
Figura 55 – Distribuição de ∆�½
5.3. Curvas de Distribuição de Áreas de Confronto
Apesar da função de similaridade computar valor de saída apenas na região
disponível da íris e deste valor ser normalizado em relação à área útil, espera-se que o
resultado do confronto seja afetado de forma a aumentar as taxas de erro quando esta
área estiver reduzida. Esta redução da área útil é causada por reflexos, pálpebras
sobrepostas à íris e cílios, tal como exemplificado na Figura 57.
Figura 56 – Exemplo de oclusões na região da íris
Para a base de dados em estudo, a distribuição de área útil para confronto segue a
curva de distribuição de freqüências apresentada na Figura 57. Os eixos representam o
percentual da área útil no confronto, a freqüência de ocorrência de confrontos para uma
área específica e a freqüência cumulativa normalizada de confrontos.
0
200
400
600
800
1000
1200
1400
1600
1800
2000
0,0
00,
01
0,0
20,
03
0,0
40,
05
0,0
60,
07
0,0
80,
09
0,1
00,
11
0,1
20,
13
0,1
40,
15
0,1
60,
17
0,1
80,
19
0,2
00,
21
0,2
20,
23
0,2
40,
25
0,2
60,
27
0,2
80,
29
0,3
00,
31
0,3
20,
33
0,3
40,
35
Nú
mer
o d
e C
on
fro
nto
s
∆��
70
Através do gráfico cumulativo nota-se que, para a base em estudo, em 99% dos
confrontos a área útil é maior que 60% da área máxima da íris. O comportamento do
algoritmo de confronto em função da área útil é explorado na seção 5.5.4.
Figura 57 – Distribuição de Áreas
5.4. Curvas de Similaridade
Os gráficos das Figura 58 e Figura 59 apresentam as curvas de densidade de
similaridade para confrontos intra-classe e inter-classe, além das curvas FAR e FRR,
para os métodos de referência e método proposto, utilizando-se a base de dados DB0.
Devido ao fato do método de referência utilizar uma função de distância como
medida de dissimilaridade, quanto menor a distância de Hamming (HD) entre duas
representações, maior a similaridade entre elas. Se HD é igual a zero, então ocorreu um
casamento perfeito entre estas representações (DAUGMAN, 2001). Para manter
coerente com a HD utilizada no método de referência, as Equações (49) e (50) são
utilizadas no cômputo das curvas FRR e FAR da Figura 58. As curvas de FRR e FAR
para o método proposto foram obtidas pelas equações (27) e (28).
|��=�� ! 1 ( %M=�|�1 �0� (49) |��=�� ! %M=�|�1 N�� (50)
0,0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1,0
0
1.000
2.000
3.000
4.000
5.000
6.000
7.000
8.000
9.000
10.000
0 10 20 30 40 50 60 70 80 90 100
Cu
mu
lati
vo N
orm
aliz
ado
Nú
me
ro d
e C
on
fro
nto
s
Área (%)
Freq. de Confrontos
Cumulativo Normalizado
71
Figura 58 – Curvas de similaridades e similaridades cumulativas obtidas para o método
de referência. A curva normal sobreposta apresenta µ=0,458 e σ=0,0197 (DAUGMAN,
2001) e mostra a equivalência da implementação do método de referência.
Dado que o método de referência implementado é uma interpretação de um
método largamente citado na literatura e utilizado em sistemas comerciais, que a
distribuição da distância de Hamming apresentou exatamente a mesma média para a
classe de confrontos inter-classe, ilustrado na Figura 58, e que apesar das bases de dados
não serem as mesmas, a ERR obtida é coerente com os valores apresentados em ICE
(2006), é estabelecida a confiança em que o método implementado como referência é
equivalente em desempenho de classificação, relativo ao método de DAUGMAN
(2001).
Um fato observável na Figura 58 é que as distribuições das distâncias de
Hamming intra-classe e inter-classse para o método de referência ocupam uma porção
reduzida do eixo, isto limita a separação das classes e causa variações abrutas nas
curvas cumulativas. Ao contrário, no gráfico da Figura 59, as distribuições de
similaridades do método proposto ocupam uma extensão maior do eixo de similaridades
e as curvas cumulativas são menos abruptas. Este comportamento favorece a obtenção
de erros menores, que são evidenciados na Tabela 5 nas taxas (A), (B), (C) e (D).
0,0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1,0
0 10 20 30 40 50 60 70 80 90 100
Pro
bab
ilid
ade
Distância de Hamming Normalizada
Inter-ClasseIntra-ClasseFARFRRNormal de Daugman
72
Figura 59 – Gráficos de similaridades do método proposto. O comportamento menos
abrupto das curvas cumulativas e a separação das classes favorecem a redução das taxas
de erro.
Alguns indicadores derivados das curvas de similaridades cumulativas são
importantes, pois revelam os erros máximos de classificação do algoritmo. A |��ÕÖ¥�\
indica a máxima taxa de rejeição de autênticos quando não é admitida falsa aceitação e
a |��Õ¥¥�\ indica a máxima taxa de falsa aceitação de impostores quando não é
admitida uma falsa rejeição.
Tabela 5 – Desempenho comparativo entre o método de referência e método proposto
Base Método ERR (%) Acerto (%) (1-ERR(%))
|��ÕÖ¥�\ (%) |��Õ¥¥�\ (%)
DB0 Referência 0,76 99,24 11,23 (A) 99,97
Proposto 0,66 99,34 5,83 (B) 99,67
DB1 Referência 0,45 99,55 3,76 94,07 (C)
Proposto 0,28 99,72 3,29 29,43 (D)
Os dados tabelados mostram que o algoritmo proposto possui ERR, |��ÕÖ¥�\ e |��Õ¥¥�\ menores que os apresentados pelo método de referência. Este fato está
associado às curvas FAR e FRR do método proposto, que se apresentam mais separadas
no eixo de similaridade se comparadas às curvas obtidas com o método de referência.
0,0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1,0
0 10 20 30 40 50 60 70 80 90 100
Pro
bab
ilid
ade
Similaridade
Inter-Classe
Intra-Classe
FAR
FRR
73
Os pontos correspondentes à (A), (B), (C) e (D) na tabela, estão indicados no gráfico
das curvas ROC em escala linear da Figura 61, apresentado na próxima seção.
5.5. Curvas ROC
5.5.1. Curvas ROC para os Métodos de Referência e Proposto
Os gráficos da Figura 60 e da Figura 61 apresentam as curvas ROC obtidas para
o algoritmo proposto e para o algoritmo de referência em escalas logarítmica e linear,
respectivamente. A linha de erro igual é representada no gráfico pela linha tracejada em
cinza. O gráfico onde a FAR é colocada em escala logarítmica é apresentado porque
melhora a visualização da curva para valores de FAR pequenos e porque esta taxa é
freqüentemente referenciada em potências de 10 ou em proporções, tal como 1:10000
(1,0 } 10'Ä), que expressa que existe uma falsa aceitação em dez mil confrontos.
Figura 60 – Curvas ROC sobrepostas em escala logarítmica. Melhores desempenhos de
classificação são obtidos para a base DB0 em relação à DB1 por ambos os métodos,
devido à exclusão das imagens de interseção inter-classe.
As curvas revelam que o algoritmo proposto possui desempenho de classificação
superior e é capaz de classificar um par de vetores característicos de entrada com menor
0,910
0,920
0,930
0,940
0,950
0,960
0,970
0,980
0,990
1,000
1,0E-06 1,0E-05 1,0E-04 1,0E-03 1,0E-02 1,0E-01
Tru
e A
ccep
tan
ce R
ate
False Acceptance Rate
Método Proposto (DB1)
Método de Referência (DB1)
Método Proposto (DB0)
Método de Referência (DB0)
ERRL
74
erro de classificação em relação ao método de referência, tanto para a base DB0 quanto
para a base DB1. Este fato é verificado para valores da FAR acima de 2,4 } 10'×, onde
os valores da TAR obtidos pelo método proposto são maiores que os obtidos pelo
método de referência. Abaixo deste valor para a FAR, a TAR decai abruptamente para os
dois métodos e a análise fica prejudicada, impedindo uma afirmação conclusiva.
Figura 61 – Curvas ROC sobrepostas em escala linear. Os pontos A e C são
respectivamente a FRRFAR=0 e a FARFRR=0 para o método de referência e os pontos B e
D são a FRRFAR=0 e a FARFRR=0 para o método proposto.
Especificamente para a base de dados DB1, no ponto de ERR, o percentual de
erro do algoritmo proposto é 0,17% menor que o apresentado pelo algoritmo de
referência. O valor ERR de 0,28%, obtido para o método proposto, coloca o algoritmo
em posição de disputa com os algoritmos apresentados em ICE (2006), com acerto total
de 99,72%.
5.5.2. Curvas ROC para Restrições da ∆��
O objetivo de traçar curvas ROC para valores restritos da ∆�½ é avaliar o
comportamento do algoritmo proposto em situações onde as representações foram
0,88
0,90
0,92
0,94
0,96
0,98
1,00
0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0
Tru
e A
cce
pta
nce
Rat
e
False Acceptance Rate
Método de Referência (DB0)
Método Proposto (DB0)
Método de Referência (DB1)
Método Proposto (DB1)
C D
A
B
75
originadas com diferentes dilatações da pupila. O conhecimento deste comportamento
pode ser utilizado para coordenar as etapas anteriores de captura e processamento de
imagens de modo a minimizar os efeitos da dilatação e da contração da pupila. Como
levantado na seção 5.2, em ambiente interno com iluminação constante, a distribuição
do valor de �½ segue a distribuição normal apresentada na Figura 54 e as freqüências de
ocorrência para os valores de ∆�½ são apresentados na Figura 55.
Restringindo os confrontos a faixas de valores de ∆�½ é obtido o comportamento
do algoritmo de confronto apresentado na Figura 62. Estas curvas confirmam que o
algoritmo é sensível à ∆�½ , pois quanto menor o valor de ∆�½ entre os vetores de
características sob confronto menor o erro de classificação do algoritmo. O
comportamento estatístico do classificador para diferentes valores de ∆�½ é
conseqüência das deformações apresentadas no tecido da íris quando a mesma é
comparada em diferentes situações de dilatação da pupila de uma imagem para outra de
uma mesma íris. Estas deformações não são consideradas na normalização geométrica
da íris e devem ser estudas no futuro para modelar o comportamento dinâmico dos
tecidos da íris.
Figura 62 – Curvas ROC para restrições de ∆�½. Pares em confronto com menores
valores de ∆�½ apresentam menores taxas de erro no confronto.
0,970
0,975
0,980
0,985
0,990
0,995
1,000
1,0E-06 1,0E-05 1,0E-04 1,0E-03 1,0E-02 1,0E-01
Tru
e A
ccep
tan
ce R
ate
False Acceptance Rate
∆Ap<0.001
∆Ap<0.0025
∆Ap<0.005
∆Ap<0.01
∆Ap<0.025
∆Ap<0.05
ERRL
76
A tabela mostra o número de confrontos realizado para cada faixa de valores de ∆�½. Estas faixas foram escolhidas de modo que o número de confrontos fosse mantido
acima de 2000 confrontos mínimos por faixa. Em uma base de dados própria, deve ser
considerada a captura de imagens com o monitoramento da dilatação da pupila, a fim de
fornecer dados para estudos estatísticos acerca do comportamento dinâmico dos tecidos
da íris e os efeitos sobre as taxas de confronto.
Tabela 6 – Número de confrontos realizados por faixa de ∆�½
∆�½ No de Confrontos
<0.0010 2241
<0.0025 2523 <0.0050 10244
<0.0100 20843 <0.0250 50085
<0.0500 93923
A �½ pode ser utilizada nas etapas de normalização para gerar representações
que considerem este valor na transformação entre as representações cartesiana e polar.
Porém, esperar-se que cada íris apresente um modelo próprio de distorção devido à
dilatação da pupila, o que impediria uma forma generalizada para esta transformação
geométrica. Uma possibilidade de contorno é o monitoramento em tempo real da
abertura relativa da pupila, no instante da captura de imagens. Desta forma, fixado um
valor de referência para �½, pode-se processar imagens somente quando este for obtido,
através de controle de iluminação e monitoramento da �½ . Outra possibilidade é a
captura e o armazenamento de várias imagens (e seus vetores característicos) de uma
mesma íris, em diversas situações de dilatação da pupila. Desta forma, quando um
confronto for solicitado, este seria realizado com o vetor característico que possuísse o
menor valor de ∆�½em relação ao submetido para confronto.
Se, por hipótese, não existir histerese apreciável na contração e relaxamento das
fibras musculares da íris durante a dilatação e contração da pupila, estas abordagens
garantiriam que todos os confrontos biométricos seriam realizados com a mínima
influência das distorções devido à variável �½ . Esta hipótese deve ser avaliada no
futuro, quando uma base de dados própria for adquirida.
77
5.5.3. Curvas ROC para Perturbações do Modelo
O processo de extração de características apresentado na seção 4.3.3 é composto
por etapas de processamento de imagens que estão sujeitas a erros tais como os de
arredondamentos, de aproximações e de quantizações. O próprio modelo de
segmentação não descreve fielmente os dados práticos quando assume que a pupila e a
íris são circunferências perfeitas e, desta forma, pode inserir erros e refletir em uma
queda no desempenho do classificador.
Para entender o comportamento do algoritmo de confronto proposto quando
sujeito a erros destas naturezas, esta seção apresenta as curvas ROC para perturbações
aleatórias dos parâmetros do modelo adotado na descrição da região de interesse da
imagem. No raio obtido para a pupila pelo algoritmo apresentados na Figura 34, foram
somados valores aleatórios positivos de [1..5] pixels, uniformemente distribuídos. Para
o raio da íris, obtido pelo algoritmo da Figura 36, os erros aleatório inseridos foram de
±[1..5] pixels, também uniformemente distribuídos. O objetivo é simular erros e avaliar
suas influências, que são apresentadas na Figura 63 e na Figura 64.
Figura 63 – Curvas ROC para perturbações no parâmetro �½. Erros no raio da pupila
implicam redução na taxa de acerto do classificador.
0,920
0,930
0,940
0,950
0,960
0,970
0,980
0,990
1,000
1,0E-06 1,0E-05 1,0E-04 1,0E-03 1,0E-02 1,0E-01
Tru
e A
cce
pta
nce
Rat
e
False Acceptance Rate
R: 0R: 1R: 2R: 3R: 4R: 5ERRL
78
Figura 64 – Curvas ROC para perturbações no parâmetro �6 . Erros no raio da íris
implicam redução na taxa de acerto do classificador.
Através destas curvas, verifica-se que a classificação é afetada no sentido de
redução da TAR, apresentadas na Tabela 7 e na Tabela 8, para a pupila e para a íris.
Tabela 7 – Redução da TAR em função do erro no valor de �½
Erro (pixels) TAR (%)
0 99,72
1 99,51 2 99,23
3 98,69 4 98,25
5 97,02
Tabela 8 – Redução da TAR em função do erro no valor de �6 Erro (pixels) TAR (%)
0 99,72
1 99,70 2 99,59
3 99,36 4 99,20
5 98,90
0,920
0,930
0,940
0,950
0,960
0,970
0,980
0,990
1,000
1,0E-06 1,0E-05 1,0E-04 1,0E-03 1,0E-02 1,0E-01
Tru
e A
cce
pta
nce
Rat
e
False Acceptance Rate
R: 0R: 1R: 2R: 3R: 4R: 5ERRL
79
Estes resultados enfatizam que a etapa de segmentação da região de interesse é
importante no processo de identificação por biometria da íris, pois em caso de erro,
podem ser inseridas informações indevidas no vetor de características, suprimidas ou
distorcidas informações relevantes para o processo de confronto.
5.5.4. Curvas ROC para Limitação de Área Útil de Confronto
Quando a região da íris não está completamente disponível na imagem, seja por
sobreposição das pálpebras, cílios ou ocorrência de reflexos, a informação característica
existente nestas regiões não são codificadas e não participam da integração do resultado
de saída da função de similaridade. Estes pontos da representação são descartados, pois
não contêm características biométricas. Caso fossem considerados no processo de
confronto, a conseqüência seria a deterioração das taxas de acerto.
Mesmo desconsiderando estas regiões, o resultado de saída da função de
similaridade fica comprometido, pois uma parcela menor de área é utilizada na
integração. Este fato é revelado pelas curvas ROC apresentadas na Figura 65, que
mostram que o desempenho da função de similaridade é dependente da área útil para
confronto, pois quanto menor a área confrontada entre duas imagens de íris, maior o
erro obtido na classificação.
Para o levantamento do gráfico da Figura 65, cada curva foi obtida restringindo-
se somente aos confrontos cuja área pertencesse aos limites estipulados. Quando não é
aplicada restrição de valores, a TAR obtida é de 99,72%. Este valor reduz gradualmente
para valores próximos à 99% quando a área disponível é limitada à 70% da máxima,
como mostra a Tabela 9.
Tabela 9 – Redução da TAR em função da Área de Confronto
Área de Confronto (%) TAR (%) No de Confrontos
≤100 99,72 209996 < 90 99,72 159601 < 85 99,59 110537 < 80 99,50 64995 < 75 99,25 33937 < 70 99,05 15349
80
Figura 65 – Curvas ROC para restrições na área de confronto. Confrontos que dispõem
de menor área de interseção na imagem da íris apresentam taxas de erro mais elevadas.
Uma implicação prática desta análise é que se deve promover a captura da maior
área possível da íris, pelo menos em uma fase de cadastro de imagens em um banco de
dados, para maximizar a interseção entre as áreas úteis das representações para
confronto e minimizar as taxas de erro do classificador. Assim como na dilatação da
pupila, o monitoramento em tempo real da área da região de interesse deve ser utilizado
para coordenar o processo de captura de imagens a fim de processar as imagens que
disponham de maior área útil.
0,940
0,950
0,960
0,970
0,980
0,990
1,000
1,0E-06 1,0E-05 1,0E-04 1,0E-03 1,0E-02 1,0E-01
Tru
e A
ccep
tan
ce R
ate
False Acceptance Rate
Área <= 100%Área < 90%Área < 85%Área < 80%Área < 75%Área < 70%ERRL
81
CAPÍTULO 6
CONCLUSÕES
Neste trabalho foi proposto um sistema de identificação de pessoas por biometria
de íris. Os algoritmos de processamento de imagens para a localização e segmentação
da região de interesse foram propostos inspirados nos trabalhos de DAUGMAN (1992)
e WILDES (1997). A abordagem proposta mescla a utilização da Transformada de
Hough e um detector de bordas circulares por integral de linha, para favorecer a redução
do espaço de busca da circunferência da pupila e a redução de tempo de processamento.
São necessárias comparações com outros métodos de localização e segmentação para
determinar a eficiência computacional relativa em termos de tempo de processamento e
de precisão da segmentação.
A função de similaridade proposta é baseada na codificação do ângulo de fase do
resultado de uma filtragem Gabor, que é usado no cálculo do valor de Densidade de
Coincidência de Fase. Este valor é integrado e normalizado em relação à área útil de
confronto e compõe a similaridade final entre os vetores de características. Esta é a
diferença fundamental em relação ao método de referência, que utiliza o ângulo de fase
da saída do filtro Gabor diretamente como característica comparável, contando o
número de divergências desta característica entre representações, sem considerar a
relação de vizinhança dos pontos das representações em confronto.
O trabalho utilizou curvas de distribuição, figuras de mérito e curvas ROC como
ferramental estatístico para comparação entre os resultados obtidos pelos métodos de
referência e proposto. Este ferramental implementado em software compõe a plataforma
de avaliação estatística para a análise de imagens, codificação, confronto biométrico e
avaliação de resultados.
Pelas curvas ROC obtidas conclui-se que o método de confronto proposto é
superior em desempenho de classificação, alcançando 99,72% de acerto contra 99,55%
apresentado pelo método de referência, no ponto de ERR. Considerando que pelo
método de referência faltam 0,45% para alcançar o acerto total de 100%, o método
proposto evoluiu em 37,8% no que ainda era possível melhorar. Desta forma, este ganho
aparentemente singelo, é um ganho expressivo e pode significar um melhor
posicionamento em testes de larga escala e determinar comercialmente a escolha de um
fornecedor de tecnologia.
82
O método proposto foi avaliado quando submetido a perturbações e restrições de
valores de variáveis associadas aos processos de localização e segmentação da região de
interesse da íris, mostrando que o resultado da classificação é dependente destas
variáveis e que as etapas de localização e segmentação são importantes na composição
destas taxas. Foi proposto o monitoramento em tempo real da abertura relativa da pupila
e da área útil na segmentação no momento da captura das imagens como formas de
minimizar as taxas de erros.
Todos os objetivos iniciais da pesquisa foram atingidos. Como abordagem futura
são propostas atividades que nasceram no decorrer dos trabalhos ou não foram
completamente desenvolvidas:
• Desenvolver um hardware para captura de imagens, considerando a
proposta realizada nas seções 4.3.1 e 4.3.2;
• Capturar uma base de dados própria considerando o controle de níveis de
iluminação, monitoramento em tempo real da dilatação da pupila e da
área útil da íris;
• Desenvolver um algoritmo de extração de características que minimize os
efeitos de deformações devido à dilatação da pupila, utilizando outros
algoritmos de interpolação (e.g. bilinear, bicúbica) e normalização não
linear (e.g considerando deformações dos padrões da íris em função do
valor de �½);
• Avaliar a influência do tamanho da representação polar (Í } Î) nas
taxas de erro;
• Avaliar o comportamento estatístico do classificador em função dos
parâmetros do filtro Gabor;
• Avaliar a influência do número de bits utilizados na quantização do
ângulo de fase nas taxas de erro do classificador;
• Desenvolver algoritmos para geração de imagens de íris sintéticas. (A
formação de bases de dados com imagens sintéticas pode ser utilizada
para simular situações não previstas ou não cobertas pelas bases de dados
com imagens reais, tais como, grande número de indivíduos, simulação
de distorções e oclusões dos padrões. Isto é justificado pelo custo de
tempo e recursos envolvidos no processo de captura de imagens);
83
• Submeter o algoritmo a um teste independente de larga escala (ICE).
84
Bibliografia
BRIGHAM, O. E. (1988). The Fast Fourier Transform and its Applications. London:
Prentice-Hall International.
DAUBECHIES, I. (1987). Orthonormal Bases of Compactly Supported Wavelets.
Communications on Pure and Applied Mathematics, 41 (7), 909 - 996.
DAUGMAN, J. (1988). Complete Discrete 2-D Gabor Transforms by Neural Networks
for Image Analysis and Compression. IEEE Transactions on Acustics, Speech and
Signal Processing, 36, 1169-1179.
DAUGMAN, J. (1992). High Confidence Personal Identification by Rapid Video
Analysis of Iris Texture. Proceedings of IEEE, International Carnahan Conference on
Security Technology, 50-60.
DAUGMAN, J. (2001). High Confidence Recognition of Persons by Iris Patterns. IEEE
35th International Carnahan Conference on Security Technology, 254-263.
DUDA, R. O., HART, P. E., & STORK, D. G. (2000). Pattern Classification. John
Wiley & Sons Inc.
FAWCETT, T. (2004). ROC Graphs: Notes and Practical Considerations. HP
Laboratories, Intelligent Enterprise Technologies Laboratory. Palo Alto: Kluwer
Academic Publishers.
FBI. (2009). IAFIS - Integrated Automated Fingerprint Identification System. Acesso
em 10 de Março de 2009, disponível em http://www.fbi.gov/hq/cjisd/iafis.htm
FERNANDES, T., HENZEN, A. F., CHARÃO, A. F., SCHNEIDER, F. K., &
GAMBA, H. R. (2008). Detecção do Estado das Pálpebras por Processamento de
Imagens e Aplicações em Biomédica. CBEB2008- Congresso Brasileiro de Engenharia
Biomédica, pp. 474-477.
FINEP. (2009). Acesso em 20 de Janeiro de 2009, disponível em Financiadora de
Estudos e Projetos: http://www.finep.gov.br/
FLOM, L., & SAFIR, A. (1987). Patente Nº 4.641.349. Iris Recognition System. United
States of America.
85
GABOR, D. (1946). Theory of Communication. Journal of The Institute of Electrical
Engineers, 93, 429-457.
HUANG, Y. P., LUO, S. W., & CHEN, E. Y. (2002). An Efficient Iris Recognition
System. Proceedings of the International Conference on Machine Learning and
Cybernetics, 1, 450-454.
IBG. (2009). Biometrics Market and Industry Report 2007-2012. Acesso em 20 de
Janeiro de 2009, disponível em http://www.biometricgroup.com/
ICE. (2006). Iris Challenge Evaluation. Acesso em 11 de Dezembro de 2008,
disponível em http://iris.nist.gov/ice/
IVES, R. W., GUIDRY, A. J., & ETTER, D. M. (2004). Iris Recognition using
Histogram Analysis. Conference Record of the Thirty-Eighth Asilomar Conference on
Signals, Systems and Computers, 1, 562-566.
JÄHNE, B. (2005). Digital Image Processing. Berlin: Springer.
KO, T. (2005). Multimodal Biometric Identification for Large User Population Using
Fingerprint, Face and Iris Recognition. Proceedings of 34th Applied Imagery and
Pattern Recognition Workshop, 223-229.
LEE, T. S. (1996). Image Representation using 2D Gabor Wavelets. IEEE Transactions
on Pattern Analisys and Machine Intelligence, 18, 959-971.
MA, L., TAN, T., WANG, Y., & ZHANG, D. (2004). Efficient Iris Recognition by
Characterizing Key Local Variations. IEEE Transactions on Image Processing, 13, 739-
750.
MA, L., TAN, T., WANG, Y., & ZHANG, D. (2003). Personal Identification Based on
Iris Texture Analysis. IEEE Transactions on Pattern Analysis and Machine Intelligence,
25, 1519-1533.
MA, L., WANG, Y., & TAN, T. (2002). Iris Recognition using Circular Symmetric
Filters. Proceedings of 16th International Conference on Pattern Recognition, 2, 414-
417.
MALLAT, S. G. (1989). A Theory for Multiresolution Signal Decomposition: The
Wavelet Representation. IEEE Transactions on Pattern Analysis and Machine
Intelligence, 11 (7), 674-693.
86
MILLER, N. R., NEWMAN, N. J., WALSH, F. B., BIOUSSE, V., HOYT, W. F., &
KERRISON, J. B. (2005). Clinical Neuro-Ophthalmology. Philadelphia: Lippincott
Williams & Wilkins.
MIYAZAWA, K., ITO, K., AOKI, T., KOBAYASHI, K., & N AKAJIMA, H. (2005).
An Efficient Iris Recognition Algorithm Using Phase-Based Image Matching. IEEE
International Conference on Image Processing, 2, 49-52.
MIYAZAWA, K., ITO, K., AOKI, T., KOBAYASHI, K., & N AKAJIMA, H. (2006).
An Implementation-Oriented Iris Recognition Algorithm Using Phase-Based Image
Matching. International Symposium on Intelligent Signal Processing and
Communication Systems, 231-234.
NILSSON, S., & HOLMGREN, S. (1994). Comparative Physiology and Evolution of
the Autonomic Nervous System. Chur: Harwood Academic Press.
PALMER, S. E. (1999). Vision Science - Photons to Phenomenology. Massachusetts:
MIT Press.
SHAH, S., & ROSS, A. (2006). Generating Systhetic Irises by Feature Agglomeration.
International Conference on Image Processing, 317-320.
SUESS, M. J., & MORISON, D. A. (1983). Nonionizing Radiation Protection.
Copenhagen: WHO Regional Office for Europe.
SUNG, H., LIM, J., PARK, J.-H., & LEE, Y. (2004). Iris Recognition using Collarette
Boundary Localization. ICPR 2004. Proceedings of the 17th International Conference
on Pattern Recognition, 4, 857-860.
VIOLA, P. (2004). Robust Real-Time Face Detection. International Journal of
Computer Vision, 137-154.
WIKI. (2009). Wikipedia. Acesso em 21 de Janeiro de 2009, disponível em
http://en.wikipedia.org/wiki/Eye
WILDES, R. P. (1997). Iris Recognition: An Emerging Biometric Technology.
Proceedings of the IEEE, 85, pp. 1348-1363.
YAO, P., LI, J., YE, X., ZHUANG, Z., & LI, B. (2006). Iris Recognition Algorithm
using Modified Log-Gabor Filters. 18th International Conference on Pattern
Recognition, 4, 461-464.
87
YUAN, X., & SHI, P. (2005). Iris Feature Extraction using 2D Phase Congruency.
Third International Conference on Information Technology and Applications, 2, 437-
441.
ZUO, J., SCHMID, N. A., & CHEN, X. (2007). On Generation and Analysis of
Synthetic Iris Images. IEEE Transactions on Information Forensics and Security, 2, 77-
90.
88
PUBLICAÇÕES
Congresso CBEB 2008 - Congresso Brasileiro de Engenharia Biomédica
Título Detecção do Estado das Pálpebras por Processamento de Imagens e Aplicações em Biomédica
Ano 2008
Autores T. Fernandes, A.F. Henzen, A.F. Charão, F.K. Schneider e H.R. Gamba
RESUMO:
Este trabalho apresenta um método para identificação de indivíduos por
biometria da íris, compreendendo a detecção de contexto, a localização e segmentação
da região de interesse da imagem, a extração de características e o confronto biométrico.
O algoritmo proposto usa o ângulo de saída do filtro Gabor como característica
biométrica. Ao contrário do método de Daugman, que realiza a contagem dos ângulos
de fase com valores divergentes, o algoritmo proposto define uma função de Densidade
Coincidência de Fases e a utiliza para calcular a similaridade. Uma implementação do
método de Daugman foi utilizada como método de referência. Análises estatísticas
foram realizadas no banco de dados de imagens de íris CASIA, fornecendo uma
avaliação de desempenho do método proposto em termos de probabilidades de erro e as
dependências do algoritmo proposto com as perturbações nos parâmetros da localização
e às limitações de área útil das representações. Para esta base de dados, as análises
mostram que o algoritmo proposto tem um desempenho superior quando comparado
com o método de referência. O trabalho também propõe técnicas de redução dos erros
pela monitoração de variáveis em tempo real e controle automatizado do processo de
captura de imagens.
PALAVRAS-CHAVE
Biometria
Reconhecimento de Íris
Processamento de Imagens
Curvas ROC
ÁREA/SUB-ÁREA DE CONHECIMENTO
3.13.00.00 – 6 Engenharia Biomédica
3.13.01.03 – 7 Modelagem de Sistemas Biológicos
1.02.00.00 – 2 Probabilidade e Estatística
1.02.03.00 – 1 Probabilidade e Estatística Aplicadas
1.03.00.00 – 7 Ciência da Computação
1.03.03.05 – 7 Processamento Gráfico (Graphics)
2009
N⁰ 499
Livros Grátis( http://www.livrosgratis.com.br )
Milhares de Livros para Download: Baixar livros de AdministraçãoBaixar livros de AgronomiaBaixar livros de ArquiteturaBaixar livros de ArtesBaixar livros de AstronomiaBaixar livros de Biologia GeralBaixar livros de Ciência da ComputaçãoBaixar livros de Ciência da InformaçãoBaixar livros de Ciência PolíticaBaixar livros de Ciências da SaúdeBaixar livros de ComunicaçãoBaixar livros do Conselho Nacional de Educação - CNEBaixar livros de Defesa civilBaixar livros de DireitoBaixar livros de Direitos humanosBaixar livros de EconomiaBaixar livros de Economia DomésticaBaixar livros de EducaçãoBaixar livros de Educação - TrânsitoBaixar livros de Educação FísicaBaixar livros de Engenharia AeroespacialBaixar livros de FarmáciaBaixar livros de FilosofiaBaixar livros de FísicaBaixar livros de GeociênciasBaixar livros de GeografiaBaixar livros de HistóriaBaixar livros de Línguas
Baixar livros de LiteraturaBaixar livros de Literatura de CordelBaixar livros de Literatura InfantilBaixar livros de MatemáticaBaixar livros de MedicinaBaixar livros de Medicina VeterináriaBaixar livros de Meio AmbienteBaixar livros de MeteorologiaBaixar Monografias e TCCBaixar livros MultidisciplinarBaixar livros de MúsicaBaixar livros de PsicologiaBaixar livros de QuímicaBaixar livros de Saúde ColetivaBaixar livros de Serviço SocialBaixar livros de SociologiaBaixar livros de TeologiaBaixar livros de TrabalhoBaixar livros de Turismo