Técnica Eficiente para Reconocimiento Facial Global

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 258

Universidad Nacional Mayor de San Marcos

Universidad del Perú. Decana de América

Dirección General de Estudios de Posgrado


Facultad de Ingeniería de Sistemas e Informática
Unidad de Posgrado

Técnica eficiente para reconocimiento facial global


utilizando wavelets y máquinas de vectores de soporte
en imágenes 3D

TESIS

Para optar el Grado Académico de Doctor en Ingeniería de


Sistemas e Informática

AUTOR
Mg. José Augusto CADENA MOREANO

ASESOR
Dra. Nora Bertha LA SERNA PALOMINO

Lima, Perú

2021
Reconocimiento - No Comercial - Compartir Igual - Sin restricciones adicionales

https://creativecommons.org/licenses/by-nc-sa/4.0/
Usted puede distribuir, remezclar, retocar, y crear a partir del documento original de modo no
comercial, siempre y cuando se dé crédito al autor del documento y se licencien las nuevas
creaciones bajo las mismas condiciones. No se permite aplicar términos legales o medidas
tecnológicas que restrinjan legalmente a otros a hacer cualquier cosa que permita esta licencia.
Referencia bibliográfica

Cadena, J. (2021). Técnica eficiente para reconocimiento facial global utilizando


wavelets y máquinas de vectores de soporte en imágenes 3D. [Tesis de doctorado,
Universidad Nacional Mayor de San Marcos, Facultad Ingeniería de Sistemas e
Informática, Unidad de Posgrado]. Repositorio institucional Cybertesis UNMSM.
HOJA DE METADATOS COMPLEMENTARIOS

Código ORCID del autor https://orcid.org/0000-0002-1775-252X

DNI o pasaporte del autor 0501552798

Código ORCID del asesor https://orcid.org/0000-0002-4292-344X

DNI o pasaporte del asesor 07665297

Grupo de investigación Sistemas Inteligentes

Agencia financiadora Universidad Técnica de Cotopaxi UTC

Ubicación geográfica donde se


desarrolló la investigación 0°56′00″S 78°37′00″O

Año o rango de años en que se


2018-2020
realizó la investigación
Ingeniería de sistemas y comunicaciones
Disciplinas OCDE https://purl.org/pe-repo/ocde/ford#2.02.04
Universidad Nacional Mayor de San Marcos
Universidad del Perú. Decana de América
Facultad de Ingeniería de Sistemas e Informática
Vicedecanato de Investigación y Posgrado
Unidad de Posgrado

ACTA DE SUSTENTACIÓN VIRTUAL DE TESIS PARA OPTAR EL GRADO


ACADÉMICO DE DOCTOR EN INGENIERÍA DE SISTEMAS E INFORMÁTICA

A los siete (07) días del mes de marzo del 2021, siendo las quince horas, se reunieron en la sala
virtual meet.google.com/vuh-bcjj-zjm, el Jurado de Tesis conformado por los siguientes
docentes:

Dra. Rosa Sumactika Delgadillo Avila (Presidente)


Dr. Erik Alex Papa Quiroz (Miembro)
Dr. Glen Darío Rodríguez Rafael (Miembro)
Dra. Nora la Serna Palomino (Miembro Asesor)

Se inició la Sustentación invitando al candidato a Doctor Jose Augusto Cadena Moreano, para
que realice la exposición oral y virtual de la tesis para optar el Grado Académico de Doctor en
Ingeniería de Sistemas e Informática, siendo la Tesis intitulada:

“Técnica Eficiente para Reconocimiento Facial Global Utilizando Wavelets y Máquinas de


Vectores de Soporte en Imágenes 3D”

Concluida la exposición, los miembros del Jurado de Tesis procedieron a formular sus preguntas
que fueron absueltas por el graduando; acto seguido se procedió a la evaluación
correspondiente, habiendo obtenido la siguiente calificación:

...........................................18 (Dieciocho) .Muy Bueno..................................................................


Por tanto el Presidente del Jurado, de acuerdo al Reglamento General de Estudios de Posgrado,
otorga al Magíster Jose Augusto Cadena Moreano el Grado Académico de Doctor en Ingeniería
de Sistemas e Informática

Siendo las…16: 16………. horas, el Presidente del Jurado de Tesis da por concluido el acto
académico de Sustentación de Tesis.

Dra. Rosa Sumactika Delgadillo Avila Dr. Erik Alex Papa Quiroz
(Presidente) (Miembro)

Dr. Glen Darío Rodríguez Rafael Dra. Nora la Serna Palomino


(Miembro) (Asesor)

ASV N° 002-2021/RR 01357-R-20


ii

DEDICATORIA

 A Dios, mi madre +Celia, padres políticos: +Edelina y +Serafín

 A mi esposa Ofelia

 A mis hijas Aracely y María José

 A mi familia

Mg. José Augusto Cadena Moreano

Doctorando
iii

AGRADECIMIENTO

Mi sincero agradecimiento a la Dra. Nora La Serna Palomino por haber guiado mi


trabajo doctoral durante este tiempo. Igualmente, mi agradecimiento a mi esposa Luz
Ofelia, mis hijas Aracely y María José por apoyarme en mis estudios doctorales,
sacrifcando en varias ocasiones el tiempo de estar con ellas, y por estar conmigo en
los momentos más difíciles, gracias por no abandonarme. Mi agradecimiento a la
Universidad Nacional Mayor de San Marcos y su personal docente por la oportunidad
brindada en esta superación académica y finalmente agradezco a mi universidad
auspiciante la Universidad Técnica de Cotopaxi de la república del Ecuador, quien
hizo posible salir del país a estudiar este doctorado en Ingeniería de Sistemas e
Informática.

Mg. José Augusto Cadena Moreano

Doctorando
iv

INDICE GENERAL

INDICE GENERAL .................................................................................................................... iv

INDICE DE FIGURAS ........................................................................................................ viii

INDICE DE TABLAS ........................................................................................................... xi

RESUMEN ........................................................................................................................... xii

ABSTRACT......................................................................................................................... xiii

CAPITULO I: INTRODUCCION ....................................................................................... 1

1.1 Situación Problemática ............................................................................................ 1

1.2 Formulación del problema ...................................................................................... 4

1.3 Justificación de la investigación............................................................................... 4

1.3.1 Justificación teórica ......................................................................................... 4

1.3.2 Justificación práctica ....................................................................................... 5

1.4 Objetivos ................................................................................................................. 5

1.4.1 Objetivo General ............................................................................................. 5

1.4.2 Objetivos específicos ....................................................................................... 6

1.5 Hipótesis.................................................................................................................. 6

1.6 Variables .................................................................................................................. 6

1.7 Operacionalización de variables de la investigación................................................ 7

1.8 Organización de la tesis ........................................................................................... 8

CAPITULO II: MARCO TEORICO .............................................................................. 10

2.1 Marco filosófico o epistemológico ........................................................................ 12

2.2 Antecedentes de investigación.............................................................................. 14

2.3 Reconocimiento facial ........................................................................................... 15

2.4 Trabajos relacionados ........................................................................................... 16

2.4.1 Reconocimiento facial utilizando características geométricas en 3D: PCA y


SVM 16

2.4.2 Máquina vector de soporte para reconocimiento facial................................ 17


v

2.4.3 Un enfoque de reconocimiento facial mejorado basado en vector


discriminante común y SVM .......................................................................................... 18

2.4.4 Un nuevo método de reconocimiento facial basado en una máquina rápida


de mínimos cuadrados vectoriales ................................................................................ 19

2.4.5 Reconocimiento facial R-KDA con SVM no lineal para bases de datos de
múltiples vistas.............................................................................................................. 21

2.4.6 Modificaciones al método de Eigenphases para el reconocimiento facial


basado en SVM ............................................................................................................. 22

2.4.7 Detección de expresión facial basada en la característica de fusión de PCA y


LBP con SVM ................................................................................................................. 23

2.4.8 Reconocimiento facial mediante la clasificación de modelos vectoriales para


la autenticación de usuarios.......................................................................................... 24

2.4.9 Extracción de características basado en SVM para reconocimiento facial .... 25

2.4.10 Evaluation of facial recognition techniques using SVM, wavelets and PCA ... 26

2.4.11 Uniform multi-lens design as an SVM model selection tool for facial
recognition .................................................................................................................... 26

2.4.12 Main Subclass Convex Shell Sample Selection Method for SVM in Facial
Recognition ................................................................................................................... 27

2.4.13 A new SVM + NDA classification model with a facial recognition application
28

2.4.14 An efficient 3D face recognition approach based on the fusion of novel local
low-level features.......................................................................................................... 29

2.4.15 Multiscale 3D feature extraction and matching with an application to 3D face


recognition .................................................................................................................... 30

2.4.16 Multiple strategies to enhance automatic 3D facial expression recognition . 31

2.4.17 A 3D-2D facial recognition method based on the extended Gabor wavelet
combining edge and curvature detection ..................................................................... 35

2.4.18 An efficient P-KCCA algorithm for 2D-3D face recognition using SVM .......... 37

2.4.19 Recognition of static and dynamic 3D facial expressions: a comprehensive


investigation.................................................................................................................. 41

2.4.20 3D-2D face recognition with pose and illumination normalization ............... 42

2.5 Técnicas tratadas en el reconocimiento facial en dos dimensiones (2D) y en tres


dimensiones (3D) .............................................................................................................. 44

2.5.1 Análisis de Componentes Principales (PCA)................................................... 44

2.5.2 K vecinos más cercanos (K-nn) ...................................................................... 46

2.5.3 Redes neuronales artificiales (RNA)............................................................... 46


vi

2.5.4 Máquina de vectores soporte (SVM) ............................................................. 47

2.5.5 Análisis discriminante lineal (LDA) ................................................................. 57

2.5.6 Análisis de componentes independientes (ICA) ............................................ 57

2.6 Bases de datos de caras ........................................................................................ 58

2.6.1 Bases de datos de caras 2D ........................................................................... 58

2.6.2 Bases de datos de caras 3D ........................................................................... 62

2.7 Análisis de las técnicas y bases de datos revisados ............................................... 65

2.8 Filtrado de Imágenes ............................................................................................. 67

2.8.1 Filtro de Gabor .............................................................................................. 68

2.9 Extracción de Características ................................................................................. 70

2.9.1 Extracción de características por wavelets de Gabor .................................... 71

2.10 Resumen de la revisión de literatura ................................................................. 75

2.10.1 Descripción de la metodología de la revisión de la literatura ........................ 75

2.10.2 Tipos de Investigación ................................................................................... 77

2.10.3 Comparación de técnicas de Reconocimiento Facial ..................................... 77

2.11 Validación cruzada ................................................................................................ 78

CAPITULO III: METODOLOGIA DE LA INVESTIGACION ...................................... 80

3.1 Tipo y diseño de la investigación ........................................................................... 80

3.2 Unidad de análisis ................................................................................................. 81

3.3 Población de estudio ............................................................................................. 81

3.4 Tamaño de la muestra ........................................................................................... 81

3.5 Técnicas de recolección de datos .......................................................................... 84

3.6 Técnicas de análisis de datos ................................................................................. 85

3.7 Validación del modelo para reconocimiento facial en 2D y 3D ............................ 86

CAPITULO IV: TECNICA EFICIENTE PARA RECONOCIMIENTO FACIAL


GLOBAL EN 2D 88

4.1 Selección y justificación de las tecnologías utilizadas............................................ 88

4.1.1 Bases de datos 2D seleccionados .................................................................. 88

4.1.2. Algoritmo de extracción de características seleccionado .............................. 89

4.1.3 Algoritmo de clasificación.............................................................................. 90

4.2 Modelo desarrollado para reconocimiento facial global en 2D ............................. 90


vii

4.2.1. Componentes del modelo de reconocimiento facial global en 2D ................ 91

4.3 Implementación del modelo ................................................................................. 92

4.4 Validación del Modelo ........................................................................................... 97

4.5 Descripción de los experimentos y sus resultados .............................................. 103

4.6 Discusión de los resultados ................................................................................. 108

CAPITULO V: TECNICA EFICIENTE PARA RECONOCIMIENTO FACIAL


GLOBAL EN 3D ................................................................................................................ 111

5.1 Selección y justificación de las tecnologías para reconocimiento facial 3D ......... 111

5.1.1 Bases de datos 3D seleccionados ................................................................ 111

5.1.2. Algoritmos de extracción de características y de clasificación 3D ............... 116

5.2 Modelo propuesto para reconocimiento en imágenes 3D ........................................ 118

5.2.1 Modelo de imágenes facial 3D-2D con puntos de referencia ...................... 118

5.2.2 Modelo de imágenes facial 3D-2D con máscaras ........................................ 121

5.3 Validación del modelo obtenido ......................................................................... 123

5.3.1 Validación del modelo con base de datos TEXAS3DFRD .............................. 123

5.3.2 Validación del modelo con base de datos BU-3DFE .................................... 127

5.4 Descripción de los experimentos y sus resultados .............................................. 129

5.4.1 Descripción de los experimentos y sus resultados con BDD TEXAS3DFRD .. 129

5.4.2 Descripción de los experimentos y sus resultados con BDD BU-3DFE ......... 132

5.5 Discusión de los resultados ................................................................................. 135

5.6 Comprobación de hipótesis ................................................................................. 138

5.7 Conclusiones ....................................................................................................... 138

CAPITULO VI: CONCLUSIONES Y TRABAJOS FUTUROS ................................... 139

6.1 Conclusiones ....................................................................................................... 139

6.2 Trabajos futuros .................................................................................................. 140

BIBLIOGRAFIA ................................................................................................................ 141

ANEXOS ............................................................................................................................ 152


viii

INDICE DE FIGURAS

Figura 2.1 Estructura de un árbol binario para 8 clases para un reconocimiento (Guo et al.,
2001) ..................................................................................................................................... 17

Figura 2.2 Región basada en representación facial 3D (Lei et al., 2013) ............................... 30

Figura 2.3 Face de Normalización (X. Li et al., 2015) ............................................................. 33

Figura 2.4 Esquemas de división descritos en base a una imagen de textura neutral (X. Li et
al., 2015) ............................................................................................................................... 33

Figura 2.5 Pesos de diferentes bloques de una imagen. El bloque más brillante tiene un
mayor peso; viceversa (X. Li et al., 2015) .............................................................................. 34

Figura 2.6 Diagrama de bloques de sistema 3D FR propuesto (Torkhani et al., 2017) .......... 36

Figura 2.7 Configuración del sistema de reconocimiento facial (Kamencay et al., 2015)...... 38

Figura 2.8 Algoritmo P-KCCA de diagrama de bloque propuesto (Kamencay et al., 2015) ... 40

Figura 2.9 Algoritmo P-KCCA usando SVM (Kamencay et al., 2015) ...................................... 40

Figura 2. 10 Red neuronal artificial (ANN) ............................................................................. 47

Figura 2.11 Esquema general del SVM .................................................................................. 48

Figura 2.12 Esquema gráfico de una máquina de vectores de soporte ................................. 50

Figura 2. 13 Un esquema de dos clases con varios hiperplanos ............................................ 52

Figura 2. 14 Un esquema de dos clases con un hiperplano óptimo ...................................... 52

Figura 2. 15 Un esquema de un caso separable linealmente ................................................ 53

Figura 2. 16 Un esquema de un caso no separable linealmente ........................................... 54

Figura 2. 17 Esquema de un ejemplo transformado a un caso separable linealmente ......... 54

Figura 2. 18 Ejemplo de sesión completa para una persona de la base de datos de Yale
(Shao et al., 2014). ................................................................................................................ 59

Figura 2.19 Ejemplo de una base de datos ampliada de rostros de Yale B. (Chan & Tahir,
2013) ..................................................................................................................................... 59

Figura 2.20 Ejemplo de imágenes tomadas en la base de datos de rostros CAS-PEAL.(Gao, Y.,
Ma, J., Zhao, M., 2017) .......................................................................................................... 60

Figura 2.21 Imágenes de ejemplo de la base de datos de caras de FERET(Lu, J., Tan, Y.-P., &
Wang, 2013), (Sadhya & Kumar, 2019), (Benini et al., 2019) ................................................ 61

Figura 2.22 Imágenes de muestra de la base de datos facial ORL. (Xu, Y., Fang, X., Li, X.,
Yang, J., You, J., Liu, H., & Teng, 2014) .................................................................................. 61
ix

Figura 2.23 Bases de datos MUCT ......................................................................................... 62

Figura 2. 24 Bases de datos Texas 3DFRD (Gupta et al., 2010a) ............................................ 63

Figura 2.25 Bases de datos de caras de CASIA 3D (Casia, 2011) ............................................ 64

Figura 2.26 Ejemplo de imágenes clasificadas como neutrales en la base de datos de FRGC
v2 (Passalis et al., 2014) ........................................................................................................ 64

Figura 2.27 Base de datos BU-3DFE (Dou & Kakadiaris, 2017) .............................................. 65

Figura 2.28 Imagen original (izquierda) que ha sido filtrada (derecha) ................................. 68

Figura 2.29 Dos filtros de Gabor, cada uno de ellos con distinta frecuencia central, escalado
y orientación (García, Escaramilla, & Nariko, 2015). ............................................................. 69

Figura 2. 30 El conjunto de 40 wavelets Gabor. a) La magnitud a cinco escalas. b) Las partes


reales a cinco escalas y ocho orientaciones (Shen & Bai, 2006) ............................................ 73

Figura 2. 31 Resumen de trabajos que involucran al algoritmo SVM según la base de datos
registrada .............................................................................................................................. 76

Figura 2. 32 Resumen de trabajos revisados que involucran al algoritmo SVM según el año
de publicación. ...................................................................................................................... 76

Figura 3. 1 Bdd FERET ............................................................................................................ 82

Figura 3. 2 Bdd MUCT ........................................................................................................... 83

Figura 3. 3 Base de dattos TEXAS3DFRD ............................................................................... 83

Figura 3. 4 Base de datos BU-3DFE ....................................................................................... 84

Figura 3. 5 Proyección de un modelo sobre los planos respectivos ...................................... 86

Figura 3. 6 Esquema Validación cruzada del modelo obtenido aplicado al conjunto de datos
de entrenamiento ................................................................................................................. 87

Figura 4. 1 Base de datos utilizado FERET ............................................................................. 88

Figura 4. 2 Base de datos utilizado MUCT ............................................................................. 89

Figura 4.3 Modelo del proceso de reconocimiento facial en 2D ........................................... 91

Figura 4. 4 Dataset Feret utilizada ......................................................................................... 93

Figura 4. 5 Dataset MUCT utilizada ....................................................................................... 94

Figura 4. 6 Resultado del filtrado de una imágen por Gabor ................................................. 95

Figura 4. 7 Banco de vectores caracterísitcas de bdd FERET ................................................. 96

Figura 4. 8 Validación modelo, bdd Feret kernel lineal ......................................................... 97

Figura 4. 9 Validación modelo, bdd Feret kernel cúbico ....................................................... 98


x

Figura 4. 10 Validación modelo, bdd Feret kernel Gaussiano ............................................... 99

Figura 4. 11 Validación modelo, bdd Muct kernel Lineal .................................................... 100

Figura 4. 12 Validación modelo, bdd Muct kernel Cúbico ................................................... 101

Figura 4. 13 Validación modelo, bdd Muct kernel Gaussiano ............................................. 102

Figura 4.14 Porcentaje de reconocimiento de clases con Bdd FERET.................................. 105

Figura 4.15 Porcentaje de reconocimiento de clases con Bdd MUCT ................................. 107

Figura 5. 1 Puntos fiduciales antropométricos (a) en una imagen en color, y (b) en una
imagen de rango ................................................................................................................. 111

Figura 5. 2 Proyección de un modelo 3D a los planos (x-z), (y-z) y (z-y) .............................. 113

Figura 5. 3 Imágenes preprocesadas (a) de color y (b) de rango de la Base de datos Texas
3DFRD ................................................................................................................................. 114

Figura 5. 4 Base de datos TEXAS3DFRD ............................................................................... 115

Figura 5. 5 Base de datos BU-3DFE ..................................................................................... 116

Figura 5. 6 Modelo de reconocimiento facial 3D TEXAS3DFRD ........................................... 119

Figura 5. 7 Modelo de reconocimiento facial 3D con BU-3DFE ........................................... 121

Figura 5.8 Proyección de un modelo de cara 3D en los planos ........................................... 122

Figura 5. 9 Validación modelo, bdd TEXAS3DFRD, kernel lineal .......................................... 124

Figura 5. 10 Validación modelo, bdd TEXAS3DFRD kernel cúbico ....................................... 125

Figura 5. 11 Validación modelo, bdd TEXAS3DFRD kernel Gaussiano ................................. 126

Figura 5. 12 Validación modelo, bdd BU-3DFE kernel lineal................................................ 127

Figura 5. 13 Validación modelo, bdd BU-3DFE kernel cúbico .............................................. 128

Figura 5. 14 Validación modelo, bdd BU-3DFE kernel Gaussiano ........................................ 128

Figura 5.15 Bdd TEXAS3DFRD.............................................................................................. 130

Figura 5.16 Porcentaje de reconocimiento de clases con Bdd TEXAS3DFRD ...................... 132

Figura 5.17 Bases de datos BU-3DFE ................................................................................... 133

Figura 5.18 Porcentaje de reconocimiento de clases con bdd BU-3DFE ............................. 135
xi

INDICE DE TABLAS

Tabla 1.1 Operacionalización de variables de la investigación ................................................ 7

Tabla 2.1 Metodología de la investigación para el estado del arte ....................................... 11

Tabla 2.2 Resumen de los resultados obtenidos para siete entrenamientos con 8 técnicas
(Wen, 2012) .......................................................................................................................... 19

Tabla 2.3 Resultados obtenidos en el reconocimiento (Kong & Zhang, 2011) ...................... 20

Tabla 2.4 Bases de datos de rostros en 3D (Sandbach et al., 2012) ....................................... 41

Tabla 2.5 Reconocimiento facial en UHDB11 utilizando sistemas 3D-3D, 2D-2D y 3D-2D
(Kakadiaris et al., 2017) ......................................................................................................... 44

Tabla 2. 6 Comparación de técnicas de Reconocimiento Facial ............................................ 77

Tabla 2. 7 Proceso de Validación Cruzada ............................................................................. 79

Tabla 4. 1 Resumen de validación de modelos ................................................................... 102

Tabla 4.2 Resumen de resultados con Bdd FERET ............................................................... 103

Tabla 4.3 Porcentaje de reconocimiento de clases con Bdd FERET ..................................... 104

Tabla 4.4 Resumen de resultados con Bdd MUCT ............................................................... 106

Tabla 4.5 Porcentaje de reconocimiento de clases con Bdd MUCT..................................... 107

Tabla 4. 6 Resumen de comparación con otrso trabajos relacionados ............................... 109

Tabla 5. 1 Resumen de validación de modelos ................................................................... 129

Tabla 5.2 Resumen de resultados con Bdd TEXAS3DFRD .................................................... 130

Tabla 5.3 Porcentaje de reconocimiento de clases con Bdd TEXAS3DFRD .......................... 131

Tabla 5.4 Resultados según la base de datos BU-3DFE ....................................................... 133

Tabla 5.5 Porcentaje de reconocimiento aplicando BDD BU-3DFE ..................................... 134

Tabla 5. 6 Comparación de resultados con otros trabajos .................................................. 136

Tabla 5. 7 Comparación de resultados con otros trabajos .................................................. 137


xii

RESUMEN

La investigación que se presenta en esta Tesis Doctoral se desarrolla en el marco de


los Sistemas de Reconocimiento facial automático de imágenes. Que consisten en
procesar las imágenes de caras de personas utilizando métodos estadísticos y
matemáticos de extracción de características y de clasificación de imágenes, para
conocer si un individuo se encuentra en una determinada clase, y finalmente hallar su
identidad. El tratamiento automático de una cara es complicado, debido a que se
presenta varios factores que le afectan, como la posición de la cara, la expresión, la
edad, la raza, el tipo de iluminación, el ruido, y objetos como lentes, sombrero, barba
entre otros. El procesamiento se realiza de forma global, en donde se procesa toda la
cara. Se sabe que procesar las imágenes de manera global es más rápido, práctico y
fiable que las basadas en rasgos. Además, se conoce que procesar imágenes en tres
dimensiones es más real y consistente que en dos dimensiones. El principal objetivo
de la tesis que se propuso fue desarrollar una técnica eficiente de reconocimiento facial
con rasgos globales, y con imágenes en tres dimensiones. Para ello, se seleccionó los
algoritmos más eficientes para extracción de características, filtros de Gabor, y el
algoritmo para clasificación, Máquina de vectores de soporte (SVM). Este último
algoritmo, su eficiencia varía de acuerdo a la función núcleo o kernel, por ello en esta
tesis se trabajaron con tres kernel: líneal, gauseano y cúbico. Estos sistemas constan
de dos procesos necesarios: 1) Entrenamiento, y 2) Pruebas. Lo que permitió establecer
un modelo de reconocimiento facial global para dos y tres dimensiones
respectivamente. La técnica fue procesada primero para imágenes 2D, luego para
imágenes 3D. Y se utilizó el método de validación cruzada en ambos casos para
aprobarlo. Los mejores resultados obtenidos con la técnica alcanzada son 96% de
eficiencia con base de datos de imágenes de dos dimensiones; y 98,4% con base de
datos de imágenes de tres dimensiones. Finalmente, se hace una comparación de los
resultados alcanzados con otros trabajos de investigación similares, obteniéndose
mayor eficiencia con este trabajo.

PALABRAS CLAVE: Modelo de reconocimiento facial, Características de Gabor,


Bases de datos faciales 2D y 3D, Vectores soporte, kernel.
xiii

ABSTRACT

The research presented in this Doctoral Thesis is carried out within the framework of
automatic facial image recognition systems. They consist of processing the images of
people's faces using statistical and mathematical methods of extracting characteristics
and classifying images, to know if an individual is in a certain class, and finally find
their identity. The automatic treatment of a face is complicated, due to the fact that it
presents several factors that affect it, such as the position of the face, expression, age,
race, type of lighting, noise, and objects such as glasses, hat, beard among others.
Processing is done globally, where the entire face is processed. Processing images
globally is known to be faster, more practical, and more reliable than feature-based
images. Furthermore, it is known that processing images in three dimensions is more
real and consistent than in two dimensions. The main objective of the proposed thesis
was to develop an efficient facial recognition technique with global features, and with
three-dimensional images. For this, the most efficient algorithms for feature extraction,
Gabor filters, and the algorithm for classification, Support vector machine (SVM),
were selected. This last algorithm, its efficiency varies according to the kernel or
kernel function, therefore, in this thesis we worked with three kernels: linear, gausean
and cubic. These systems consist of two necessary processes: 1) Training, and 2)
Testing. This allowed establishing a global facial recognition model for two and three
dimensions, respectively. The technique was processed first for 2D images, then for
3D images. And the cross validation method was used in both cases to approve it. The
best results obtained with the technique achieved are 96% efficiency with a two-
dimensional image database; and 98.4% with a three-dimensional image database.
Finally, a comparison is made of the results achieved with other similar research
works, obtaining greater efficiency with this work.

KEY WORDS: Facial recognition model, Gabor characteristics, 2D and 3D face


databases, Support vectors, kernel.
1

CAPITULO I: INTRODUCCION

1.1 Situación Problemática

En la sociedad actual, la inseguridad se ha vuelto una de las formas de vida diaria que
lleva la humanidad avanzar de una manera muy acelerada, sin que al momento haya
una forma de contrarrestarla. En los últimos años, la seguridad de algunos países se ha
visto intimidada por los ataques terroristas, especialmente en los países con mayor
poder en el mundo (Cadena, Montaluisa, Flores, Chancúsig, & Guaypatín, 2017).
Dichos ataques han demostrado las falencias en los sistemas de inteligencia y de
seguridad nacional. Debido a esta situación los gobiernos de todos los países del
mundo han utilizado su presupuesto para mejorar estos sistemas en distintos lugares
como; aereopuertos, oficinas de investigación, entidades publicas, etc. En función de
esto, el reconocimiento biométrico facial es indispensable para un sistema de seguridad
ciudadana en general (Arguello, 2011). Actualmente los sistemas de reconocimiento
facial tienen altos porcentajes de reconocimiento, sin embargo, no se ha
logrado obtener un cien por ciento de efectividad, debido a varios inconvenientes que
se presentan principalmente con las características faciales del ser humano.

Por un lado, los seres humanos a menudo utilizan rostros para reconocer individuos,
dada su capacidad discriminativa y por otro lado avances en el campo de la informática
en las últimos tiempos permiten registros parecidos en forma automática. Desde este
punto de vista en estos últimos tiempos se habla de reconocimiento de imágenes
faciales, que consiste en captar la imagen de una persona a través de ciertas técnicas,
las mismas que no son intrusivas, es decir la persona no se siente obligada a ser
identificada. El ser humano nace con la capacidad de reconocer rostros, misma que va
desarrollando conforme avanza su crecimiento. Sin embargo, es necesario automatizar
esta actividad que realizamos los seres humanos, por cuanto es imposible que la
persona pueda estar en el momento que se da una acción no permitida como: robos,
asesinatos, secuestros, etc. De allí que en la actualidad se cuenta con un sistema de
reconocimiento facial controlado por computador. Este reconocimiento facial de
2

rostros humanos es un problema que aún sigue desafiando en informática por cuanto
aún no llegan a una eficiencia esperada (Bah & Ming, 2020).

Las aplicaciones de un Sistema de reconocimiento están relacionadas con la seguridad,


tales como la autentificación de identidad, control de acceso, vigilancia, etc (Cadena
& Flores, 2018). Sin embargo, no es fácil reconocer automáticamente a diferentes
personas (cientos o miles) por la imagen de su rostro, debido a la variación de las
imágenes de la misma cara por la iluminación, pose, y por la variación de la misma
imagen pasado un tiempo (Manju & Radha, 2020). Hay que tener en cuenta que el
reconocimiento facial presenta problemas debido a las diversas características que se
presentan en cada persona.

El intento de efectuar por medios computacionales el proceso de reconocimiento


facial, no es sencillo, el hardware y software utilizados, las limitaciones observadas y
la calidad de investigaciones previas respecto al rostro que necesitamos reconocer y el
método que se usa. Se destaca los variados inconvenientes existentes en este campo
como pose, expresión facial o iluminación, edad, movimiento de la persona, entre
otros. Es necesario destacar que los algoritmos juegan un papel importante en este
proceso de reconocimiento, por cuanto toda aplicación informática está diseñada en
función de un algoritmo. En la actualidad se tiene aplicaciones para el reconocimiento
facial, sin embargo según (Belén, Díaz, & Físicas, 2004), existen muchas causas que
producen la deficiencia en el reconocimiento facial que son los siguientes: “La
posición de la cara, su rotación respecto de las tres direcciones del espacio, la distancia
entre la cara y el sensor, la escala, la resolución, el tipo de iluminación, el color, el
maquillaje, la posición de la fuente de iluminación, la presencia de sombras, el
peinado, la presencia de barba, bigote o perilla, las oclusiones y los gestos”.

Para estas adaptaciones es muy común usar aplicaciones de erradicacion de datos. La


información extraida para que la investigación se ocupe del contenido de textos de
estudio importantes de un dominio (o escenario) predeterminado, llamado dominio de
extracción. La finalidad de un sistema de extracción de información es detectar la
información real y separar el informe irrelevante (Cowie & Wilks, 1996).
3

En lo referente al reconocimiento facial se han presentado varios avances referentes a


este campo. El reconocimiento facial es una tecnología que captura e identifica el
rostro de la persona, la información que se obtiene es almacenada en una base de datos.
El sistema obtiene la información y automáticamente inicia la localización y
determinación de las características faciales que identifica a cada persona (Viola y
Jones, 2001). Reconocer el rostro humano en el registro facial se usa como el primer
paso en el sistema. Asimismo, tiene un impacto significativo en el resultado del
desarrollo, ya sea en una serie de imágenes o videos en inmediato tiempo. En ese
sentido, debe poder identificar rostros libremente de los submultiplos anteriores.

Para este reconocimiento facial, es necesario el uso de algoritmos que permitan la


extracción y la clasificación de la información obtenida. En un informe realizado por
los autores (Kim, Park, Toh, & Lee, 2010), señalan que la finalidad principal para que
el sistema funcione, es identificar un algoritmo eficiente que permita el reconocimiento
de características del rostro. Este se ha desarrollado para hipersuperficie no lineal, hay
que tener en cuenta que existen limitaciones para el LDA (Análisis Discriminante
Lineal) no lineal para enfrentar las aplicaciones físicas en virtud de factores
ambientales complejos. Esta delimitación incluye el uso de funciones de covarianza
común entre cada categoría, y la dimensionalidad limitada inherente a la
conceptualización de la dispersión entre la clase. Debido a que son problemas
inherentes ocasionados en el criterio de Fisher (Sandoval, Rubio, & Eds, 2019), que
no pueden resolver en el marco LDA convencional por lo que utiliza el método kernel
no lineal, como es un polynomial (Zhao, Fu, Ji, Zhou, & Tang, 2011).

Dentro de los algoritmos que permiten el reconocimiento facial se encuentra el SVM.


El estudio realizado por (Guo, Li, & Chan, 2001), indica que es posible utilizar un
método de red de aprendizaje para reconocimiento de patrones bipartita, incorporando
al sistema SVM una estrategia de reconocimiento de árbol binario para manejar el
problema de reconocimiento facial multi clase. El rendimiento del SVM se basa
principalmente en comparar el enfoque eigenface estándar, y el algoritmo actual
plantea la línea característica más cercana que es un método de clasificación eficiente
pero simple que permite el reconocimiento de patrones (NFL, Guo et al., 2001).
4

Respecto de la Curvatura de Gabor extendida y mapas de los bordes, son métodos


importantes utilizados para completar la extracción de características de una imagen
reducida sus vértices características y puntos de alta prominencia, el trabajo de
(Torkhani, Ladgham, Sakly, & Mansouri, 2017) aplica este método aprovechando las
ventajas del impacto sobresaliente de las ondas de Gabor en la simulación de la forma
de la cara, explotando propiedades visuales pertinentes, localizando frecuencias de
características especiales y el control de la selectividad de orientación. Con respecto a
la teoría de la wavelet Gabor cada uno de los filtros corresponde a una onda sinusoidal
modulada por una envolvente gaussiana diseñada mediante la orientación y una escala
espacial o una frecuencia.

1.2 Formulación del problema

Hay muchos trabajos de investigación y comerciales generales de reconocimiento


facial, pero no logran ser eficientes al cien por ciento, para ser aplicados en el contexto
de seguridad, debido a las complejidades de las imágenes de caras.

Problema: ¿De qué manera se logrará obtener un sistema eficiente de reconocimiento


facial utilizando técnicas eficientes de extracción de características, clasificación y
bases de datos adecuadas para 3D?

1.3 Justificación de la investigación

1.3.1 Justificación teórica

Esta investigación se realiza con el propósito de aportar al conocimiento existente


sobre reconocimiento facial en 3D, a través de la revisión literaria sobre bases de datos,
técnicas de extracción de características y algoritmos de clasificación de patrones, se
destaca los trabajos más eficientes en este tema para analizar su metodología aplicada
y poder sistematizarse en una propuesta, para ser incorporado como conocimiento al
tema de reconocimiento facial, ya que se estaría demostrando que el uso de estos
algoritmos mejoran el nivel de reconocmiento de imágenes pertenecientes a una base
de datos.
5

En la actualidad, la tecnología ha contribuido de manera significativa en el desarrollo


de la sociedad, y en el campo del reconocimiento facial está dando un gran aporte a la
humanidad, sin embargo, es muy importante que esta investigación avance hasta
conseguir una técnica eficiente que logre un reconocimiento facial de un rostro
humano sin importar su posición en la que se encuentre (estática o movimiento), color,
rostro semicubierto, etc.

Ante esta realidad es necesario trabajar en la búsqueda de un algoritmo más eficiente


que garantice el proceso de reconocimiento de imágenes faciales por lo que resulta por
demás justificado el tema propuesto. De allí la significacion de continuar avanzando
con la investigación propuesta, cabe mencionar que este tema está enmarcado dentro
de la línea de investigación de sistemas inteligentes.

1.3.2 Justificación práctica

Esta investigación se realiza porque existe la necesidad de mejorar el nivel de


eficiencia en el proceso de reconocimiento facial, mediante el uso de técnicas y
algoritmos de clasificación. El tema propuesto en la tesis permitirá encontrar
soluciones de optimizaciones del algoritmo, generará una nueva técnica, se aportará
en la solución de problemas de seguridad ciudadana, que aprovecharán las
instituciones educativas públicas y privadas, las municipalidades, la policía nacional y
los organismos privados para seguridad pública, permitirá disminuir el número de
incidencias delincuenciales, etc. Esta técnica eficiente permitirá obtener un sistema de
reconocimiento facial de apoyo en el monitoreo de reconocimiento de individuos ante
una situación que quieran delinquir, etc.

1.4 Objetivos

1.4.1 Objetivo General

Desarrollar una técnica de reconocimiento facial que tenga un porcentaje de


eficiencia por encima del 97% utilizando algoritmos de wavelets de Gabor y
6

Máquinas de vectores soporte con sus diferentes kernels a través de imágenes 3D para
contribuir a la seguridad ciudadana.

1.4.2 Objetivos específicos

• Revisar la literatura referente a bases de datos en 2D y 3D, extracción de


características y algoritmos de clasificación.
• Seleccionar e implementar un algoritmo eficiente de extracción de características
para imágenes faciales en 2D y 3D respectivamente
• Seleccionar e implementar un algoritmo de clasificación eficiente para 2D y 3D
respectivamente que serán usado en la investigación.
• Establecer un modelo de reconocimiento facial utilizando los algoritmos de
extracción y clasificación seleccionados para 2D y 3D respectivamente.
• Validar el modelo obtenido a través de los algoritmos de extracción y clasificación
en 2D y 3D respectivamente.

1.5 Hipótesis

El desarrollo de una técnica de reconocimiento facial usando algoritmos eficaces como


Gabor y Máquina de Vectores Soporte, permitirá la obtención de un proceso de
reconocimiento facial global en 3D, por encima de 97% de eficiencia, que contribuya
a la mejora de la seguridad ciudadana.

1.6 Variables

Variable independiente:
 Técnica de reconocimiento facial usando Gabor y Máquina de Vectores
Soporte
Variable dependiente:

 Eficiencia del reconocimiento facial en 3D


7

1.7 Operacionalización de variables de la investigación

Tabla 1.1 Operacionalización de variables de la investigación

MEDICIÓN DE
DEFINICIÓN DE INDICADOR DE DEFINICIÓN DE
VARIABLES TIPO DE VARIABLE INDICADOR DE
VARIABLE CUMPLIMIENTO INDICADOR
CUMPLIMIENTO

Técnica de Independiente Técnicas y métodos - - -


reconocimiento empleados para la
facial usando Gabor extracción y
y Máquina de clasificación de
Vectores Soporte información

Eficiencia del Dependiente Porcentaje de Eficiencia Porcentaje de Porcentaje de un


reconocimiento efectividad del eficiencia grado de
facial en 3D proceso de reconocimiento de la
reconocimiento facial técnica
8

1.8 Organización de la tesis

En el capítulo I se desarrolla la Sección 1.1 correspondiente a la situación


problemática, seguido de la Sección 1.2 en donde se realiza la formulación del
problema, mientras que en la Sección 1.3 se plantea la justificación de la investigación.
A continuación, en la Sección 1.4 se plantea los objetivos tanto el general como los
específicos, seguidamente de la Sección 1.5 que hace referencia a la hipótesis de la
investigación, seguido de la Sección 1.6 que indica la organización de la tesis, a
continuación, la Sección 1.7 trata sobre las variables de la investigación y finalmente
la Sección 1.8 que presenta la operacionalización de variables del análisis.

El capítulo II aborda el marco teórico acerca del tema planteado, es así que en la
Sección 2.1 se plantea el marco filosófico y epistemológico del tema de investigación,
la Sección 2.2 trata sobre los antecedentes de la investigación, a continuación la
Sección 2.3 trata sobre el reconocimiento facial, mientras que en la Sección 2.4 se
revisa exclusivamente trabajos relacionados con la técnica del SVM para el
reconocimiento de rostros, seguido de la Sección 2.5 donde trata las técnicas de
reconocimiento en dos dimensiones (2D) y tres dimensiones (3D), en la Sección 2.6
se realiza una conceptualización de las principales bases de datos de caras, de las cuales
se elegirán las más apropiadas para el trabajo de investigación, seguido por la Sección
2.7 donde se realiza una evaluación de las técnicas revisadas sobre reconocimiento
facial, a continuación en la Sección 2.8 se plantea una revisión sobre filtrado de
imágenes, mientras en la Sección 2.9 trata la revisión sobre extracción de
características, a continuación en la Sección 2.10 se realiza un resumen de la revisión
de la literatura, y finalmente en la Sección 2.11 trata sobre la validación cruzada.

El capítulo III se enfoca sobre la metodología de investigación, es así que en la Sección


3.1 se indica sobre el tipo y diseño del análisis, mientras que la Sección 3.2 trata sobre
la unidad de análisis, así también en la Sección 3.3 se indica sobre la población de
estudio, mientras en la Sección 3.4 se aborda sobre el tamaño de la muestra, en la
Sección 3.5 se realiza un enfoque a las técnicas de recolección de datos seguido de la
Sección 3.6 que trata sobre las técnicas de análisis de datos para concluir con la
Sección 3.7 sobre la validación de modelos para reconocimiento facial en 2D y 3D
respectivamente.
9

En el capítulo IV se realiza un enfoque al primer aporte realizado en la investigación,


en tal sentido en la Sección 4.1 se indica sobre la selección y justficación de la
tecnología a utilizarse en el diseño del experimento, mientras que la Sección 4.2 trata
sobre el modelo desarrollado para 2D con las bases de datos FERET y MUCT, en la
Sección 4.3 se describe la implementación del modelo, continuando con la Sección
4.4 donde se describe la validación del modelo, en la Sección 4.5 se realiza una
descripción de los experimentos y sus resultados, por último en la Sección 4.6 se
refiere a la discusión de los resultados conseguidos.

El capítulo V trata sobre el segundo aporte, donde se realiza un enfoque al aporte


realizado en la investigación, en tal sentido en la Sección 5.1 se habla sobre la selección
y justificación de la tecnología a utilizarse en el diseño del experimento en 3D,
mientras que en la Sección 5.2 trata sobre el modelo propuesto para 3D, el primero
utiliza una base de rostros TEXAS3DFRD y el otro con la base de rostros BU-3DFE,
seguido por la Sección 5.3 que aborda la validación del modelo obtenido para cada
una de las bases de datos indicados anteriormente, a continuación viene la Sección 5.4
que trata sobre la descripción de los experimentos y sus resultados. Así también en la
Sección 5.5 se realiza una discusión de resultados conseguidos en las pruebas
realizadas en el proceso de reconocimiento facial, mientras que en 5.6 se plantea la
comprobación de hipótesis y para concluir, en la Sección 5.7 se establece las
respectivas conclusiones del segundo aporte de la investigación.

En el capítulo VI se establecen las conclusiones generales de la investigación y


posibles trabajos futuros para quienes deseen continuar investigando sobre este tema.

Para concluir se presenta las respectivas referencias bibliográficas, anexos que


contemplan las pruebas realizadas y sobre todo cinco publicaciones en revistas
indexadas en scopus, web of science, cielo, latindex y dialnet, correspondientes a la
investigación, que es fruto de un trabajo de mucha paciencia, dedicación, sacrificio y
responsabilidad.
10

CAPITULO II: MARCO TEORICO

Este capítulo presenta el marco teórico basado en técnicas, modelos, filtros,


clasificadores, implementaciones, extractores de características, herramientas para un
reconocimiento facial con imágenes 2D y 3D, utilizando algoritmos de filtros de
Gabor, extracción de características como Gabor, PCA, clasificador de patrones como
Máquinas de Vectores Soporte (SVM). De acuerdo a García (Garcia, 2014), el estado
del arte en el marco teorico es de gran importancia, se descubre nuevo enfoque y
permite afianzar el grado de actualización del tema de análisis. Además, García
(Garcia, 2014) manifiesta que un buen estado del arte acerca al investigador a la
solución de su problema de análisis al comprender las soluciones al mismo problema
en planteamiento similar, al que han llegado otros analistas.

En base a la motivación sobre el tema de reconocimiento facial, se llevo a cabo la


investigación de los temas de interés en revistas indexadas, libros, artículos de revistas,
conferencias en congresos científicos, etc, se buscó información en las primordiales
bibliotecas digitales y motores de búsqueda de información como: IEEE Xplore,
Science Direct, Scopus, Springer, etc. Las demarcaciónes de búsqueda fueron:
Reconocimiento de rostros en 2D, reconocimiento de rostros en 3D, clasificadores de
patrones, técnicas de extracción de características de rostros, filtrado de imágenes,
bases de datos de caras, clasificadores de patrones, máquinas de vectores de soporte
(SVM).

De los resultados encontrados, se realizó la lectura de los títulos y se suprimió


información que no cumplia con los parámetros de la investigación. De los artículos
relacionados con el tema se leyó su abstract, descartando los análisis que no eran
compatibles con el desarrollo del tema. Continuando con los seleccionados se analizó
la introducción y las conclusiones y se excluyó a los trabajos de investigación que
resolvían un sentido más amplio o hacían referencia a ello.
11

Finalmente, de los artículos resultantes, se realizó su lectura completamente y se


eliminó material que no coincidían con el tema y no contribuían con información
relevante sobre reconocimiento de rostros. Por otro lado, también se llevó a cabo un
registro de todos los documentos descargados, que de una u otra manera permitieron
construir este documento de tesis y ampliar el conocimiento. Se estimó el protocolo de
revisión y se validó la confiabilidad de los análisis, con el asesor de este trabajo,
mediante una lista de observación que contiene criterios de aporte, credibilidad,
relevancia, novedad, viabilidad entre otros. En la revisión realizada se citó a los autores
más relevantes y a los estudios de mayor jerarquía con su respectivo título del
documento, técnica utilizada, año de publicación, base de datos, resolución, porcentaje
de eficiencia con su técnica, etc. En la tabla 2.1 se presenta un resumen de la
metodología de la investigación aplicada en este trabajo.

Tabla 2.1 Metodología de la investigación para el estado del arte


Aspecto Explicación
Área: Reconocimiento facial, Técnicas de reconocimiento facial,
Reconocimiento facial con SVM, Bases de datos de rostros en 2D y
Estrategia de
3D.
Búsqueda
Propósito de la búsqueda: Caracterización de técnicas y determinar
los más eficientes
Fuentes de
Libros, Revistas indexadas, Tesis doctorales
Información
Motores de
ACM Digital Library, IEEE, Science Direct
Búsqueda
Recognition of faces
Face recognition techniques
Criterios de
Facial recognition with SVM
Búsqueda
Databases of faces in 2D
Databases of faces in 3D
Criterios de Documentos que contienen información sobre los temas
selección mencionados
Se excluyen los documentos publicados muchos años atrás,
exceptuando los más importantes.
Criterios de
Se excluyen los documentos que analizan otros tipos de
Exclusión
reconocimiento que no sea de rostros como dactilares, iris, etc.
Se excluyen bases de datos muy pequeños
Evaluación Exactitud, objetividad, cobertura, eficiencia, Se investiga en la
de los cadena de autores que han realizado contribuciones a los artículos y
contenidos temas analizados.
Se ofrece una visión general de las técnicas y bases de datos
Análisis de
empleados en los procesos de reconocimiento de rostros en 2D y 3D.
la
De los documentos analizados se establece los trabajos que han
información.
obtenido la mayor eficiencia en reconocimiento, así como las
12

técnicas empleadas, a partir de los cuales se inicia la solución al


problema de la investigación. Se examinan algunas técnicas de
clasificación y extracción como Máquina de Vectores Soporte
(SVM), Arboles de Decisión, Análisis de Componentes Principales
(PCA), Filtros de Wavelet de Gabor, Caracetísticas de Gabor, etc. Y
finalmente las bases de datos de rostros trabajados en los diversos
laboratorios de investigación que se dedican al tratamiento de
imágenes de rostros.

2.1 Marco filosófico o epistemológico

El reconocimiento facial es uno de los pocos métodos con alta precisión y baja
tendencia a la intrusión, es altamente eficiente sin ser intrusivo. (Valverde, Criollo,
Plua, Quinche, & Quiroz, 2014). En los años setenta el reconocimiento facial ha sido
identificado por los investigadores en las áreas de seguridad, procesmiento de
imágenes, hasta una visualización por computadora. Debido al alto grado de
inseguridad, se presenta un análisis exhaustivo sobre las técnicas más eficientes para
reconocimiento facial en el campo de visión por computador y posteriormente el
desarrollo respectivo de un aplicativo para un reconocimiento facial en 2D y 3D. El
presente trabajo de investigación considera como una herramienta importante al
reconocimiento facial para aportar a la seguridad de una persona, un problema actual
y fundamental que al momento es muy difícil superarla. Tomando como base este
criterio es necesario hacer un análisis a la seguridad ciudadana desde el punto de vista
filosófico o epistemológico.

La Filosofía se la considera como el conocimiento y entendimiento como disciplina,


en los orígenes del planteamiento filosófíco al empezar el estudio y lograr su finalidad
y justificación, es decir las cosas esenciales. En ese sentido, la seguridad, esta orientada
y dedicada hacia una justificación, asimismo toda actividad que tiene relación con la
certeza, esta vinculada a la informática segura, la higiene y seguridad industrial, la
protección a bienes, edificaciones y valores, las alarmas inteligentes, redes de visión
remota, blindajes, pasivos infrarrojos, detectores de temperatura, etc., la finalidad de
todas estas tecnologias de seguridad tienen su razón de existencia y necesita los
siguientes elementos, tales como:
13

Técnicos: Como el armamento, los vehículos, sistemas informáticos, equipamiento


específico para contrarrestar las distintas modalidades delictivas.

Administrativos: Como las leyes y reglamentos adecuados que permitan saber cómo
actuar y utilizar a los elementos técnicos de la mejor forma.

Humanos: Que comprende el personal policial y de guardias privado, capacitado y


actualizado en las distintas ciencias y técnicas que requieren los hechos que promueven
la acción policial, así como el personal de guardia

Cabe mencionar que la seguridad también se le debe entender como política pública,
es así que la seguridad ciudadana es parte del sistema de protección estatal a través de
las diversas fuerzas del orden, el estado toma un importante papel en la seguridad
interna del país ya sea en sus gobiernos locales como en los gobiernos regionales o la
política de seguridad publica como un engranaje de todos los actores de la seguridad
de un país, es decir como los habitantes de una determinada población encuentran en
sus autoridades la suficiente tranquilidad y respaldo en cuanto a su seguridad y de sus
bienes. Cada país es independiente en sus estrategias de seguridad pública y destinan
diversos presupuestos para llevar a cabo su planeación estratégica.

Las diversas políticas de seguridad poblacional deben llevar la estrategia de apuntar el


cumplimiento y garantía de los diversos marcos normativos que permitirán la pacífica
convivencia entre la comunidad, la garantía del orden público es una de las
responsabilidades del estado hacia su población. El tema del reconocimiento facial, es
parte de la interacción del hombre con la computadora, esta a su vez se ha convertido
en un disciplina (Valverde et al., 2014), denominada Interacción Humana y
Computador (HCI), El mismo que examina y cubre todos los aspectos relacionados
con el diseño e implementación de interfaces entre humanos y computadoras.

Determinado por la naturaleza u objetivos, el HCI en su forma natural engloba diversas


disciplinas relacionadas con la informática, entre las que se encuentran el
procesamiento de imágenes, el lenguaje de programación, la visión por computadora
u otras, y las ciencias humanas como: factores humanos, ergonomía, psicología
cognitiva u otras similares.
14

A futuro, según (Valverde et al., 2014) esta técnica de reconocimiento facial se puede
ampliar para identificar a la persona que abre la caja registradora durante un intento de
robo en un supermercado o pequeño establecimiento; o en un caso más extremo, se
puede utilizar en cajeros automáticos donde se puede utilizar para validar mediante
reconocimiento facial en lugar del código PIN actual.

2.2 Antecedentes de investigación

En las civilizaciones anteriores las personas vivían en ciudades pequeñas, donde se


reconocían sin dificultad por su número limitado de habitantes; sin embargo, debido
al rápido aumento poblacional y la movilidad humana, la identificación se volvió un
proceso complicado, de tal manera que las sociedades innovadoras consideraron
necesario implementar sofisticadas técnicas de registro de identificación.
Considerando a la identificación como un conjunto de informaciones relacionadas a
una persona, tales como: nombres, apellidos, lugar y fecha de nacimiento, etc.
(Escobar, 2019)

En el año 1882, el policía Bertillon Alphonse presentó un algoritmo, el que años más
tarde se constituiría en el primer sistema biométrico para la identificación de personas,
fundamentado en rasgos físicos, al que llamó antropometría (Serratosa, 2013). Este
sistema se lo considera como un sistema biométrico científico, mediante el cual la
policía podría registrar a todos los criminales. Bertillon Alphonse se encargó de
clasificar a los culpables por la altura y el rostro.

El reconocimiento facial tiene más de 50 años. Un equipo de investigación dirigido


por Woodrow W Bledsoe (Ballantyne, Boyer, & Hines, 1996) realizó
experimentos entre 1964 y 1966 para ver si las computadoras de programación podían
reconocer rostros humanos. El equipo usó un escáner rudimentario para mapear la
ubicación del nacimiento del cabello, los ojos y la nariz de la persona. La tarea de la
computadora era encontrar coincidencias. No tuvo éxito. Bledsoe dijo: "El problema
del reconocimiento facial se dificulta por la gran variabilidad en la rotación y la
inclinación de la cabeza, la intensidad y el ángulo de iluminación, la expresión facial,
15

el envejecimiento, etc.". En aquella época, a las computadoras les resultaba más difícil
reconocer rostros que vencer a los grandes maestros en el ajedrez. Han pasado muchos
años, el tema de reconocimiento facial sigue en avanzada, sin embargo aún no se
superan completamente estos problemas.

2.3 Reconocimiento facial

Un Sistema de reconocimiento facial (SRF), es una aplicación dirigida por un


dispositivo electrónico (computador), el mismo que identifica automáticamente a una
persona a través de una imagen digital. En la actualidad se manejan algunos conceptos
respecto del reconocimiento facial, tales como: Ana Belén Moreno Díaz (Belén et al.,
2004), considera que un SRF es un proceso que dada una o varias imágenes de una
cara desconocida, selecciona entre las caras registradas en su base de datos, aquella
con un mayor grado de similitud o parecido, devolviéndose la identidad de ésta. Así
mismo Luis Blázquez Pérez (Pérez, 2013), considera que en el reconocimiento facial
se realiza un proceso de extracción de rasgos, el mismo que puede ser tratado como:
locales, globales y mixtos. El reconocimiento facial posee una variedad de ventajas
sobre otros métodos biométricos tales como reconocimiento de huella digital y de iris;
entre estas que es natural y no intrusiva además del hecho que el reconocimiento facial
se podrá realizar a una distancia y de manera prudencial, (Cutipa, Cesar, Huanca,
Posgrado, & Universitaria, 2017).

En relación a la seguridad, el reconocimiento facial es un método biométrico que


comprende un extenso campo de aplicación en el área tecnológica. Así, se podría
utilizar en menor escala en sistemas de acceso para las empresas, universidades,
reconocimiento de amigos en las redes sociales, identificación en un celular,
computadora o tablet, acceso a cajeros automáticos, etc. Y a gran escala, podría ser
instrumentado por las autoridades policiales para la localización de personas que hayan
cometido grave daño a la sociedad, también en el control de pasaportes, seguridad en
calles, en estadios de fútbol, en aeropuertos, etc.

Según Cabello (Cabello Pardos, 2003), considera que una de las virtudes de un sistema
de reconocimiento facial basado en visión artificial es su carácter no intrusivo, es decir
que la persona no se siente invadido su intimidad, no tiene que realizar ninguna acción
16

para identificarse o someterse a ningún tipo de análisis. Otra ventaja es que permiten
eliminar la memorización de códigos y además se evitaría llevar una identificación
como: pasaporte, cédula de ciudadanía, etc.

En la actualidad los investigadores trabajan en sistemas que eviten las restricciones de


condiciones controladas para adquirir robustez ante cambios de iluminación, edad,
rotación, traslación, profundidad, expresiones faciales, oclusiones, cabellos, lentes,
maquillaje, etc. A continuación, se considera que las etapas siguientes típicamente
integran un sistema de visión artificial, las mismas que son:

 Adquisición de las imágenes


 Detección de la cara en la imagen
 Extracción de características y
 Reconocimiento

Finalmente hay que indicar que en la actualidad se cuenta con varias técnicas que
permiten el tratamiento del reconocimiento, los mismos que serán tratados más
adelante.

2.4 Trabajos relacionados

2.4.1 Reconocimiento facial utilizando características geométricas en 3D: PCA


y SVM

En este trabajo, Moreno (Moreno & Sanchez, 2005) presenta un sistema de modelado
3D de la cara basado en un algoritmo de segmentación HK, que consiste en separar la
cara en zonas bajo características establecidas.

Seis zonas y dos líneas se adquirieron de forma automática desde cada malla 3D,
además se utilizan para obtener el principal rasgo facial que corresponde al coeficiente
de Fisher (Correa, Salazar, & Ortiz, 2013), para encontrar las zonas del rostro. El
modelo planteado ha sido comprobado en la implementación de dos sistemas de
reconocimiento facial basado en PCA (Moreno & Sanchez, 2005), técnica que permite
reducir la dimensionalidad de las imágenes y SVM (Support Machines Vectors) como
clasificadores de patrones, determinando la forma en como se empareja esquemas bajo
17

control y entornos no controlados. Como resultado experimental se observa que las


tasas de reconocimiento correctas son suficientes para implementar aplicaciones de
reconocimiento de rostro real y que el modelo propuesto es firme. El uso de SVM en
un medio ambiente controlado determina el 90,16% de aciertos y en un ambiente que
no es controlado produce el 77,9%. Y con respecto al PCA identifica el 82% en
ambientes controlados mientras que el 76,2% en ambientes no controlados, en esta
investigación según (Moreno & Sanchez, 2004) se utiliza la base de datos GAVAB
que contiene 420 imágenes faciales en 3D de 60 personas diferentes.

2.4.2 Máquina vector de soporte para reconocimiento facial

Este trabajo trata sobre el reconocimiento facial multi clase (Guo et al., 2001), indica
que es posible utilizar un método de red de aprendizaje para reconocimiento de
patrones bipartita, y se incorpora a SVM una estrategia de reconocimiento de árbol
binario para manejar el problema de reconocimiento facial multi clase. En relación al
rendimiento del SVM se identifica que se basa en la comparación con el enfoque
eigenface estándar, y su algoritmo actual expone una línea característica más cercana
NFL(Guo et al., 2001), (B. Pradhan, 2013), (Z. Qi, Y. Tian, 2013), (X. Peng, 2010)
perteneciente a un método eficiente pero simple para el reconocimiento de modelos.
Según (Guo et al., 2001), establece un árbol binario estratégico para el SVM utilizado
para resolver el problema de reconocimiento multi clase como se muestra en la figura
2.1.

Figura 2.1 Estructura de un árbol binario para 8 clases para un reconocimiento (Guo et al., 2001)
18

Se propone construir un árbol binario para la clasificación, allí se tiene 8 clases, los
números del 1 al 8 son los que codifican las clases, cabe señalar que estos números
para la codificación pueden estar en forma arbitraria. Entonces se elige un número
ganador que sale de la comparación entre cada par de clases, las clases acertadas o
elegidas llegarán al nivel superior para realizar una nueva ronda de pruebas. Guo
utiliza tres métodos de clasificación: Line nearest features (NFL) (Líneas
características más cercanas) (Guo et al., 2001), Nearest Center (NC) (centro más
cercano) y el SVM. Se realizaron dos experimentos que arrojaron los errores
cometidos en cuanto al reconocimiento, el primero trabajó solo con una base de datos
ORL (ORL, 1994), con un total de 40 personas participantes distintas con 10 poses
cada una, obteniendo un error del 3% para el SVM, que fue el mínimo comparado con
el 3,83% del CNN (Lawrence et al., 1997), y 3,125% del NFL (Li S. & Lu L., 1999),
e igual forma se realiza un segundo experimento con 1079 imágenes de 137 personas
correspondiente a una base de datos compuesta principalmente por cinco bases de
datos como pueden ser: ORL, BERN, YALE u otras, por lo que se finiquita que el
SVM tiene el menor error en reconocimiento con un valor del 8,79 %, seguido de NFL
con un 9,72% y el NC con el 15,14 %.

2.4.3 Un enfoque de reconocimiento facial mejorado basado en vector


discriminante común y SVM

En este trabajo (Wen, 2012), se propone un método mejorado de vectores comunes


discriminantes, Improved Discriminative Common Vectors (IDCV) que utiliza SVM,
y para demostrar su eficiencia realizan una comparación de otros siete métodos de
reconocimiento facial, dos de los cuales incluyen SVM. En la realización de los
experimentos se utilizan sistemas de base de datos compuestas por imágenes de rostros
denominadas The ORL Base de datos de rostros y The AR base de datos de rostros. Al
trabajar con ORL, utiliza 400 imagenes de 40 personas, cada imagen tiene un tamaño
de 112 por 92, cada persona tiene 10 poses diferentes. AR utiliza 1300 imagenes, 50
femeninas y 50 masculinos, 13 poses por cada persona.

En el presente trabajo se demuestra que la técnica propuesta IDCV con SVM presenta
un alto porcentaje de reconocimiento comparado con los otros siete métodos, con cada
sistema de base de datos utilizadas. Los vectores comunes se generan en el caso de que
19

el número de individuos sea menor o igual a la dimensionalidad del espacio de


individuos. El algoritmo Vectores Comunes Discriminantes por sus siglas en inglés
(DCV) es una variación del algoritmo Análisis Discriminante Lineal (LDA), en el que
se observa que DCV consigue mejores resultados de reconocimiento facial que LDA.
Sin embargo, no resuelve el problema de multiclase del algoritmo LDA. Se propone
el método Mejorado vectores comunes discriminantes (IDCV), ajustando el criterio
Fisher de LDA en DCV, para evaluar internamente las matrices de dispersión entre
clases.

En este estudio se utiliza máquinas de soporte vectorial para la clasificación de los


datos de entrenamiento y prueba, con la función kernel Gaussiana. En la tabla 2.2 se
muestra los resultados obtenidos en el experimento, en el cual la técnica IDCV con
SVM demuestra un alto nivel de desempeño. A continuación, en la tabla número 2.2,
se muestra una síntesis de los resultados obtenidos bajo estas las técnicas aplicadas.

Tabla 2.2 Resumen de los resultados obtenidos para siete entrenamientos con 8 técnicas (Wen,
2012)
TECNICAS EFICIENCIA KERNEL
EIGENFACE 93,87%
LDA 93,8%
PCA-SVM 95,56%
DCV-NN 96,67%
KDCV-NN 97,75% Gaussian
DCV-RBF 97,77%
KDCV-RBF 97,65%
IDCV-SVM 98,92%

2.4.4 Un nuevo método de reconocimiento facial basado en una máquina rápida


de mínimos cuadrados vectoriales

Este trabajo (Kong & Zhang, 2011), propone un nuevo método para el reconocimiento
facial mediante la combinación de Análisis de Componentes Independientes por sus
siglas en inglés (ICA)(Bartlett, 1998) y SVM. Como primer punto se separa las
características del rostro utilizando el algoritmo Informax, después se procede a
implementar el reconocimiento de rostros aplicando el algoritmo rápido de mínimos
cuadrados (FLS-SVM). ICA es una tecnología de procesamiento de señal estadística
desde 1990, la misma que puede extraer características de imágenes de rostros
20

estadísticamente independientes de una mezcla de señales. La idea de ICA es constituir


un conjunto de variables aleatorias aplicando funciones básicas, en donde los
componentes son estadísticamente independientes. Así, cada imagen de la cara es
linealmente consistente de imágenes bases y factores. Cada imagen x es representada
por el producto de los vectores u * A, en donde u  (u1 ,......., u n ) que son factores

independientes estimados unos de otros, y A  (a1 ,......., an ) son imágenes bases


calculados.

En el experimento se autentifica el algoritmo de reconocimiento facial utilizando la


database de cara ORL. Esta base de datos contiene imágenes de rostros de 40 personas
de tamaño 28 por 28, todas tienen diez imágenes faciales determinando la expresión o
si usa gafas o no. Finalmente se elige al azar cinco imágenes como conjunto de
entrenamiento, y otras como un conjunto de prueba, todas las imágenes se recortan al
tamaño 28 por 28 y son modificadas según la posición de los ojos situándolos
manualmente. Los resultados obtenidos en el experimento, se presenta a contunación
en la tabla 2.3

Tabla 2.3 Resultados obtenidos en el reconocimiento (Kong & Zhang, 2011)

De acuerdo a los resultados obtenidos se visualiza que ICA con el clasificador FLS-
SVM resultó el más efectivo, con un reconocimiento máximo del 97.5%.
21

2.4.5 Reconocimiento facial R-KDA con SVM no lineal para bases de datos de
múltiples vistas

En la presente investigación realizada por (Devi, Laishram, & Thounaojam, 2015),


intenta desarrollar una aplicación de reconocimiento combinando que involucra el R-
KDA con SVM no lineal, y al mismo tiempo los resultados obtenidos se comparan con
los resultados de R-KDA y K-nn vecinos respectivamente, obteniendo mejores
resultado. Este trabajo (Devi et al., 2015) propone un sistema de reconocimiento con
dos fases: La fase de extracción de características y la de reconocimiento de caras, para
la primera utiliza R-KDA y SVM no lineal para la segunda. Se plantea una serie de
pasos involucrados en la extracción de características usando R-KDA (Para el
entrenamiento), los mismos que tienen una entrada y salida.

Entrada: Conjunto de formación de imágenes, el número de muestras de


entrenamientos por clase y el parámetro de kerne RBF.

Salida: Subespacio de R-KDA, y se considera los siguientes puntos:

Cálculo de la matriz usando el nucleo RBF para el conjunto de entrenamiento.

 Se realiza una matriz m*n.


 Se calcula la matriz de nucleo usando RBF de la prueba.
 Se determina la proyección usando subespacio R-KDA con la matriz núcleo.

A continuación, presenta los pasos para la extracción de características usando R-KDA


(para conjunto de pruebas), en la que se proyecta las muestras de prueba al subespacio
del núcleo discriminante, este se obtiene a partir del conjunto de entrenamiento.

Entrada: Prueba de datos, ejemplos de entrenamiento, el espacio del núcleo


discriminante, la varianza de Gauss para el kernel RBF.

Salida: Subespacio R-KDA de conjunto de pruebas.

• Calcula el tamaño del conjunto de prueba (m) y el tamaño del conjunto de


aprendizaje (n).
• Se crea una matriz de tamaño m * n.
22

• Se calcula la matriz de núcleo usando núcleo RBF de la prueba.


• Se determina la proyección usando subespacio R-KDA con la matriz del núcleo.

Se plantea una secuencia de pasos para el reconocimiento de rostros, el mismo que


plantea utilizar un clasificador SVM, este encuentra un hiperplano óptimo que la
fracción más grande posible de los puntos de la misma clase en el mismo lado,
maximiza la distancia de cualquiera de las clases al hiperplano. La determinación del
hiperplano óptimo es un problema de optimización exclusiva y se puede solucionar
utilizando técnicas de programación cuadrática.

La base de datos UMIST que se utiliza, esta compuesta de 564 imágenes de 20


personas. Cada uno compuesta por una serie de poses de perfil, los sujetos cubren
diferentes aspectos como es la raza, genero, apariencia. Hay que tener en cuenta que
los archivos están en formato pgm, aproximadamente 220 × 220 píxeles de 256 tonos
de gris. Para el propósito experimental se toman 18 sujetos, 10 poses diferentes.

Finalmente, a partir del resultado del análisis, se observa que la combinación de R-


KDA con SVM no lineal supera a la combinación R-KDA con k-nn. La tasa de
reconocimiento correcta obtenida con el algoritmo propuesto es de aproximadamente
el 30% y la función kernel utilizada es la función base radial (RBF), tomando en cuenta
que se trata de un conjunto de caras de multiples vistas.

2.4.6 Modificaciones al método de Eigenphases para el reconocimiento facial


basado en SVM

Según (Olivares-Mercado, Toscano-Medina, Sánchez-Pérez, Nakano-Miyatake, &


Pérez-Meana, 2016) establecen las modificaciones para el método de eigenphases, con
el fin de aumentar su precisión. La primera modificación se denomina Eigenfaces de
dominio espacial local (LSDE), en el cual la imagen del rostro está segmentada por
primera vez en bloques de N x N píxeles, en las que las magnitudes se normalizan. La
segunda modificación se la identifica como local frecuency domain eigenphase
(LFDE), en la cual después de la segmentación las magnitudes de los pixeles se
normalizan y se calcula el espectro de fase en forma independiente, luego se
concatenan todos los bloques y se aplica PCA (Benitez-Garcia, Olivares-Mercado,
23

Aguilar-Torres, Sanchez-Perez, & Perez-Meana, 2012) para disminuir la


dimensionalidad del problema.

Se utiliza la base de datos AR (Martínez, 2014) compuesta por 9360 rostros, trabaja
con 120 personas (65 hombres y 55 mujeres). Efectúa dos entrenamientos distintos
con 1200 imágenes cada una, igualmente para poner en práctica el SVM se utiliza la
biblioteca LIBSVM (Chang & Lin, 2013), y la función utilizada para la tarea de
entrenamiento y reconocimiento es el Kernel polinomial. En cuanto a la identificación
usando SVM, utiliza algoritmos como: gabor, wavelet, LSDE3, LSDE6, LFDE3,
LFDE6 distribuido en dos grupos o conjuntos. De los cuales el principal LFDE3 es el
que mayor probabilidad tiene, además con el primer conjunto de datos tiene un acierto
del 85,92% y en con el segundo conjunto un 97,92% de acierto.

2.4.7 Detección de expresión facial basada en la característica de fusión de PCA


y LBP con SVM

Este trabajo trata sobre el Análisis de componentes principales (PCA), el mismo que
es un método de extracción basado en características estadísticas de grises globales de
toda la imagen. Los autores (Luo, Wu, & Zhang, 2013), implementan el método
híbrido de análisis de componentes principales y un patrón binario local (LBP). LBP
elimina las características de escala de grises locales de la zona de la boca, que
contribuyen en mayor medida a reconocimiento de expresiones faciales, para ayudar a
las características globales de la escala de grises en el reconocimiento de expresiones
faciales.

El reconocimiento se diseña tomando en cuenta el ambiente de VC6.0, y el dispositivo


de entrada es una cámara PHLIPS. En este experimento, el conjunto de muestras de
entrenamiento contiene siete expresiones faciales diferentes y la suma de ellas es de
50. La mitad de ellas tiene mejor iluminación y las otras no tienen un buen nivel de
iluminación y cada imagen del conjunto de entrenamiento se normaliza en tamaño
pequeño de 24 × 24. Se realiza una comparación entre PCA+SVM y PCA+LBP+SVM.
De entre ellos se obtuvo un reconocimiento promedio de: para el PCA+SVM el más
alto fue de 93,75% correspondiente a la expresión neutral y para la combinación
PCA+LBP+SVM un reconocimiento del 96,25% tanto para la expresión neutral y
24

alegre, en ambos casos utilizando un kernel RBF. Cabe anotar que este reconocimiento
de imágenes lo aplica desde el punto de vista de las emociones.

2.4.8 Reconocimiento facial mediante la clasificación de modelos vectoriales


para la autenticación de usuarios

Este trabajo de investigación según (Lin, Wang, & Tsai, 2016), desarrolló un sistema
de reconocimiento facial en línea mediante la formación de un clasificador SVM
basado en los rasgos faciales del usuario asociado a la transformada y un patrón binario
local espacialmente mejorado. Este sistema de validación cruzada y SVM asociado
utilizó la base de datos Olivetti Research Laboratory de rasgos faciales para la solución
de problemas de precisión de clasificación. Los resultados experimentales mostraron
que el error de clasificación disminuyó con un aumento en el tamaño de las muestras
de entrenamiento. De allí que la precisión global del reconocimiento de la cara es más
del 97%, para un tamaño de datos de 168 y 341 imágenes de baja y alta resolución
respectivamente. En cuanto a la transformada, se manifiesta que esta debe permitir
cambios sólo en la extensión de tiempo, pero no en la forma, sobre la base de funciones
de base adecuados. Los rasgos faciales más comunes aparecen como parte de la
información de baja resolución, mientras que la parte de alta resolución contiene la
mayor parte de los rasgos faciales, tales como las variaciones locales de la iluminación,
la expresión y el vestido. A la inversa, la transformación wavelet inversa combina las
dos partes de la imagen de la cara en la imagen original a través de un proceso de
reconstrucción de información.

Esta investigación utiliza 3 funciones kernels: El lineal, Polinomial y el RBF (Función


de base radial), de los cuales el que dio mejores resultados fue el Lineal, tanto en el
entrenamiento como en las pruebas. En comparación con los sistemas existentes, el
sistema tiene una serie de ventajas importantes, tales como:

1) Proporciona el beneficio de completa protección de la privacidad a través de


almacenamiento distribuido, en el que la tarjeta inteligente almacena imágenes de
diferentes expresiones faciales y una base de datos contiene registros de imágenes de
la cara.
25

2) El modelo utiliza varios diagramas analíticos de capas para la conversión de


ondas y un patrón dual de un espectro de un histograma espacialmente mejorado con
una función LBP, y mejora la precisión de reconocimiento facial.

2.4.9 Extracción de características basado en SVM para reconocimiento facial

Según los autores (Kim, Park, Toh, & Lee, 2010), el objetivo es encontrar un
subespacio eficaz para la discriminación de identidad que servirá para la extracción de
características del rostro. Este se ha extendido para hipersuperficie no lineal, sin
embargo, sigue habiendo limitaciones para el LDA no lineal para hacer frente a las
aplicaciones físicas en virtud de factores ambientales complejos. Las limitaciones
incluyen el uso de una función de coavarianza común entre cada clase, y la
dimensionalidad limitada inherente a la definición de la dispersión entre la clase. Dado
que estos problemas son inherentemente causados por la propia definición de criterio
de Fisher, que no pueden solventarse en el marco LDA (Zhao, Fu, Ji, Tang, & Zhou,
2011) convencional, utiliza el kernel no lineal, en este caso un polynomial.

Esta situación establece incorporar una dispersión basada en el margen entre la clase
y un proceso de regularización para resolver un problema, para esto rediseña una
matriz de dispersión entre la base de los márgenes de SVM para facilitar la extracción
de características de una manera eficaz y fiable. A continuación se realiza una
regularización de la matriz de dispersión dentro de la clase, en este proceso se realizan
algunos experimentos empíricos que se llevan a cabo para comparar el método
propuesto con varias otras variantes del método LDA (Zhao et al., 2011) mediante las
bases de datos FERET(P.J. Phillips, H. Moon, S. Rizvi, 2000), (Sadhya & Kumar,
2019), (Benini, Khan, Leonardi, Mauro, & Migliorati, 2019), AR(Robert, 2014) y
CMU-PIE(Sim, Baker, & Bsat, 2003). Con esta base de datos se realiza tres
experimentos respectivamente. Con FERET hay 1702 imágenes que corresponden a
256 personas, con AR hay 1680 imágenes que corresponden a 120 personas y
finalmente con CMU-PIE existen 1840 imágenes que corresponden a 68 personas.
Todas estas imágenes corresponden al tamaño 56 x 46 pixeles. El porcentaje de error
del Análisis discriminante basado en SVM resulta ser el mínimo en relación a las
técnicas KFD, el Análisis discriminante generalizado GDA, y el Análisis
discriminante directo KDDA. Los mejores resultados obtenidos fueron que con la base
26

de datos (FERET, ARE, CMU, PIES). El método SVM-DA obtuvo los errores más
mínimos como; 8,5%, 8,6% y 9,5% respectivamente.

2.4.10 Evaluation of facial recognition techniques using SVM, wavelets and PCA

Aquí se plantea una evaluación de la utilización de diferentes métodos para el


reconocimiento de rostros (Gumus, Kilic, Sertbas, & Ucan, 2010). Utiliza técnicas de
extracción de características como la descomposición wavelet y el método Eigenfaces
que está basado en el Análisis de Componentes Principales (PCA). Después de generar
vectores característicos, clasificadores de distancia, utiliza máquinas de vectores
soporte (SVMs) para la etapa de clasificación. Examina la exactitud de la clasificación
de acuerdo al aumento de la dimensión del conjunto de entrenamiento, así como utiliza
una función del núcleo elegido para el clasificador SVM. Como prueba utiliza la base
de datos de rostros ORL(ORL, 1994) que se conoce como una base de datos de cara
estándar para las aplicaciones de reconocimiento facial que incluyen 400 imágenes de
40 personas. Al final de la tarea global de separación, se obtuvo la precisión de la
clasificación del 98,1% con enfoque Wavelet-SVM para el entrenamiento de 240
imágenes, teniendo en cuenta medios ponderados de reconocimiento en el basado
Wavelet que dieron mejores resultados que el enfoque basado en PCA. Además, se
compararon las tasas de reconocimiento de acuerdo con el género y notando que los
individuos de sexo masculino tienen una mayor tasa de reconocimiento (89,38%) que
las mujeres (81,41%).

2.4.11 Diseño uniforme de lentes múltiples como herramienta de selección de


modelo SVM para reconocimiento facial

De acuerdo a los autores (W. Li, Liu, & Gong, 2011), plantean que la principal
dificultad de la selección del modelo de la máquina de vector de soporte (SVM) es un
coste computacional elevado. El autor propone primero un método de búsqueda de
diseño uniforme multiobjetivo (MOUD) como una herramienta de selección de
modelo SVM, y luego aplica este clasificador SVM optimizado para el reconocimiento
de rostros. Debido a que se reemplaza el criterio objetivo único por criterios
multiobjetivos y se adopta un diseño uniforme para buscar puntos experimentales que
27

se dispersan uniformemente en todo el dominio experimental, el MOUD puede reducir


el coste computacional y mejorar la capacidad de clasificación simultáneamente.

Los experimentos se ejecutan en el benchmark UCI, y utiliza las bases de datos de cara
de Yale (Deng, 2008) y CAS-PEAL-RI (Gao, W., Cao, B., Shan, S., Chen, X., Zhou,
D., Zhan, 2008). Los resultados experimentales muestran que el método propuesto
supera significativamente otros métodos de búsqueda de modelos, especialmente para
el reconocimiento facial. Además de las bases de datos utilizados, también se hizo uso
de la función del núcleo polinomial. De acuerdo a los resultados, con las dos bases de
datos utilizados, YALE con 165 imágenes y CAS-PEAL-RI con 100 imágenes,
muestran a MOUD como una herramienta de selección de modelo SVM que puede
efectivamente aliviar el coste computacional de la selección del modelo SVM, y al
mismo tiempo puede aumentar la capacidad del reconocimiento facial, en este caso se
alcanzó el major resultado de clasificación del 96,67%.

2.4.12 Método de selección de muestra de carcasa convexa de subclase principal


para SVM en reconocimiento facial

Según los autores (Zhou, Jiang, Tian, & Shi, 2010), el SVM tiene un defecto vital, es
que necesita un gran cálculo para tareas de aprendizaje a gran escala, para lo cual
propone una selección de muestras para superar este problema.

Con el fin de reducir las muestras de entrenamiento sin sacrificar la precisión del
reconocimiento, este trabajo presenta un nuevo método de selección de muestras
denominado Kernel Subclass Convex Hull (KSCH), que trata de seleccionar muestras
límite de cada casco convexo de clase. Este método de selección de la muestra es más
adecuado para el SVM no lineal, el mismo que trabaja con tres kernels: El lineal, el
Quad y el RBF, por lo que las muestras seleccionadas por este método pueden
representar eficientemente el conjunto de entrenamiento original y apoyar la
clasificación SVM. Para los resultados finales experimentales se utilizó las bases de
datos faciales MIT-CBCL (Weyrauch, Heisele, & Blanz, 2004) y el UMIST(Graham
& Mallinson, 1998) se verificó que el método de selección de muestras KSCH puede
seleccionar menos muestras de alta calidad para mantener la precisión de
reconocimiento de SVM. Finalmente, con ese método KSCH, se logra reducir el
28

tamaño de conjunto de entrenamiento en el menor tiempo de ejecución con una alta


precisión de clasificación. En este sentido se aplica el entrenamiento con 180 imágenes
para los tres kernels de un total de 1032 imágenes, con una prescisión de clasificación
del 100%.

2.4.13 Un nuevo modelo de clasificación SVM + NDA con una aplicación de


reconocimiento facial

En este trabajo de investigación (Khan, Ksantini, Ahmad, & Boufama, 2012), los
autores coinciden en que SVM es una metodología de clasificación potente. Este
trabajo introduce un nuevo modelo SVM + NDA (Análisis discriminatorio no
paramétrico) que puede ser visto como una extensión a la SVM mediante la
incorporación de alguna información parcialmente global, especialmente, la
información discriminatoria en la dirección normal a la decisión frontera. Esto también
puede considerarse como extensión de la NDA donde los vectores de soporte mejoran
la elección de k-vecinos más cercanos en el límite de decisión incorporando
información local.

La extensión SVM es considerada NDA, puede trabajar con datos heteroscedasticos y


no normales, también evita el problema del tamaño de la muestra, se puede reducir al
modelo SVM clásico, para que de esa manera utilice los softwares existentes. Se
plantea el uso de un modelo de kernel llamado KSVM + KNDA para conocer
problemas no lineales con la base de datos reales. En general se puede indicar que la
técnica SVM+NDA presenta mejores resultados que los demás en cuanto al grado de
precisión, sobrepasando el 98% en la base de datos. Es así que se trabajó con la base
de datos ORL (Yu & Yang, 2001), un total de 400 imágenes frontales de 40 personas,
variando en pose, iluminación, expresión y detalles específicos, además utiliza la base
de datos YALE de 165 imágenes, y la base de datos ESSEX con 153 personas que
contiene 20 imágenes por cada una y finalmente la base de datos JAFFE con 123
imágenes.
29

2.4.14 Un enfoque de reconocimiento facial en 3D eficiente basado en la fusión de


características novedosas locales de bajo nivel

Según Lei(Lei, Bennamoun, & El-Sallam, 2013), en su trabajo manifiesta que en las
últimas dos décadas, el reconocimiento de caras 2D ha sido un tema de gran interés en
la mayoría de las personas dedicadas a la investigación, sin embargo debido a la
presencia de varios factores como: pose, iluminación, edad, estado de ánimo, etc., han
sido factores dominantes que han obstaculizado la eficiencia de muchas aplicaciones
de reconocimiento en 2D. Para poder superar estas limitaciones y retrocesos
inherentes, muchos de los investigadores se han inclinado por el área del
reconocimiento facial en 3D, con el objetivo de tener el potencial adecuado para lograr
una mayor precisión de reconocimiento. Igualmente indica que los algoritmos de
reconocimiento facial 3D se pueden clasificarse en diferentes categorías, de acuerdo
con la modalidad utilizada, por ejemplo: Multimodal (RGBD) y Profundidad 3D (Lei
et al., 2013).

En este trabajo de investigación según los autores (Lei et al., 2013) señalan un enfoque
de reconocimiento facial en 3D basado en características geométricas de bajo nivel
que se recogen en diferentes regiones como; ojos, frente y nariz, como se ilustra en la
figura 2.2. Estas zonas son relativamente influenciadas en menor cantidad por las
deformaciones que son causadas por las expresiones faciales, estas características
extraídas revelan ser eficientes y robustas en presencia de las expresiones faciales. Un
descriptor de histograma basado en una región calculada a partir de estas
características se aplica para representar de manera única un rostro en 3D.
30

Figura 2.2 Región basada en representación facial 3D (Lei et al., 2013)

En este trabajo, el autor utiliza la Máquina de Vector de Soporte (SVM) entrenada


como un clasificador basado en los descriptores de histograma propuestos para
reconocer cualquier cara de prueba. El enfoque propuesto ha sido probado en bases de
datos FRGC v2.0 y BU-3DFE a través de una serie de experimentos y ha logrado un
alto rendimiento de reconocimiento, del cual se deduce que RBF- SVM que utiliza es
el que obtiene un rango más alto con el 94,5%.

2.4.15 Extracción de funciones 3D multiescala y combinación con una aplicación


de reconocimiento facial 3D

Los autores (Fadaifard, Wolberg, & Haralick, 2013) establece una representación
superficial multi escalar para las formas 3D que se basa en la teoría del espacio-escala.
La representación, Curvature Scale-Space 3D (CS3), es adecuada para medir la
similitud entre superficies (parciales) que tienen una posición, una orientación y una
escala desconocida. La representación CS3 se obtiene mediante la evolución de las
curvaturas superficiales de acuerdo con la ecuación de calor. Este proceso de evolución
produce una pila de curvaturas superficiales cada vez más suavizadas que son útiles
para la extracción de puntos clave y cálculos de descriptor. Demuestra que este
enfoque de cálculo de clave y descriptor supera a muchos de los principales métodos.
31

Las principales ventajas de esta representación es la eficiencia computacional,


menores requerimientos de memoria y facilidad de implementación.

2.4.16 Múltiples estrategias para mejorar el reconocimiento automático de


expresiones faciales en 3D

El presente trabajo (X. Li, Ruan, An, Jin, & Zhao, 2015), considera que la
investigación sobre el reconocimiento de la expresión facial 3D ha atraído un gran
número de interés debido a su superioridad a los trabajos en 2D y ha sido muy
promovido en los últimos años, su funcionamiento necesita mejorar y la estructura de
la base de datos debe ser anlaizada para que de esa manera mantenga su
automatización, debido a que la estructura de la malla de modelos de la cara 3D no se
puede aplicar directamente a las operaciones algebraicas. Plantea una estructura
similar a una imagen para representar los modelos, de manera que las operaciones
algebraicas se pueden aplicar directamente para analizar datos 3D. Basándose en esta
estructura de imagen, se debe emplear las estrategias de esquemas de división
irregulares y los bloques de entropía para mejorar la precisión de reconocimiento.

El autor propone tres estrategias para el reconocimiento facial, siendo las siguientes:

1. Una imagen como estructura para modelos de normalización de imágenes 3D


2. Esquemas irregulares de división para mantener la integridad de la estructura
local
3. Bloques de entropía para enfatizar la contribución de las diferentes regiones.

El primera instancia se utiliza para procesar y normalizar los modelos faciales en 3D,
de modo que los modelos se adapten a las características, mientras que en la segunda
y tercera, las estrategias pueden aplicarse por separado o conjuntamente para reforzar
las características de clasificación. Se considera que la extracción de características es
el paso clave para un sistema de reconocimiento, pero no se puede aplicarse
directamente a los modelos 3D ya que son ruidosos y complejos. Aunque algunos
investigadores consideran usar los puntos de referencia para representar datos faciales
en 3D para la extracción de características, dan ciertos problemas, es así que la
ubicación automática de referencia en el modelo 3D sigue siendo un problema abierto
32

que afecta en gran medida la calidad de las características (X. Li, Ruan, An, et al.,
2015).

En la primera estrategia se plantean algunas fases, como:

a) La fase de procesamiento, que a su vez contempla cuatro pasos que lo


resumimos como:

1. Extracción de la máscara –(1 / 2) ª y (1 / 2) ª de la parte central de los


modelos 3D y ajuste del punto con el valor de profundidad más alto como
la punta de la nariz;
2. Dejar que todos los puntos sustraigan los elementos de la punta de la nariz,
de modo que la punta de la nariz se mantenga como el origen de las
coordenadas;
3. Consultar la resolución del modelo triangular original y construir una
nueva coordenada para la estructura de la imagen cuya resolución estará
determinada por la resolución original del modelo triangular dividido por
un espacio uniforme;
4. Volver a muestrear los valores de profundidad en el modelo triangular para
analizar cada nodo en la estructura de la imagen usando el algoritmo Qhull.
Las mismas operaciones se realiza para la información del color.

b) Luego viene la fase de normalización, que considera que se debe normalizar


con todos los modelos en imagen como estructura (profundidad, color), del
mismo tamaño para que puedan analizarse en lotes. Sin embargo, el área de las
caras 3D normalizadas es siempre determinados por puntos de referencia que
son difíciles de detectar directamente modelos 3D, pero son manejados con
madurez utilizando imágenes 2D. Por lo tanto, esta normalización se logra
principalmente sobre la base del efecto interactivo entre el valor de
profundidad y la información de color, como se ilustra en la figura 2.3.
33

Figura 2.3 Face de Normalización (X. Li et al., 2015)

En la segunda estrategia sobre los esquemas irregulares de división para mantener la


integridad de la estructura local, se propone hacer divisiones en el rostro, como se
observa en la figura 2.4, donde se tiene la figura original (a), luego una división regular
(6 x 5) (b), otra división regular 8 x 8 (c), división irregular 6 x 5 (d), división irregular
8 x 5 (e), y finalmente, división irregular 8 x 7 (f)

Figura 2.4 Esquemas de división descritos en base a una imagen de textura neutral (X. Li et al.,
2015)
34

Como proceso final se plantea la tercera estrategia, que consiste en crear bloques de
entropía para enfatizar la contribución de las diferentes regiones, donde finalmente, se
extrae las características faciales locales de cada bloque, y posteriormente se
concatenan en un vector de características para representar la característica facial. Sin
embargo, las contribuciones de las diferentes regiones en las imágenes de la cara son
diferentes, como se ilustra en la figura 2.5.

Figura 2.5 Pesos de diferentes bloques de una imagen. El bloque más brillante tiene un mayor
peso; viceversa (X. Li et al., 2015)

Por ejemplo, el bloqueo de la nariz que es menos afectado por las expresiones faciales,
puede contribuir menos que la región de la boca. Por lo tanto, los diferentes bloques
deben ser dados pesos diferentes para enfatizar sus contribuciones antes de generar el
vector de características. Para resolver este problema, este trabajo propone la estrategia
de entropía ponderada. Como se ha analizado anteriormente, la contribución de cada
bloque debe agregarse antes de alcanzar el vector de rasgos faciales. La contribución
de una región se puede medir por la cantidad de información que contiene, que puede
calificarse por su entropía de acuerdo con la definición de la teoría de Shannon.

En este trabajo (X. Li, Ruan, An, et al., 2015) se concluye que la estrategia I es eficaz
para el reconocimiento de la expresión facial 3D. Todas las características extraídas
35

de los datos faciales normalizados (incluyendo los valores de profundidad, las


imágenes de textura y su fusión) proporcionan resultados sorprendentes, lo que implica
que los datos faciales 3D normalizados por la estrategia I se mantienen
discriminativos. Al momento de realizar el experimento para evaluar las estrategias
propuestas, se lo trabajó sobre la base de datos BU-3DFE. Esta base de datos estática
está especialmente diseñada para el análisis de expresión facial 3D y fue capturada de
100 sujetos: 56 mujeres y 44 hombres de diferentes ascendencias étnicas y edades.
Cada sujeto realizó seis expresiones faciales típicas, a saber, enojo, disgusto, felicidad,
miedo, tristeza y sorpresa en cuatro niveles, y una cara neutral se conserva, por lo que
hay totalmente 2500 modelos de cara en esta base de datos. Igualmente se toma como
clasificador la máquina vectorial de soporte (SVM), basada en la Minimización del
Riesgo Estructural (SRM). Además, se utiliza el núcleo función gaussiana.

2.4.17 Un método de reconocimiento facial 3D-2D basado en la onda extendida


de Gabor que combina la detección de bordes y curvaturas

De acuerdo al trabajo realizado por (Torkhani, G., et al), una principal limitación en
los sistemas de reconocimiento facial en 3D (FR) es su susceptibilidad a las
dificultades de escaneo y ambientes no controlados como pose, iluminación y variedad
de expresión. Este trabajo propone un nuevo marco de reconocimiento facial basado
en la deformación de malla (3D a 2D) y combinado de la curvatura de Gabor y mapas
de borde. Los vectores características extraídos se clasifican utilizando la excepcional
robustez de SVM (Torkhani et al., 2017). A pesar de las mejoras significativas en el
reconocimiento de rostros en 3D, aún no se ha logrado un cierto criterio de precisión
que satisfaga los propósitos industriales y comerciales (Torkhani et al., 2017).

Este trabajo, propuesto comienza por preprocesamiento de Imágenes 3D (reduce el


ruido, orificio de llenado, suavizado de malla), usando un bloque de operaciones de
mejora de malla. Luego aplica la conversión de espacio de 3D a 2D para reducir la
cantidad de vértices de malla. Esencialmente, esta reducción de datos permite
preservar solo los vértices y la alta prominencia de puntos. Después, se procede a
extraer las características usando mapas de curvatura y los mapas de los bordes
extendida de Gabor, para completar la extracción de características. Las características
36

(vectores) resultantes se clasifican utilizando SVM. El método propuesto se ilustra en


la figura 2.6

Figura 2.6 Diagrama de bloques de sistema 3D FR propuesto (Torkhani et al., 2017)

El autor recomienda trabajar con datos de malla, porque es adecuado para el modelado
de superficies 3D. Las imágenes pueden tener ruidos gaussianos sintéticos, artefactos
y agujeros. En la etapa de mejora de la malla, los ruidos y los artefactos agudos se
tratan usando el filtrado laplaciano. En el siguiente paso, agujeros y brechas que
ocurren durante el escaneo, el proceso se corrige usando el algoritmo de restauración.
Finalmente, se aplica una curva laplaciana más suave para homogeneizar la superficie
de la malla y restrinja los bordes filosos.

El objetivo propuesto por el modelo de malla deformada 3D es realizar conversión de


espacio 3D a 2D preservando y proyectando vértices con características de alta
saliencia. Una malla triangular 3D está formada por un conjunto triangular de facetas,
cada faceta es una superficie construida con tres vértices y conectado por tres bordes.
El ajuste de mínimos cuadrados es la técnica más eficiente y comúnmente utilizada en
el modelado de malla 3D que permite encontrar la mejor función de adaptación hasta
que se alcanza la convergencia. El último paso es lograr subdivisiones de malla para
mantener la estabilidad y el control de la superficie (Torkhani et al., 2017).
37

Respecto de la Curvatura de Gabor extendida y mapas de los bordes, este trabajo


aprovecha las ventajas del impacto sobresaliente de las ondas de Gabor en la
simulación de la forma de la cara, explotando propiedades visuales pertinentes,
localizando frecuencias de características especiales y el control de la selectividad de
orientación. En la teoría de la wavelet Gabor convencional, cada filtro es una onda
sinusoidal modulada por una envolvente gaussiana diseñada utilizando una orientación
y una escala espacial o una frecuencia. (Torkhani et al., 2017) El algoritmo planteado
se implementa en el entorno MATLAB R2016 utilizando un PC con una CPU de 2.7
Ghz y una memoria RAM de 8G. Algunas de las dificultades en el desempeño de
aplicaciones inteligentes en las imágenes de caras en 3D son la falta de disponibilidad
de Bases de datos 3D públicas. Los presentes experimentos se llevan a cabo en dos
diferentes bases de datos: CASIA (Academia China de Ciencias, Instituto of
Automation) (Casia, 2011) y GAVAB (Group of ArtificialVision, Biometría
Artificial)(Gavab, n.d.)

La base de datos CASIA (Casia, 2010) Contiene 123 sujetos escaneados utilizando
una cámara USB Logitech 3D bajo condiciones no controladas como oclusiones y
variedad de pose. Las imágenes son también efectivas en expresiones faciales como la
risa, la sonrisa, el disgusto, felicidad y tristeza La presencia de accesorios y oclusiones
lo hace un buen candidato para probar el rendimiento de este enfoque 3D FR.

La base de datos GAVAB(Gavab, n.d.), se emplea porque posee abundantes


expresiones acentuadas, varias iluminaciones para cada muestra de los 61 sujetos. Esta
diversidad facial impone flexibilidad y solidez al programa propuesto para manejar los
numerosos problemas de FR causados en cada caso. Este trabajo además indica que
los modelos 3D pueden presentar ruidos de escaneo como ruidos gaussianos, ruidos
gaussianos blancos, frecuencia picos e impulsos.

2.4.18 Un algoritmo P-KCCA eficiente para el reconocimiento facial 2D-3D


usando SVM

Este trabajo (Kamencay, Hudec, Benco, Sykora, & Radil, 2015), presenta sistema de
reconocimiento de rostros basado en una combinación de análisis de componentes
principales (PCA) y Kernel Canonical Correlation Analysis (P-KCCA) usando la
38

Máquina de Vector de Soporte (SVM). Primero, el método P-KCCA se utiliza para


detectar y extraer las características importantes de las imágenes de entrada. Este
método permite hacer coincidir la imagen de cara con datos 2D con los datos de cara
3D registrados. Las características resultantes se clasifican utilizando el método SVM.
El propuesto método fue probado en la bdd TEXAS con 200 sujetos. Los experimentos
en la bdd TEXAS indican resultados interesantes desde el punto de vista del éxito, la
velocidad y la robustez del reconocimiento del algoritmo de reconocimiento de rostros.
Comparamos el rendimiento de nuestro método de reconocimiento facial propuesto a
otros métodos comúnmente utilizados. Los resultados experimentales muestran que la
combinación del método P-KCCA el uso de SVM logra un mayor rendimiento en
comparación a los algoritmos PCA, CCA y KCCA solos.

El autor presenta su trabajo basado en este esquema general, como se ilustra en la


figura 2.7

Figura 2.7 Configuración del sistema de reconocimiento facial (Kamencay et al., 2015)
39

El método propone dos enfoques de reconocimiento facial, a saber, PCA con algoritmo
KCCA y SVM. PCA lo ocupa para disminuir la dimensión del espacio de la función
de la cara. Mientras que KCCA es utilizado para identificar y cuantificar la asociación
entre dos conjuntos de variables, es una variante no lineal de CCA. El SVM se utiliza
como clasificador para verificar la cara candidata. El objetivo del método propuesto
es reconocer un objeto 2D que contiene un rostro humano.

 Las técnicas simples que utiliza para el reproceso es eliminar el ruido y el


llenado de orificio.
 Se usó el filtro mediano para la eliminación de ruido y se aplicó interpolación
bidimensional para el llenado de orificios.

Los experimentos se han realizado en la base de datos TEXAS, que se desarrolló en el


Laboratorio para Ingeniería de Imagen y Video de la Universidad de Texas en Austin.
La base de datos de cara de TEXAS contiene pares de imágenes faciales en 2D y datos
faciales en 3D de 200 caras. Las imágenes son de tamaño 751x 501 píxeles. Cada valor
en z-dimensión se representa en formato de 8 bits con el valor más alto de 255 asignado
a la punta de la nariz y un valor de 0 asignado al fondo. (Kamencay et al., 2015). El
conjunto de entrenamiento contiene pares 3D de 50 sujetos, mientras que la fase de
prueba, contiene 200 imágenes de rostro elegidas al azar de la base de datos de caras
TEXAS3DFRD con variaciones en expresiones faciales. Después de calcular las caras
propias usando PCA, los vectores de proyección se calculan para el conjunto de
entrenamiento y luego se almacenan con la función KCCA en la base de datos. El
vector de característica se asigna a la imagen usando KCCA, esta arquitectura se llama
P-KCCA. La Clasificación se realiza comparando los vectores de proyección de las
imágenes de la cara de entrenamiento con el vector de proyección de la imagen de la
cara de entrada. Esta comparación se basa en el SVM. La fase de entrenamiento y la
fase de prueba del método propuesto se muestran en la figura 2.8
40

Figura 2.8 Algoritmo P-KCCA de diagrama de bloque propuesto (Kamencay et al., 2015)

El esquema principal de este experimento se ilustra en la figura 2.9.

Figura 2.9 Algoritmo P-KCCA usando SVM (Kamencay et al., 2015)


41

El mejor resultado de reconocimiento facial se obtuvo con este algoritmo P-KCCA,


alcanzando un máximo del 93% con 50 sujetos y un mínimo de 88% con 200 sujetos.
En general se observa una mayor precisión en todos algoritmos cuando el número de
sujetos es menor.

2.4.19 Reconocimiento de expresiones faciales 3D estáticas y dinámicas: una


investigación exhaustiva

En este trabajo realizado por Sandbach, et al. (Sandbach, Zafeiriou, Pantic, & Yin,
2012), se examina los avances recientes en reconocimiento de expresiones faciales 3D
y 4D. Se habla sobre desarrollos en adquisición y seguimiento de datos faciales en 3D,
y presenta bases de datos 3D / 4D disponibles actualmente para el análisis de
expresiones faciales 3D. La técnica de adquisición utilizada para capturar datos 3D es
especialmente importante al recopilar expresiones faciales, ya que el equipo ha
utilizarse puede afectar el nivel de imposición sobre el sujeto (Sandbach et al., 2012),
cambiando así su comportamiento significativamente. Existe una variedad de
dispositivos y técnicas que han sido empleado previamente para adquisición de datos
de expresión facial en 3D, incluyendo el uso de la reconstrucción de una sola imagen,
las tecnologías de luz estructurada y dos métodos diferentes para algoritmos de
reconstrucción estéreo: fotométrico estéreo y multivista estéreo.

Ante la gran dificultad de la presencia mínima de bases de datos de caras en 3D, este
trabajo (Sandbach et al., 2012), presenta un resumen de algunas de ellas, las mismas
que podrán ser de gran utilidad para investigaciones futuras sobre reconocimiento
facial en 3D, como se ilustra en la tabla 2.4.

Tabla 2.4 Bases de datos de rostros en 3D (Sandbach et al., 2012)


Nombre bdd Tamaño Contenido
Chang et al. (Y. Chang, M. Vieira, M. 6 adultos 6 expresiones básicas
Turk, 2005)
BU-3DFE (L. Yin, X. Wei, Y. Sun, J. 100 adultos 6 expresiones básicas en 4
Wang, 2006) niveles de intensidad
BU-4DFE (L. Yin, X. Chen, Y. Sun, 101 adultos 6 expresiones básicas
T. Worm, 2008)
42

Bosphorus (A. Savran, N. Alyuz, H. 105 adultos 24 Aus, neutral, 6 expres.


Dibeklioglu, O. Celiktutan, B. inc. 27 Básicas, oclusiones
Gokberk, B. Sankur, 2008) actores
ICT-3DFRE (G. Stratou, A. Ghosh, 23 adultos 15 expresiones: 6 básicas, 2
P. Debevec, 2011) neutrales, 2 cejas, 1 cara
arrugada, 4 miradas
Tsalakanidou et al. (F. Tsalakanidou, 52 adultos 11 Aus a 6 expresiones
2010) básicas
Benedikt et al. (L. Benedikt, D. 94 adultos Sonrisas y expresión verbal
Cosker, P. Rosin, 2010)
D3DFACS (D. Cosker, E. 10 adultos Hasta 38 AU por sujeto
Krumhuber, 2011) inc. 4 FACS
expertos
Blanz Vetter (V. Blanz, 1999), (“3D 200 adultos Rostros neutrales
morphable models UR,” 2011)
ND-2006 (T. Faltemier, K. Bowyer, 888 adultos Neutral y 5 exps: H, D, Sa,
2008) Su, al azar
CASIA (Casia, 2011) 123 adultos Neutral y 5 exps: sonríe, ríe,
A, Su, ojos cerrados
Gavbd (A. Moreno, 2004) 61 adultos 3 expresiones: abierto /
cerrado, sonriente y al azar
York 3D (Y. Bdd, 2011) 350 adultos Neutral y 4 exps: H, A, ojos
cerrados, cejas levantadas
Texas (T. Bdd, 2010) 105 adultos Neutral y sonriente, o
hablando con los ojos
abiertos / cerrados

2.4.20 Reconocimiento facial 3D-2D con normalización de pose e iluminación

De acuerdo a (Kakadiaris et al., 2017) se propone un marco 3D-2D para el


reconocimiento facial que es más práctico que 3D-3D, más preciso que 2D-2D. Para
el reconocimiento de caras 3D-2D, los datos se componen de datos de forma 3D y
textura 2D y las sondas son imágenes bidimensionales arbitrarias. Se presenta un
sistema 3D-2D (UR2D) que se basa en un modelo de cara deformable en 3D que
permite el registro de datos en 3D y 2D, la alineación de la cara, la normalización de
la postura y la iluminación. Durante la inscripción, los modelos 3D específicos del
tema se construyen usando datos 3D + 2D. Para el reconocimiento, las imágenes 2D
se representan en un espacio de imagen normalizado utilizando los modelos 3D de
galería y la estimación de proyección 3D-2D basada en hitos. Los autores (Kakadiaris
et al., 2017), trabajan en la base de datos UHDB11 3D-2D con imágenes 2D bajo gran
43

iluminación y variaciones de postura y la bases de datos FRGC v2.0 3D-2D con


imágenes faciales frontales.

El trabajo realizado propone (Kakadiaris et al., 2017) conjuntamente con las bases de
datos mencionadas, un sistema de reconocimiento de rostros asociado (UR2D), basado
en la ecualización de las condiciones de postura e iluminación entre un par de galería
sonda a igualar. Para ello, se adapta un modelo de cara deformable a los datos
tridimensionales para registrar las texturas faciales de galería y sonda, obtenidas con
el mismo modelo, en un sistema de coordenadas bidimensional común. El proceso
proporciona una representación de rostros basada en la apariencia en el espacio de la
imagen geométrica y una alineación de las áreas faciales visibles bajo una pose
estimada.

Las condiciones de luz de la sonda se transfieren localmente a la textura de la galería


a través de un esquema de reactivación bidireccional basado en un modelo explícito
de reflectancia de la piel. Las evaluaciones cuantitativas en una base de datos diseñada
para pruebas de reconocimiento facial 3D-2D, bajo grandes variaciones en las
condiciones de postura e iluminación, demostraron que el rendimiento de
reconocimiento facial 3D-2D supera al 2D-2D, y puede aproximarse a 3D-3D. El
marco propuesto puede ser potencialmente adaptado para el reconocimiento facial 2D
asistido por 3D en bases de datos desafiantes de imágenes faciales (por ejemplo,
mediante el uso de un conjunto externo de modelos 3D ajustados), finalmente este
trabajo presenta una comparación de reconocimiento facial a través de varios tipos y
métodos, de los cuales se observa que el tipo 3D-2D es el que mejor resultado se
obtiene con un porcentaje del 90.8% de acierto, como se ilustra en la tabla 2.5
(Kakadiaris et al., 2017).
44

Tabla 2.5 Reconocimiento facial en UHDB11 utilizando sistemas 3D-3D, 2D-2D y 3D-2D (Kakadiaris
et al., 2017)

2.5 Técnicas tratadas en el reconocimiento facial en dos dimensiones (2D) y en


tres dimensiones (3D)

Dentro de las técnicas que contribuyen al proceso de reconocimiento, podemos citar


varias, tales como:

• Análisis Principales Componentes (PCA) (Moreno & Sanchez, 2005), (Stan,


L., & Jain, 2011), (Samaria, F., & Harter, 1994)
• K vecinos más cercanos (K_NN) (Manso, 2017)
• Redes neuronales artificiales (RNA) (Nacelle, 2009), (Laura et al., 2015)
• Máquinas de vectores soporte (SVM)(Vapnik, 1998), (Cabello Pardos, 2003),
(Betancour, 2005), (G. Pajares, 2008), (Romero, 2011), (Zhan & Shen, 2005),
(Montoya, 2015), (Acosta, Pablo, & Gonz, 2014), (Blanco Oliver, Pino Mejías,
& Lara Rubio, 2014).
• Análisis Discriminante Lineal (LDA) (Devi et al., 2015)
• Análisis de componentes independientes (ICA) (Bartlett, 1999)

A continuación, una breve descripción de estas técnicas aplicables en un proceso de


reconocimiento facial 2D y 3D.

2.5.1 Análisis de Componentes Principales (PCA)

Esta técnica, también es conocida como método de eigenfaces. El análisis de


componentes principales (PCA) según (Moreno & Sanchez, 2005), se utilizó para
45

monitorear imágenes de rostros, como base de una técnica de reconocimiento de


rostros. De esta modalidad se derivan otras como el método Fisherfaces (Análisis
Discriminante Lineal de Fisher). Ambas técnicas: eigenfaces y fisherfaces se han
experimentado en bases de datos de un gran número de imágenes proporcionando
resultados óptimos cuando las imágenes han sido captadas bajo condiciones de
adquisición uniformes. Según Stan y Jain (Stan, L., & Jain, 2011), este modelo de
Análisis de Componentes Principales (PCA) es una técnica que consite en reducir la
dimensionalidad basado en la separación del número deseado de componentes
principales de los datos multidimensionales.

El estudio de los principales componentes fue inicialmente visto en el campo de la


estadística y su desarrollo más tarde fue insertado en el campo de redes neuronales. El
modelo está vinculado con la Transformada de Karhunen-Loéve (KLT). Esta técnica
asume que un conjunto dado de N imágenes de muestra {x 1, x2,…,xN}ЄRn. Cada
imagen pertenece a una de las m clases {C1, C2,…,Cm}. Se define la matriz de
dispersión total ST como.

𝑆𝑇 = ∑𝑁
𝑘=1(𝑥𝑘 − 𝜇 )(𝑥𝑘 − 𝜇 )
𝑇
(1)

Donde μ es la media de los datos. El Análisis de Componentes Principales determina


la proyección ortogonal φ como.

𝑦𝑘 = 𝜑 𝑇 𝑥𝑘 𝑑𝑜𝑛𝑑𝑒 𝑘 = 1, … , 𝑁 (2)

Esto maximiza el determinante del total de la matriz de dispersión de la muestra


proyectada y1,...,yN:

𝜑𝑜𝑝𝑡 = arg max|𝜑 𝑇 𝑆𝑇 𝜑| (3)


𝜑

Las propiedades principales del PCA son resumidas por las siguientes ecuaciones:

𝑥 ≈ 𝜑𝑘 𝑦 (4)

𝜑𝑘𝑇 𝜑𝑘 = 𝐼 (5)

𝐸{𝑦𝑖 𝑦𝑗 }𝑖≠𝑗 = 0 (6)


46

Reconstrucción aproximada, orto normalidad de la base φ k, y principales componentes


correlacionados 𝑦𝑖 = 𝜑𝑘𝑇 𝑥 respectivamente (Samaria & Harter, 1994).

2.5.2 K vecinos más cercanos (K-nn)

De acuerdo a Manso (Manso, 2017), K-NN es un método sencillo y eficaz, que


presenta sensibilidad a la presencia de atributos irrelevantes. Por ello, resulta muy
importante para evaluar subconjuntos de atributos calculados con las técnicas de
selección presentadas.

2.5.3 Redes neuronales artificiales (RNA)

De acuerdo a (Nacelle, 2009), una red neuronal artificial (RNA) es un esquema de


sistemas informaticos distribuida inspirada en la estructura del sistema funcional de
los seres vivientes. La arquitectura de este tipo de red neuronal se forma conectando
varios procesadores elementales, siendo éste un sistema adaptivo que posee un
algoritmo para ajustar sus pesos (parámetros libres) para alcanzar los requerimientos
de desempeño del problema basado en muestras representativas. Es fundamental
determinar que la propiedad de más importancia de las redes neuronales artificiales es
su capacidad de conocer partiendo de un sinfin de patrones de entrenamientos, en ese
sentido, es idoneo de localizar un patrón que sea ajustable a los datos.

En el proceso de formacion denominado entrenamiento de una red puede ser observado


o no observado. La observacion consiste en ejercitar la red a partir de una agrupacion
de datos o patrones entrada y salida. La finalidad del algoritmo de instruccion es ajustar
los pesos de la red para que la salida producida por la red neuronal para una entrada
determinada sea lo más cercana posible a la salida real. Es decir, la red neuronal intenta
encontrar un modelo para el proceso desconocido que generó la salida. Opuestamente,
el no observado presenta sólo un conjunto de patrones de entrada a la red neuronal, y
la finalidad de este algoritmo de aprendizaje es ajustar los pesos de la red de manera
que la red encuentre alguna estructura o configuración presente en los datos. Según
(Laura et al., 2015), considera que las redes neuronales son muy importantes, por su
capacidad para generalizar la información y por su tolerancia al ruido. Una de las áreas
informáticas que más las utiliza es la de reconocimiento de patrones, especialmente en
Minería de Datos y Procesamiento de Señales Temporales.
47

Por último los autores (Kasar, Bhattacharyya, & Kim, 2016), señalan que una red
neuronal es una herramienta de clasificación muy potente y robusta que se puede
utilizar para pronosticar los datos renombrados y los desconocidos. Una red neuronal
es utilizable en muchas áreas, como la interpretación de escenas visuales,
reconocimiento de voz, reconocimiento facial, reconocimiento de huellas digitales,
reconocimiento de iris, etc. Una red neuronal está compuesta por una red de neuronas
artificiales también conocidas como nodos, los mismos que están conectados entre sí,
se le asigna un valor basado en su fuerza: inhibición (el máximo es -1.0) o excitación
(el máximo es +1.0). Si el valor de la conexión es elevado, la conexión es fuerte, de la
misma manera en el interior de cada nodo se incorpora una función de transferencia.
Existen tres tipos de neuronas en una red neuronal artificial que son; nodos de entrada,
nodos ocultos y los nodos de salida como se muestra en la figura 2.10.

Figura 2. 10 Red neuronal artificial (ANN)

Este trabajo de investigación (Kasar et al., 2016), realiza una comparación entre
algunas técnicas de redes neuronales para reconocimiento facial, de los mismos
establece que la fusión entre la Red de propagación hacia atrás y Función de base radial
(BNP y RBF) logra alcanzar un 97,56% de efectividad en reconocimiento facial.

2.5.4 Máquina de vectores soporte (SVM)

Según Cabello(Cabello Pardos, 2003) las SVM son técnicas consideradas como
clasificadores, además se considera un algoritmo que define un modelo para cada
clase, de manera que esta clase a la que pertenence cada elemento se calcule con los
48

valores de los datos del elemento, según (Betancour, 2005) considera que la teoria de
las Support Vector Machines corresponde a una técnica eficiente. La diferenciación
más importante de las máquinas de vectores de soporte frente a otros algoritmos de
instruccion es la aplicación de un nuevo principio inductivo, que busca minimizar el
riesgo estructural, además del uso de un kernel o función del kernel, lo que le confiere
una gran capacidad de generalización, incluso cuando el conjunto de entrenamiento es
pequeño.

Realizando un poco de historia, la teoría del SVM fue desarrollada por Vladimir
Vapnik(Vapnik, 1998) por los años 90, aparece en trabajos sobre la teoría del
aprendizaje estadístico. El SVM es una técnica considerada como un clasificador,
aunque también se la utiliza en el campo de la regresión, agrupamiento,
multiclasificación, de allí que ha estado inmerso en algunos campos como la visión
artificial, reconocimiento de caracteres, medicina. El SVM se considera un algoritmo
que permite definir un modelo para cada clase y se calcule a partir de los valorees de
los datos que definen el elemento, como se muestra en la figura 2.11.

Figura 2.11 Esquema general del SVM

Las SVM son consideradas como máquinas de soporte vectorial, y en terminología


inglesa se la considera como “support vector machines”, se la considera también como
un clasificador de patrones. Al inicio se la utilizó para una clasificación biclase, que
permitía proyectar datos en espacios de mayor dimensión que los originales para
conseguir una mayor separabilidad (G. Pajares, 2008).

Esta técnica contempla 2 fases: Una primera de entrenamiento y otra de decisión. En


esta primera fase, el principal objetivo es hallar una función de decisión apta de dividir
las dos clases. En el caso de que las clases no sean divididas con facilidad, entonces
los vectores de aprendizaje se proyectan hacia un espacio de mayor dimensión
mediante funciones de transformación no lineal, que puede ser una función kernel, la
49

misma que permite adaptar la distribución de patrones para poder separar los mismos
sin ninguna dificultad. En esta fase, se ingresa cualquier conjunto X con n muestras, y
en la salida habrá un conjunto Y compuesto por los elementos 1 y -1. En conclusión,
el conjunto de entrenamiento estará compuesto por pares (X, Y), donde i = 1,2,3,4,….,
n, donde:

R
X i  Yi  1,  1 

La función de decisión se define como:

n
f ( x )   a i y i H ( xi , x )  b (7)
i 1

Esta función representa una combinación lineal de núcleos centrados en cada punto.

a i : representa un parámetro donde i = 1, 2, …., n.

Los patrones x i relacionadas con a i diferentes de cero se denominan vectores soporte,


gráficamente estos vectores soporte son aquellos que se encuentran más próximo al
hiperplano encontrado.

Tenemos diferentes tipos de núcleos o funciones kernel, siendo las siguientes:

 Lineal:

H ( x, y)  x ' y (8)
 Función de base tradial
o Gausiana:

  x y
2 

 
 2
2
 
H ( x, y )  e 
(9)
e = 2,7182…..
o Exponencial:
  x  y 
 
 2 2 
H ( x, y )  e (10)
e = 2,7182…..
50

 Polinomios:

H ( x, y)  (1  ( x, y)) d (11)
 Función sigmoide:
H ( x, y)  tanh (  ( x, y)   ) (12)
Donde (x, y) se refiere al producto interno con  y  parámetros de ajuste.

La técnica SVM se la ilustra en la figura 2.12, de la siguiente manera:

Figura 2.12 Esquema gráfico de una máquina de vectores de soporte

La segunda fase, que es la decisión consiste en ingresar ahora los nuevos x, y se espera
que la técnica determine la clase a la que corresponde conforme al signo de polaridad
(+, -) de f (x), una vez que se pasó la primera fase. Se considera a los vectores soporte
a aquellos datos más representativos de todos los utilizados hasta el punto en que al
utilizar los vectores soporte se llegaría a una misma solución que cuando se utilizarían
el resto de patrones, es decir que los vectores de soporte contienen el mayor grado de
información y no se necesitaría del resto de patrones, en tal sentido se ahorraría espacio
en el almacenamiento de los resultados del aprendizaje obtenidos. La distancia mínima
51

desde el hiperplano que separa las clases al patrón más cercano se denomina margen
 . Un hiperplano resulta inmejorable si es el máximo margen.

La distancia que existe entre el hiperplano y un patrón z esta dada por:

f ( x)
d  yk (13)
w

A su vez:

n
w   ai y i xi (14)
i 1

Esta expresión es equivalente a a y x i i


vectores soporte
i

A la hora de calcular la función de decisión, la constante b se obtiene en base a:

ai yi w.xi   b  1  0 (15)

Tomando en cuenta esta distancia  , todas las muestras de entrenamiento cumplirán la


siguiente desigualdad:

y k f ( xk )
 (16)
w

k  1,2,3,......., n
y   1,  1

El problema de encontrar el hiperplano óptimo se reduce a encontrar el valor de w que


maximice el margen  . Se da la posibilidad que exista un número alto de soluciones
que difieren solo en el escalado de w. Para disminuir este número se fija la escala de
acuerdo a la siguiente igualdad:

 w 1 (17)
52

Es decir maximizar el margen  es lo mismo que minimizar la norma w.

En el espacio que separa dos clases podemos tener varios hiperplanos, pero existe un
hiperplano óptimo, como se indican en las figuras: 2.13 y 2.14

Figura 2. 13 Un esquema de dos clases con varios hiperplanos

Figura 2. 14 Un esquema de dos clases con un hiperplano óptimo


53

Es decir, un hiperplano separador se dirá óptimo si y solo si equidista del ejemplo


más cercano de cada clase (Leon, 2016). Figura 2.14

A continuación tenemos dos clases de ejemplos separables:

a) Separable linealmente

Figura 2. 15 Un esquema de un caso separable linealmente

b) No separable linealmente

En el gráfico 2.16 se indica un ejemplo, el cual no se puede separar por medio de una
función lineal, es decir a través de un hiperplano separador, entonces se debe recurrir
a una técnica consistente en la transformación del espacio original mediante una
función no lineal hacia un espacio Hilbert dotado de un producto escalar denominado
función kernel ó SVM kernelizada, como se indica en la figura 2.17 (Leon, 2016)
54

Figura 2. 16 Un esquema de un caso no separable linealmente

Figura 2. 17 Esquema de un ejemplo transformado a un caso separable linealmente

A pesar que el SVM originalmente fue pensado para resolver problemas de


clasificación binaria, en la actualidad se utilizan para resolver otros tipos de problemas
como: regresión, agrupamiento, multiclasificación, igualmente son muy utilizadas en:
visión artificial, reconocimiento de caracteres, categorización de texto, clasificación
de proteínas, procesamiento de lenguaje natural, análisis de series temporales, etc.
(Carmona, 2016)

Software para SVM

La mayor parte del software existente está escrito en C o C++, como la biblioteca
libsvm, ganadora del premio, que proporciona una robusta y rápida implementación
55

de SVM y produce resultados muy competentes en la mayoría de problemas de


regresión y clasificación. También destacan SVMlight, SVMTorch, Royal Holloway
Support Vector Machines, mySVM y M-SVM. Otras bibliotecas proveen de interfaces
para MATLAB como The MathWorks, SVM and Kernel Methods Matlab Toolbox o
MATLAB Support Vector Machine Toolbox y la SVM toolbox for Matlab (Leon,
2016)

La fortaleza de un SVM considera las siguientes:

 El entrenamiento es relativamente fácil


 No hay óptimo local, como en las redes neuronales.
 Se escalan relativamente bien para datos en espacios dimensionales altos.
 El compromiso entre la complejidad del clasificador y el error puede ser
controlado explícitamente.
 Datos no tradicionales como cadenas de caracteres y árboles pueden ser usados
como entrada a la SVM, en vez de vectores de características.

La máquina de vectores de soporte tienen algunas particularidades que las han puesto
en superioridad encima de otras técnicas populares de clasificación y / o regresión.
Alguna de estas características que se destacan es que son pertenecientes a las
disciplinas del aprendizaje automático o aprendizaje estadístico. La estrategia sobre
este modelo de aprendizaje nos permite que las máquinas aprendan con los ejemplos;
las salidas correctas para algunas entradas. La diferencia más notable de las máquinas
de vectores de soporte frente a otros algoritmos de aprendizaje es la aplicación de un
nuevo principio inductivo, que busca minimizar el riesgo estructural.

Decimos que el proceso de aprendizaje automático no es dependiente necesariamente


de la cantidad de atributos, lo que permite un comportamiento excelente en problemas
de alta dimensionalidad. Uno de los problemas más comunes es lo que se conoce como
“sobreentrenamiento”, que ocurre cuando los datos de entrenamiento se han aprendido
muy bien, pero ejemplos nunca antes vistos (datos de verificación) no se puede
clasificar bien, es decir, una mala generalización del modelo. Otro problema que puede
surgir cuando la característica de los datos de entrenamiento no se ha aprendido muy
bien, por lo que se realiza una clasificación errónea. El experimentador debe tener en
56

cuenta estas atenciones al ajustar el modelo porque la precisión y el éxito de la


predicción dependen de ellas.

La SVM fue ideada originalmente para la resolver los problemas de clasificación


binarios en los que las clases eran linealmente separables. Por esta razón se conocía
también como hiperplano óptimo de decisión en justificación a la solución entregada
como aquella en la que se clasifican precisamente toda la disponibilidad de muestras,
ubicando el hiperplano de separación lo más alejado posible de todas las demas. Las
muestras más contiguas al hiperplano de optimización en disgregar son reconocidas
como muestras críticas o vectores soporte, que es lo que da nombre a la SVM.

Esta métodologia se encuentra propiamente relacionada con dificultades


de clasificación y regresión. Es así que un conjunto de ejemplos de entrenamiento (de
muestras) podemos etiquetar las formas y entrenar una SVM para edificar un modelo
que prediga la clase de otra muestra. Instintivamente, una SVM es un modelo que
simboliza a los puntos de muestra en el espacio, desglosando las clases por un espacio
lo más grande en su posibilidad. Cuando las nuevas muestras se ponen en relación con
dicho modelo, en función de su acercamiento pueden ser clasificadas a una u otra clase.
Más formalmente, una SVM construye un hiperplano o conjunto de hiperplanos en un
espacio de dimensionalidad muy alta (o incluso infinita) que podria ser usada en
problemas de clasificación o regresión. Una buena separación entre las clases permitirá
una eficaz clasificación.

Según Romero (Romero, 2011), de acuerdo a los resultados obtenidos en su


investigación aplicada a la medicina, tuvo que emplear la técnica de clasificación de
imágenes basados en algunos clasificadores como SVM, KNN, funciones lineales
discriminantes, árboles de decisión o redes neuronales, alcanzando el mejor resultado
con SVM, con una precisión del 90,3%, trabajó con un clasificador SVM con un
núcleo basado en función de base radial (RDF).

La máquina de vectores soporte tiene abundantes aplicaciones, como el


reconocimiento de escritura, identificación de un interlocutor, categorización de
textos, en ese sentido. Otra de las aplicaciones fundamentales de la SVM, que es en la
que se concentra el presente análisis, está en el campo de la visión computarizada, más
57

en concreto en los sistemas de detección de rostros. Así como también el SVM ha sido
también aplicada en la medicina de acuerdo a un artículo publicado por Zhan & Shen
(Zhan & Shen, 2005), sobre tejidos de próstata, igualmente Montoya & otros
(Montoya, 2015) aplican el MVS en la identificación de patrones sísmicos en ficheros
2D mediante máquinas de soporte vectorial, de igual forma hay un trabajo de Acosta
& otros (Acosta et al., 2014) sobre diagnóstico y detección de fallas para la dinámica
lateral de un vehículo utilizando Máquinas de Soporte Vectorial Multiclase. Así mismo
tenemos un trabajo de Oliver & otros (Blanco Oliver et al., 2014) sobre un caso de
estudio de un Modelado de auxilio financiero con el apoyo de Máquina de Vectores.

2.5.5 Análisis discriminante lineal (LDA)

De acuerdo a (Devi et al., 2015), el LDA es uno de los métodos para la reducción de
dimensiones y una técnica de clasificación al maximizar la relación entre la varianza
de clase y la varianza dentro de la clase en cualquier conjunto de datos en particular.
El LDA fue desarrollado por R.A. Fisher en 1936, también conocido como
“Discriminante lineal de Fisher”. También se la conoce como una técnica supervisada
utilizada para clasificación de patrones en términos de reducción de dimensionalidad.

2.5.6 Análisis de componentes independientes (ICA)

De acuerdo a Alvarez & Giraldo (Alvarez & Giraldo, 2008), ICA es comprendido para
el problema de separación ciega de fuentes (proceso que se fundamenta en la
estadística independiente de las señales, que son generadas en procesos autosuficientes
y consiste en la recuperación de las señales originarias a partir de las combinaciones
observadas). Asimismo recibió gran atención en las redes neuronales y procesamiento
de señales, en causa de la potencial de sus aplicaciones en estas áreas. También la
forma se ha extendido a su aplicación en el área de procesamiento de imágenes
observando el hecho de que ésta técnica pudiera aplicarse en algún dominio donde un
arreglo de N entradas forma una mezcla lineal de un conjunto incognito de fuentes
estadísticamente independientes. ICA puede ser usada en aplicaciones reales en
imágenes, los aplicativos con frecuencia prefieren utilizar ICA sobre PCA debido a
que ICA es capaz de producir bases no ortonormales y no esta restringido a mediciones
de covarianza como PCA. Sin embargo, plantean utilizar PCA para estimar una matriz
58

de cruces que pueda ser utilizada como inicialización para ICA. Asimismo con ICA se
encuentran una representación fuerte de la imagen en la cual tanto las estadísticas de
segundo como las de más alto orden se encuentran decorrelacionadas.

El análisis de componentes independientes (ICA) es una generalización de PCA que


codifica las dependencias de orden superior en la entrada además de las correlaciones.
Las representaciones para el reconocimiento facial se desarrollaron a partir de los
componentes independientes de las imágenes faciales. Las representaciones de ICA
fueron superiores a PCA por reconocer rostros en las sesiones y cambios en la
expresión. (Bartlett, 1999)

2.6 Bases de datos de caras

En esta subsección se presentan algunas bases de datos importantes en 2D y 3D


2.6.1 Bases de datos de caras 2D

En la actualidad tenemos diferentes tipos de bases de datos con imágenes faciales. Se


puede anotar que se diferencian por la forma en la que fueron adquiridos las imágenes,
mediante qué tipo de dispositivos, así como el procesado al cual fueron sometidas
quizá en algún laboratorio especializado. De allí que las características más
importantes de una imagen podría ser su tamaño, formato, dimensión (2D, 3D), etc. A
continuación, se describen algunas bases de datos muy utilizadas dentro del
reconocimiento facial:

2.6.1.1 Base de datos de rostros Yale

La base de datos de rostros Yale fue construída en 1997, la cual está conformada por
165 imágenes en escala de grises de 15 individuos (11 imágenes por individuo), ésta
contempla diversas expresiones de rostro, iluminación y uso de anteojos. En la figura
2.18, se indica la sesión de imágenes completa para un individuo de estudio de la base
de datos Yale (Shao, Chen, Wang, Li, & Deng, 2014).
59

Figura 2. 18 Ejemplo de sesión completa para una persona de la base de datos de Yale (Shao et al.,
2014).

2.6.1.2 Base de datos Yale extendida B

En el 2001, Georhiades, Belhumeur y Kriegman lograron ampliar el trabajo previo de


la base de datos Yale. La base de datos de rostros Yale Extendida B, contiene 16.128
imágenes de 640 X 480 en escala de grises de 28 individuos bajo 9 poses y 64
condiciones de luminosidad (Chan & Tahir, 2013). En ese sentido, se incorporó en la
base de datos un conjunto de imágenes recortadas con rostros de personas como se
muestra en la figura 2.19

Figura 2.19 Ejemplo de una base de datos ampliada de rostros de Yale B. (Chan & Tahir, 2013)

2.6.1.3 Base de datos CAS-PEAL

En el año 2004, (Gao, Y., Ma, J., Zhao, M., 2017) fue construída esta base de datos de
rostros que contiene 99.594 imágenes de 1040 individuos, de los cuales 595 son de
sexo masculino y 445 son de sexo femenino, en donde se cogieron las imágenes con
60

diversas posturas, expresiones de rostro, iluminación y accesorios. Se instalaron nueve


cámaras en semicírculo, con el fin de capturar simultáneamente en diversas posturas a
cada individuo. Se tomaron 18 imágenes con el rostro hacia arriba y hacia abajo,
también de consideraron 5 diferentes expresiones faciales, 6 accesorios (3 lentes y 3
gorras) y 15 orientaciones de iluminación. En la figura 2.20, se indican parte de la base
de datos CAS-PEAL.

Figura 2.20 Ejemplo de imágenes tomadas en la base de datos de rostros CAS-PEAL.(Gao, Y., Ma, J.,
Zhao, M., 2017)

2.6.1.4 Base de datos FERET

Entre los años 1993 y 1996, (P.J. Phillips, H. Moon, S. Rizvi, 2000), fue cosntruída la
base de datos FERET (Face Recognition Technology), la cual radica en 1196 personas
y cuatro clases de conjunto de pruebas: fafb (imágenes con diferentes expresiones de
rostro), fafc (imágenes con diferentes orientaciones de iluminación), dupI (imágenes
tomadas en menos de 18 meses) y dupII (imágenes tomadas en los 18 meses
siguientes). El programa (FERET) es dirigido por la Agencia (DARPA) (Defense
Advanced Research Projects Agency) y (NIST) (National Institute of Standards and
Technology).

En la figura 2.21, se muestran una parte de las imágenes capturadas en la base de datos
FERET.
61

Figura 2.21 Imágenes de ejemplo de la base de datos de caras de FERET(Lu, J., Tan, Y.-P., & Wang,
2013), (Sadhya & Kumar, 2019), (Benini et al., 2019)

2.6.1.5 Base de datos ORL

En 1994, un grupo de trabajo de los laboratorios AT&T, construyeron la base de datos


ORL la misma que está constituída por 10 imágenes diferentes de 40 individuos (Xu,
Y., Fang, X., Li, X., Yang, J., You, J., Liu, H., & Teng, 2014). Las imágenes se
captaron en diversas temporadas, ángulos de iluminación, expresiones de rostro y
accesorios. Las dimensiones de las imágenes son 92 x 112 pixeles cada una, en escala
de grises. En la figura 2.22 se indica un ejemplo de las imágenes captadas para una
persona.

Figura 2.22 Imágenes de muestra de la base de datos facial ORL. (Xu, Y., Fang, X., Li, X., Yang, J.,
You, J., Liu, H., & Teng, 2014)
62

2.6.1.6 Base de datos MUCT

Esta base de datos MUCT, consta de 3755 imágenes de rostros humanos con 76 puntos
de referencia manuales. Esta base de datos MUCT proporciona más diversidad de
iluminación, edad y etnia en relación a otras bases de datos de marcas registradas 2D
disponibles al público. A continuación, se ilustra un conjunto de rostros parte de esta
base de datos en la siguiente figura 2.23.

Figura 2.23 Bases de datos MUCT


Fuente: (Milborrow, S., Morkel, J., & Nicolls, 2010)

Esta base de datos está disponible gratuitamente para uso académico en la siguiente
dirección: https://github.com/StephenMilborrow/muct

2.6.2 Bases de datos de caras 3D

En esta subsección se presentan algunas bases de datos conocidas en 3D

2.6.2.1 Base de datos Texas3DFRD

En la actualidad se cuenta con una gran variedad de bases de datos en 2D, siendo una
pequeña desvenataja la poca presencia de bases de datos en 3D. Sin embargo a través
63

de algunos laboratorios se va obteniendo algunas bases de datos, tal es el caso de


Texas3DFRD (Gupta, Castleman, Markey, & Bovik, 2010a), la misma que contiene
1149 pares de alta resolución, presentan imágenes de color y rango normalizadas,
preprocesadas y perfectamente alineadas de 118 sujetos humanos adultos adquiridos
usando una cámara estéreo. Las imágenes representan el género, la etnia y la expresión
facial de los sujetos, como se ilustra en la figura 2.24

Figura 2. 24 Bases de datos Texas 3DFRD (Gupta et al., 2010a)

2.6.2.2 Base de datos de caras 3D de CASIA

Entre agosto y septiembre de 2004, se realiza la recopilación de la base de datos de


caras 3D que consta de 4624 caras de 123 personas que utilizaron una cámara
digitalizada 3D sin contacto, tipo Minolta Vivid 910. Durante la creación de la base de
datos, se ha considerado no solo las variaciones únicas de poses, expresiones e
iluminaciones, sino también las variaciones combinadas de expresiones bajo
iluminación y poses bajo expresiones, como se muestra en la figura 2.25 el objetivo de
CASIA fue construir una base de datos de caras 3D completa, que se verá impulsada
a ser una plataforma pública para probar los algoritmos en reconocimiento de caras 3D
u otros.
64

Figura 2.25 Bases de datos de caras de CASIA 3D (Casia, 2011)

2.6.2.3 Base de datos de rostros FRGC 3D

La base de datos de rostros FRGCV2 3D (Passalis, Kakadiaris, Theoharis, Toderici, &


Murtuza, 2014) es un conjunto de datos de caras 3D, utilizado para promover el
desarrollo y la evaluación de una variedad de algoritmos de reconocimiento facial, esta
base de datos consiste en imágenes en 3D de alta resolución. Esta base de datos
contiene un conjunto de datos v2 de FRGC, un total de 4007 imágenes 3D, adquiridas
entre 2003 y 2004. El hardware utilizado para adquirir estos datos de rango fue un
escáner de rango Minolta Vivid 900, con una resolución de 640x480. Estos datos
provienen de 466 sujetos y contienen diversas expresiones faciales como, por ejemplo,
felicidad, sorpresa. Los sujetos son 57% varones y 43% femenino, mientras que la
distribución por edades es del 65% 18-22 años, 18% 23-27 y 17% 28 o más. En la
figura 2.26, se muestra un ejemplo de esta base de datos.

Figura 2.26 Ejemplo de imágenes clasificadas como neutrales en la base de datos de FRGC v2
(Passalis et al., 2014)
65

2.6.2.4 Base de datos de rostros BU-3DFE

Esta base de datos BU-3DFE (L. Yin, X. Wei, Y. Sun, J. Wang, 2006), (Yin,et al,
2010), (Rosato, 2016), (Dou & Kakadiaris, 2017) contiene rostros de personas con
diferentes expresiones (neutral, tristeza, alegría, enojo, sorpresa), ver figura 2.27. Esta
base de datos corresponde al Dr. Lijun Yin del Department of Computer Science de
State University of New York at Binghamton. La base de datos BU-3DFE se encuentra
disponible para áreas de interés como la computación afectiva, visión por
computadora, interacción con la computadora humana, seguridad, biomedicina,
aplicación de la ley y la psicología. Esta base de datos actualmente contiene 100
sujetos, de los cuales el 56% corresponde a mujeres y 44% hombres, con edades entre
18 y 70 años, con una variedad de ancestros étnicos raciales, incluídos los blancos,
negros, asíaticos del Medio Oriente, indios, e hispano latino. Sin lugar a duda esta base
de datos constituye uno de los componentes más importantes en el campo del
reconocimieto facial. En el presente trabajo, se optó por trabajar con esta data.

Figura 2.27 Base de datos BU-3DFE (Dou & Kakadiaris, 2017)

2.7 Análisis de las técnicas y bases de datos revisados

A partir de los trabajos revisados, muchas técnicas son las que permiten cumplir con
el objetivo del reconocimiento de rostros, según lo revisado entre los que figuran son:
Máquinas de vectores soporte, Análisis de principales componentes, K-nn vecinos,
66

Análisis de componentes independientes, Eigenface, también muchos han optado por


trabajar con combinaciones como: PCA-SVM, DCV-NN, KDCV-NN, DCV-RBF,
KDCV-RBF, IDCV-SVM, ICA-FLS_SVM, RKDA-SVM, GABOR-SVM.

La eficiecia de un clasificador de patrones SVM trabaja con funciones kernels como


lineal, gaussiano, polynomial, entre otros. El kernel Gaussiano y Polynomial son los
que mejores resultados han tenido, un elemento muy importante en este proceso son
las bases de datos utilizados en efecto del reconocimiento que dependen de varios
elementos como la eficiencia de entrenamiento, el modelo obtenido, el número de
pruebas efectuadas, el tamaño de la base de datos. Cabe insistir que estos resultados
alcanzados resultan muy buenos por las bases de datos utilizados, a diferencia con
otras bases como FERET, MUCT según la literatura sus resultados son un tanto menor.

En lo que respecta a los trabajos de reconocimiento facial en 3D, es importante destacar


el nivel de eficiencia es mucho mejor que en el 2D, esto se debe a que una imagen en
3D antes de ser reconocido, pasa por ciertos pre-procesamientos tales como,
eliminación de ruidos, llenado de agujeros y normalizaciones. De allí que los
resultados que se obtienen en los procesos de reconocimiento son bastante buenos,
pero no todo es bueno, al momento existen ciertas desventajas en cuanto a sus bases
de datos en 3D, al menos, su presencia en forma libre y gratuita para investigaciones
es muy baja en relación a las bases de datos de rostros en 2D. Una de las pocas bases
de datos de rostros en 3D que se ha encontrado para investigaciones es CASIA
(Academia China de Ciencias, Instituto of Automation) (Casia, 2011), GAVAB
(Group of ArtificialVision, Biometría Artificial) y TEXAS3DFRD (Gupta, Castleman,
Markey, & Bovik, 2010b) y BU-3DFE (L. Yin, X. Wei, Y. Sun, J. Wang, 2006),
(Yin,et al, 2010), (Rosato, 2016), (Dou & Kakadiaris, 2017)|. Por último es necesario
indicar en base a trabajos anteriores los sistemas 3D-2D son los más indicados, por
cuanto alcanzan un mejor porcentaje de aciertos, alcanzando un acierto del 90,8%
como lo establece kakadiaris en su trabajo de investigación, (Kakadiaris et al., 2017).
67

2.8 Filtrado de Imágenes

El método del filtrado de imágenes consiste en una técnica aplicada en un


preprocesamiento de imágenes, cuyo objetivo fundamental es obtener a partir de una
imagen origen un resultado más adecuado para una aplicación específica, mejorando
ciertas características de la misma que posibilite efectuar operaciones del procesado
sobre ella.

El método trata de resaltar o suprimir, de forma selectiva, información argumentada


en una imagen a diferentes escalas espaciales, para destacar algunos elementos de la
imagen, igualmente para ocultar valores anómalos. El proceso de filtrado se
fundamenta en la aplicación a cada uno de los pixels de la imagen de una matriz de
filtrado de tamaño NxN (generalmente de 3x3 aunque puede ser mayor) compuesta
por números enteros y que genera un nuevo valor mediante una función del valor
primario y de los pixels circundantes, la representacion de algoritmos se filtra de
segmentación que permite mejorar la calidad (Piña & Silva, 2016) (Pérez Flores,
2015), la transformada de Fourier, etc. En la actualidad se cuenta con varios tipos de
filtrados que la numeramos a continuación:

 Filtros de paso bajo


 Filtros de paso alto
 Filtros direccionales
 Filtros para la detección de bordes

De lo descrito anteriormente, es claro concluir que una de sus importantes aplicaciones


sería ser parte de un proceso de reconocimiento facial de imágenes.

La figura 2.28 se indica un ejemplo de imagen filtrada, donde la primera corresponde


a su versión original, mientras que la segunda a una imagen filtrada (suavisada).
68

Figura 2.28 Imagen original (izquierda) que ha sido filtrada (derecha)

2.8.1 Filtro de Gabor

Dentro de los filtros muy importantes empleados para procesar una imagen de entrada
están los filtros de Gabor, los mismos que son victoriosamente utilizados en varias
aplicaciones de imágenes como el estudio de textura, verificación facial,
reconocimiento de caracteres y restablecimiento de imágenes por contenido, estos
filtros funcionan como un detector de bordes en una base no ortogonal, por lo tanto
cada característica extraída por un filtro se correlaciona con otra particularidad
generada por otro, (Alejandra, 2016) (Belén et al., 2004) (Garrido & Alcaide, 2018).

La expresión matemática en la que se basa el filtro de Gabor (Alejandra, 2016), es el


siguiente:

f0
2  x2 y
2 
 ( x, y, x0 , y0 , f 0 ,  x ,  y , ,  )  exp  f 0  2 2  2 2 . exp( 2i. f 0 xr  i ) (18)
2

 x y   y 
 x 

Donde:
69

xr  ( x  x0 )  cos   ( y  y 0 ) sin 
y r  ( x  x0 )  sin   ( y  y 0 ) cos 
x0 y y 0 indican la posición en el espacio de la wavelet
f 0  frecuencia central de la onda plana
 x  det er min a el ancho del eje mayor de la envolvente Gaussiana
 y  det er min a el ancho del eje menor de la envolvente Gaussiana
  ángulo (contrario de las manecillas del reloj )
entre la dirección de propagación de la onda y el eje x
  desplazamiento de la fase de la onda

He aquí una representación de una imagen filtrada utilizando el filtro de Gabor, Figura
2.29

Figura 2.29 Dos filtros de Gabor, cada uno de ellos con distinta frecuencia central, escalado y
orientación (García, Escaramilla, & Nariko, 2015).

En tal sentido el filtro de Gabor es un filtro lineal cuya replica de impulso esta en
función sinusoidal multiplicada por una función gaussiana. Si le asignamos una
específica frecuencia y direcciónamiento, se obtiene una rebaja del ruido a la vez de
proteger una dirección de la imagen original.

Los filtros de Gabor pueden ajustar para operar a diferentes escalas y orientaciones, de
modo que se pueda analizar la imagen en diferentes profundidades y ángulos. Este
actúa como un filtro de paso de banda sintonizable. Gracias a la implementación de
banco de filtros multicanal y sintonización a diferentes escalas y orientaciones, imita
la respuesta del sistema visual humano (Karthika & Parameswaran, 2016).
70

Por último los filtros de Gabor están directamente en conexion con los wavelets de
Gabor, dado que tienen funcionabilidad en aproximación pasabanda y que pueden
delinearse como un banco de filtros con diferentes dilataciones y rotaciones, al trabajar
con filtros ortogonales (requisito de los wavelets) puede dar complicaciones, en este
caso se requiere el uso de wavelets biortogonales.

2.9 Extracción de Características

La extracción de características de rostros radica en separar información asociada con


la activación de los diversos músculos de la cara, esta acción puede realizarse en forma
global u holística, también se analiza el rostro como un solo conjunto o localmente, en
donde se eligen regiones de utilidad del rostro como ojos cejas y boca. Se tienen varias
técnicas para este proceso de extracción de características, como PCA, ICA, GABOR,
etc. (Castrillon, Alvarez, & López, 2008) (Belén et al., 2004) (Garrido & Alcaide,
2018). Los algoritmos de extracción de características se centran, entre otras cosas, en
las imágenes analizadas para extraer atributos y regiones de interés, la division de
objetos del fondo, la detección de bordes o formas. La extracción de características
transforma las características originales para generar otras características que son más
significativas (Khalil, 2014).

Según Aguirre (Aguirre Dobernack Nicolás, 2013) un proceso de extracción de


características debe cumplir, entre otras, las siguientes condiciones:
 La extracción de información útil a partir de la imagen no debe suponer un
coste excesivo al sistema en el cual está integrado, y el tiempo total dedicado
a esta tarea debe ser lo menos posible.
 La localización de las características de la imagen debe ser muy precisa. Así
mismo, el error cometido en la estimación de las mismas debe ser lo más
pequeño posible.
 El método utilizado para la extracción de características debe ser robusto y
estable, los datos extraídos deben contener la máxima información posible de
la imagen.

Extraer características, dentro de el estudio de componentes principales PCA, es un


modelo empleado para minimizar dimensiónes de problemas del reconocimiento de
71

patrones, permitiendo imágenes significativas bajo un análisis, en forma minuciosa y


compacta. Para conocer las ecuaciones fundamentales del PCA se ha de llevar las
características de imágenes de caras, se considera el grupo de M imágenes en los
niveles de grises, cada una L = N1xN2 en píxeles, las que se ordenan en una matriz de
dimensión LxM. Por consiguiente, con el objetivo de descubrir aquellos vectores qué
den mejor significado de la disposición de imágenes de caras bajo un análisis, cada
figura de entrenamiento Ti, i=1, 2,…, M se reduce la imagen, obteniendo un promedio
de las M imágenes de entrenamiento, obteniendo de esta forma un conjunto de
imágenes.
En otro campo de estudio, la extracción de características sirve para transformar
señales cerebrales originales en una representación que facilita la clasificación. En
otras palabras, el objetivo de la extracción de características es eliminar el ruido y otra
información innecesaria de las señales de entrada, al mismo tiempo que retener
información que es importante para discriminar diferentes clases de señales. (Vinicio
& César, 2017). Finalmente la extracción de características se aplica en el campo del
estudio de imágenes que se constituye en la primera etapa en la inteligencia de un
circuito de visión artificial.

2.9.1 Extracción de características por wavelets de Gabor

En la actualidad la forma más común de estudiar las propiedades periódicas de las


texturas la llevamos a cabo en procesos por un banco de filtros particulares
denominados filtros de Gabor. Los descritos estan a grandes rasgos filtros paso banda,
que dan información de las frecuencias espaciales que contienen las figuras, así como
de su patrón. Cada uno de los espectros del filtro de Gabor de acuerdo a lo mencionado
referido en la extracción de características faciales como lo menciona García (García,
Escaramilla, & Nariko, 2015)

Igualmente, (Sujitha, Venkatramaphanikumar, & V, 2019) considera que para la


extracción de características, wavelets de Gabor es muy importante, considerando las
propiedades de discriminación como la escala y la orientación. Este proceso consiste
en que las características de Gabor se recopilan de las caras de entrada de escala de
grises. El dominio espacial del filtro Gabor 2-D es una función de núcleo gaussiano
72

que fue modulada por una onda sinusoidal. Los filtros wavelet de Gabor se pueden
practicar en numerosos problemas de detección para la extracción de características
debido a sus propiedades de localización impecables en pares de dominio espacial y
de frecuencia.

Las wavelets de Gabor son inventadas por Dennis Gabor, la propiedad importante de
la wavelet es que minimiza el producto de sus desviaciones estándar en el dominio del
tiempo y la frecuencia. Hay que tener en cuenta que los errores en la información
transportada por esta wavelet se minimizan, pero tiene el inconveniente de no ser
ortogonales, por lo que es difícil una descomposición eficiente en la base de datos. Se
encuentran en distintas aplicaciones desde el procesamiento de imágenes hasta el
análisis de neuronas en el sistema visual humano.

Los wavelets de Gabor se usan para detectar bordes, esquinas y manchas, la función
regular de una wavelet de Gabor bidimensional descrita en el dominio de la frecuencia
espacial (Sujitha et al., 2019) se da en base a la siguiente ecuación:

 x2  y2 
g ( x, y )  exp   cos(u 0 x  v0 y ) (19)
 2 xy 
2

Donde,  XY es la desviación estándar de la cobertura gaussiana que representa la


extensión del dominio espacial y la capacidad de transmisión del filtro gaussiano. Los
parámetros ( u o , v o ) caracterizan la frecuencia espacial de la curva sinusoidal, que se

representa en coordenadas bidimensionales como frecuencia radial ro y orientación θ:

r0  u 0  v0
2 2 2
(20)

v0
tan   (21)
u0

La densidad y las características discriminatorias angulares de las wavelets de Gabor


son más precisas en su representación de rango de densidad que muestra la cantidad
por la cual el filtro gaussiano cambia cada componente la densidad de imagen de
entrada.
73

En la mayoría de las aplicaciones de reconocimiento facial, se utilizan wavelets Gabor


con cinco escalas que son; U = 5 y ocho orientaciones: V = 8. La siguiente figura 2.30
muestra la magnitud a cinco escalas, y las partes reales con cinco escalas y ocho
orientaciones.

Figura 2. 30 El conjunto de 40 wavelets Gabor. a) La magnitud a cinco escalas. b) Las partes reales a
cinco escalas y ocho orientaciones (Shen & Bai, 2006)

Los wavelets de Gabor son elementos de una familia de funciones de Gabor


mutuamente similares, se crean por dilatación y se desplazan desde una función de
Gabor elemental (wavelet madre), que se halla representado por la siguiente ecuación

1
 xb
g  , ,a ,b ( x)  a 2 g  ,   (22)
 a 
Para a  R  (escala) y b  R (desplazamiento). Por convención, la wavelet madre
tiene la energía localizada alrededor de x = 0 y todas las wavelets están normalizadas
g  1 . Aunque las wavelets de Gabor no forman bases ortonormales, el conjunto

discreto de ellas forma un marco.  , representa la varianza y  es la frecuencia.


(Barina, 2016)
74

Para un caso de una dimensión, se tiene que la función g está representado por:

  i x  x2
g , ( x)  e e
 (23

Siendo a  R  y  , x  R donde   (2 2 ) 1 ,  2 es una varianza y  es una


frecuencia, i es la parte imaginaria.

Mientras que para un caso de dos dimensiones tendremos que:

g , ( x)  g , 0 ( x0 ) g , 1 ( x1 ) (24)
1
Siendo   ( 0 , 1 ) y x  ( x0 , x1 ) , con ello   ( 0  1 )
2 2 2

Por convención, la wavelet madre tiene la energía localizada alrededor de x = 0 y


todas las wavelets están normalizadas g  1 .

El reconocimiento facial es una de las aplicaciones más importantes de las ondas de


Gabor. La imagen de la cara se convoluciona con un conjunto de ondas de Gabor y las
imágenes resultantes se procesan adicionalmente con fines de reconocimiento. Las
wavelets de Gabor generalmente se denominan filtros de Gabor en el ámbito de las
aplicaciones de reconocimiento de imágenes. Recientemente ha habido una gran
cantidad de investigaciones sobre el reconocimiento facial, y varios enfoques
propuestos que podrían clasificarse aproximadamente en enfoques analíticos (local) y
holísticos (global). (Chao, 2017)

Enfoques analíticos se refiere cuando se detectan algunos puntos característicos del


rostro, especialmente los puntos de referencia faciales importantes como ojos, narices
y bocas. Estos puntos detectados se denominan puntos fiduciales, y las características
locales extraídas en estos puntos, la distancia y el ángulo entre estos puntos y algunas
medidas cuantitativas del rostro se utilizan para el reconocimiento facial. La principal
ventaja de los enfoques analíticos es que permiten una deformación flexible en los
puntos de características clave para que la pose cambie y se puedan compensar
diferentes ángulos de visión. (Chao, 2017)
75

Los enfoques holísticos en cambio extraen características de toda la imagen del rostro.
La normalización del tamaño de la cara y la rotación es un preprocesamiento realmente
importante para que el reconocimiento sea robusto. La cara propia basada en el análisis
de componentes principales (PCA) y la cara del pescador basada en el análisis
discriminante lineal (LDA) son dos de los enfoques holísticos más conocidos. (Chao,
2017)

Cuando se extraen características para el reconocimiento de patrones, la recuperación


o la visión por computadora, los coeficientes transformados se utilizan para medida de
distancia o representación comprimida pero no para reconstrucción, por lo que la
restricción ortogonal podría omitirse.

2.10 Resumen de la revisión de literatura

2.10.1 Descripción de la metodología de la revisión de la literatura

Dentro de la metodología, es necesario anotar que la revisión de la literatura para el


Estado del Arte, se revisaron varios artículos relacionados con el tema, dando prioridad
a los últimos 5 años, excepto algunos trabajos de años inferiores que son necesarios en
cuanto a las conceptualizaciones, así como en algunos casos su tecnología está
vigente. De igual manera también se revisaron artículos de autores de tecnologías
originales como el caso del SVM (Vapnik, 1998), (Cabello Pardos, 2003).

Se realizó la revisión literaria de varios artículos de bases de datos tanto Scopus, Web
Of Science, etc., los cuales 45 corresponden a los 5 últimos años, y el resto a años
menores a 2015, además se investigaron tesis doctorales relacionados con el tema de
nuestro trabajo, para esta revisión se valió de algunas bases de datos indexadas muy
importantes como: Scopus, Science Direct, Elsevier, IEEE, etc.

Esta revisión además se enfocó a las bases de datos de rostros, tales como: FERET,
ORL, MUCT, CMU, YALE, TEXAS3DFRD, BU-3DFE, etc. La revisón estuvo
enfocada en el siguiente término: “Reconocimiento de rostros”, ó “Face recognition”.
76

A continuación, se muestra un resumen de trabajos revisados, respecto a sus


publicaciones en diferentes bases de datos, figura 2.31, y su año de publicación figura
2.32

TRABAJOS REVISADOS QUE ESTAN


RELACIONADOS CON EL ALGORITMO SVM

OTROS
26%
ELSEVIER
49%

IES
14%
TESIS
11%

Figura 2. 31 Resumen de trabajos que involucran al algoritmo SVM según la base de datos
registrada

TRABAJOS RELACIONADOS CON EL


ALGORITMO SVM SEGUN EL AÑO DE
PUBLICACION
49

19
10

2010 EN ADELANTE 2005 - 2009 MENORES A 2005

Figura 2. 32 Resumen de trabajos revisados que involucran al algoritmo SVM según el año de
publicación.
77

2.10.2 Tipos de Investigación

Esta investigación se fundamenta en dos partes muy bien definidas, la primera es la


investigación bibliográfica, mediante la cual se obtuvo una teoría sólida al realizar una
revisión sistemática de varias fuentes tanto en revistas con factor de impacto indexadas
en bases de datos Scopus, Web of Science, Scielo, etc., empresa editora de libros y
artículos Elsevier, así como tesis doctorales que han sido de gran ayuda dentro del
estado del arte.

De acuerdo al tema planteado y en base de las teorías de investigación se estima


realizar un trabajo experimental, por cuanto esta permite manipular variables muy
controladas, estudiando los efectos que se producen en casos concretos, a partir de este
sistema nacen hipótesis que se pueden contrastar a través del método científico.

2.10.3 Comparación de técnicas de Reconocimiento Facial

En la tabla 2.6 se observa la composición de la obtención de resultados en los


diferentes trabajos realizados, cabe destacar que el algoritmo SVM muestra un mayor
porcentaje de reconocimiento de caras. A la vez se indica las bases de datos y el
número de imágenes utilizados por cada base de datos.

Tabla 2. 6 Comparación de técnicas de Reconocimiento Facial


AUTORES Técnicas % acierto Bases de datos Número Tamaño
Utilizadas reconocimiento de (pixels)
imágenes
Moreno et PCA 77,9% Gavab 420 ---
al., (2005) SVM 76,2%
SVM 3,0% (el más mínimo
error) ORL 400 ---
Guo et al, CNN 3,83% (de error)
2001 NFL 3,125% (de error)
SVM 8,79% (de error)
CNN 9,72% (de error) BDD 1079 ---
COMPUESTA
NFL 15,14% (de error)
EIGENFACE 93,87%
LDA 93,80%
PCA_SVM 95,56%
DCV_NN 96,67%
Wen (2012)
KDCV_NN 97,75%
DCV_RBF 97,77% ORL 400 112 x 96
78

KDCV_RBF 97,65%
IDCV_SVM 98,92%
Kong y
Zhang FLS_SVM 97,50% ORL 400 28 x 28
(2011) (ICA)
Devi et al., R-KDA - SVM 30% UMIST 564 220 x
(2015) 220
Olivares et LFDE - SVM 97,92% AR 9360 ---
al., (2016)
Luo et al., PCA+LBP+S 96,25% PERSONAL 50 24 x 24
(2013) VM
Lin et al., SVM 97% ORL 509 ---
(2016)
Kim et al., 8,5% (error mínimo) FERET 1702 56 x 46
(2010) 8,6% (error mínimo) AR 1680 56 x 46
9,5% (error mínimo) CMU-PIE 1840 56 x 46
SVM-DA
Gumus et al., Wavelet-SVM 89,38% ORL 400 ---
(2010)
Li et al., YALE 165
(2011) MOUD-SVM 96,67% CAS-PEAL-R1 100 ---

Zhou et al., KSCH 100% MIT-CBCL 180 ---


(2010)
UMIST
ORL 400
YALE 165
Khan et al.,
ESSEX 153
(2012) SVM-NDA >98% ---
JAFFE 213
Kasar et al., BNP + RBF 98,88% ------ ------ ------
(2016)

2.11 Validación cruzada

La validación cruzada es una técnica que se usa para evaluar los resultados de un
análisis realizado. Esta técnica radica en dividir el conglomerado de datos de
entrenamiento en k subconjuntos, y entrenar k-1 de esos subconjuntos de
comprobación luego con el último subconjunto que no se ha entrenado (Ruiz, 2018),
obteniendo un error de validación por cada proceso, el resultado final será el promedio
de todos los errores, que representa el error promedio de validación. Finalmente este
promedio se resta de la unidad y se multiplicaría por 100, obteniendo el porcentaje de
eficiencia del modelo. Este proceso se indica en la tabla 2.7
79

Tabla 2. 7 Proceso de Validación Cruzada

El tema de validación cruzada según (Kerbaa, Mezache, & Oudira, 2019), es un


método estadístico para evaluar la capacidad de un modelo para aprender en modo
automático. Esta técnica es usada generalmente en el aprendizaje aplicado
automáticamente para hacer comparativas y elegir un modelo. Esta validación cruzada
divide los datos de entrenamiento en varias partes no contiguas del mismo tamaño.

De acuerdo a (Corso & Lorena, 2009), la validación cruzada consiste en: dado un
número n se divide los datos en n partes y, por cada parte, se construye el clasificador
con las n−1 partes restantes y se prueba con esa. Este proceso se lo realiza para cada
una de las “n” particiones.

La validación cruzada tiene muchas aplicaciones, como validación de métodos en


laboratorios (Mano, 2018), en modelos de mediciones de velocidad (J. Li, Perrine, Wu,
& Walton, 2019), en validar modelos de estrategias de control (Yang et al., 2019), etc.
80

CAPITULO III: METODOLOGIA DE LA INVESTIGACION

3.1 Tipo y diseño de la investigación

Para el presente trabajo se realizó una investigación cuantitativa y experimental. De


acuerdo a Hernández (Hernández, 2010), la investigación cuantitativa consiste en la
recolección de datos para probar hipótesis, con base en la medición numérica y el
análisis estadístico, para establecer patrones de comportamiento y probar teorías.

De acuerdo a esta definición, esta investigación nos permite trabajar con los resultados
obtenidos para posteriormente, en base a la estadística, poder validar la eficiencia del
entrenamiento como de la prueba del proceso de reconocimiento facial. La
investigación experimental es la alteración de una variable experimental o varias al
mismo tiempo, en un ambiente estrictamente vigilado por la persona que realiza el
experimento.

Finalmente, de acuerdo a Palella, (Palella, 2012) en cuanto al diseño experimental,


considera que es el momento en el cual el investigador manipula una variable
experimental no comprobada, bajo condiciones estrictamente controladas. Su objetivo
es describir de qué modo y por qué causa se produce o puede producirse un fenómeno.
Por medio de este diseño experimental se plantea desarrollar un software adecuado
que apruebe realizar reconocimiento de rostros, comprendiendo todas las fases de
entrenamiento y prueba respectivamente. Esto se logrará por medio de la manipulacion
de bases de datos, el uso del algoritmo de extracción de características, clasificación
de patrones, etc.
Ya dentro de la solución general se plantea un esquema, en el que se incluye las fases
de entrenamiento y pruebas de las bases de datos en las cuales se trabajaron con
reconocimiento facial, cabe mencionar que a partir de las bases de datos de rostros se
obtienen los vectores característicos, para luego ser utilizados por la técnica de
clasificación como es el SVM, que es nuestra técnica de estudio para el reconocimiento
de rostros. En el aporte de esta investigación se priorizan experimentos para
81

reconocimiento facial en 2D y 3D, mismos que serán explicados en los capítulos IV y


V.

3.2 Unidad de análisis

Esta investigación va a manejar imágenes faciales en 2D y en 3D. Las imágenes


faciales poseen características únicas que las diferencian la una de la otra. Una imagen
de un rostro humano, en la actualidad, se establece en dos dimensiones (plano x-y), es
así que podemos tener imágenes de caras con características como: gestos (alegre,
triste, enojado, etc.), pose, género, edad, etnia, etc. Sin embargo, en la actualidad ya se
habla de imágenes en tres dimensiones (plano x-y-x).

3.3 Población de estudio

Corresponden las bases de datos de figuras de rostros en 2D y 3D encontrados en la


literatura. Es así que para la primera parte se trabaja con la siguiente data: La primera
es la dataset FERET y la segunda la dataset MUCT. Para la segunda parte de la
investigación se trabaja igual con dos datasets en 3D siendo TEXAS3DFRD (Gupta et
al., 2010b) y la dataset BU-3DFE (X. Li, Ruan, Jin, An, & Zhao, 2015).

Cabe notar la selección de estas bases de datos por la calidad de imágenes, han sido
utilizadas por investigaciones de alta calidad, son de libre acceso, no tienen costo si
son utilizadas para temas de investigación, a diferencia de otras que requieren un pago.

Las bases de datos en 3D son muy pocas, y complicados de adquirir libremente, la


mayoría es pagada. Sin embargo las seleccionadas son de muy alta calidad y se me fue
entregado sin ningún costo, siempre y cuando sea con fines de investigación.

3.4 Tamaño de la muestra

De acuerdo a la literatura, según (Hernández, 2010) considerando que se trata de una


investigación experimental, el tamaño de la muestra sería la misma que el de la
población. Esto debido a que la mayor parte de las veces, las investigaciones
experimentales utilizan muestras dirigidas para la validación de su hipótesis (p. 190,
82

191). Para la presente investigación se propone dos aportes importantes, la primera:


un sistema de reconocimiento facial en 2D y la segunda en 3D.

Es así que para la primera parte de la investigación como se mencionó anteriormente,


se trabaja con dos datas: La primera es la base de datos FERET y la segunda base de
data MUCT (Sadhya & Kumar, 2019), como se indican una parte de la misma en las
figuras 3.1 y 3.2 respectivamente.

Figura 3. 1 Bdd FERET

Fuente: Extraído de (Sadhya & Kumar, 2019), (Benini et al., 2019)


83

Figura 3. 2 Bdd MUCT

Fuente: Extraído de (Sadhya & Kumar, 2019), (Milborrow, S., Morkel, J., & Nicolls, 2010)

Para la segunda parte de la investigación se trabaja igual con dos datasets en 3D siendo
TEXAS3DFRD (Gupta et al., 2010b) con 183 rostros reprocesados en 3D
correspondientes a 50 personas, y la base de datos BU-3DFE (X. Li, Ruan, Jin, et al.,
2015), quien cuenta con 500 modelos de imágenes, que corresponden a 50 personas,
las cuales se muestran en las figuras 3.3 y 3.4 respectivamente.

Figura 3. 3 Base de dattos TEXAS3DFRD

Fuente: Extraído de (Gupta et al., 2010b)


84

Figura 3. 4 Base de datos BU-3DFE

Fuente: Extraído de (X. Li, Ruan, Jin, et al., 2015)

3.5 Técnicas de recolección de datos

La data de figuras de rostros 2D y 3D se obtienen por los centros de investigación de


las universidades e instituciones de investigación privadas a través de proyectos. Estas
instituciones capturan imágenes de rostros, que posteriormente serán usados para sus
investigaciones.
Sin embargo, es importante mencionar que no es fácil construir una de estas bases de
datos, esto debido a que se debe tener en cuenta las herramientas e infraestructura, las
personas y el pre procesamiento de las imágenes, lo que implica gasto de tiempo y
recursos económicos.

Como se indicó en la Sección 2.6, existen una gran cantidad de estas bases de datos,
lo que facilita este tipo de investigaciones.

Para la investigación se propone dos aportes importantes, la primera: un sistema de


reconocimiento facial en 2D y la segunda en 3D. La data FERET se fundamenta en
imágenes de rostros recolectados entre diciembre de 1993 y agosto de 1996. En 2003
se realizó una publicación en versión de muy alta resolución, 24 bits de color, de estas
figuras, que incluimos 2413 figuras de rostros, enfocando a 856 personas. Las figuras
85

a color estan realizadas en formato ppm, con una resolución de 256×384 pixeles. Esta
base de datos es de libre acceso.

3.6 Técnicas de análisis de datos

Como parte de la investigación experimental que se utiliza en este trabajo de


investigación, para el análisis y proceso de datos obtenidos se utilizan algoritmos para
extracción de características de imágenes y algoritmos para el reconocimiento de las
mismas dentro de los procesos de reconocimiento en 2D y 3D que se detallada en el
capítulo IV, dentro de las técnicas seleccionadas para el mismo.

En forma generalizada se destaca dentro del proceso de la primera parte del


reconocimiento en 2D, la utilización de algoritmos de vital importancia, tales como el
filtrado y extracción de características de Wavelets de Gabor y un clasificador de
patrones SVM a través de sus kernels: Lineal, Cúbico y Gaussiano para el
reconocimiento con data de caras humanas FERET y MUCT.

Para la segunda parte de la investigación sobre reconocimiento facial en 3D se cuenta


con las bases de datos mencionadas anteriormente, como TEXAS3DFRD (Gupta et
al., 2010b) y BU-3DFE (X. Li, Ruan, Jin, et al., 2015). Los algoritmos utilizados como
el filtro de Gabor y el SVM son los mismos. La única diferencia es que, previamente,
se realiza un proceso sobre la base de datos BU-3DFE, como es la proyección de los
modelos de caras sobre los planos establecidos: (x vs z), (y vs z), y (z vs y), como se
ilustra en la figura 3.5.
86

Figura 3. 5 Proyección de un modelo sobre los planos respectivos

3.7 Validación del modelo para reconocimiento facial en 2D y 3D

La validación del modelo obtenido sea para 2D y 3D, se realiza aplicando la técnica
de la validación cruzada, su definición y proceso fue explicado en el capítulo II de la
investigación, el comando CROSSVAL corresponde a la validación cruzada en
Matlab, se trabajó con una partición del conjunto de datos de entrenamiento por
defecto en 10 subconjntos. Cada subconjunto se va probando con cada uno de los
subconjuntos restantes (en este caso nueve subconjuntos), este proceso se repite por
10 veces en este caso. Cada subconjunto representa imágenes seleccionadas para el
entrenamiento. Parte de este proceso se indica en la figura 3.6
87

Figura 3. 6 Esquema Validación cruzada del modelo obtenido aplicado al conjunto de datos de
entrenamiento
88

CAPITULO IV: TECNICA EFICIENTE PARA


RECONOCIMIENTO FACIAL GLOBAL EN 2D

En el presente capitulo, se procederá a detallar la técnica eficiente a utilizarse, para el


reconocimiento facial en 2D; para lo cual, se toma en cuenta la base datos FERET y
MUCT

4.1 Selección y justificación de las tecnologías utilizadas

4.1.1 Bases de datos 2D seleccionados

Para la primera parte de la investigación se selecciona las bases de datos FERET


(Sadhya & Kumar, 2019) y MUCT (Sadhya & Kumar, 2019), (Milborrow, S., Morkel,
J., & Nicolls, 2010), en función de su disponibilidad y adecuación al estudio. La base
de datos FERET utilizada, consta de 200 imágenes correspondientes a 20 personas, es
decir 10 rostros por persona, con una resolución de 480 x 640 pixeles. Esta base de
datos está conformada por rostros caracterizados por: pose, expresión y género, un
ejemplo de estos se observa en la figura 4.1. Mientras que la data MUCT contiene
1515 figuras y con resolución de 480 x 640 pixeles, correspondientes a 101 personas,
es decir 15 imágenes por persona. Esta base de datos está conformada por rostros
caracterizados por iluminación, pose, estado de ánimo y género, un ejemplo de estos
se muestra en la figura 4.2

Figura 4. 1 Base de datos utilizado FERET


Fuente: Extraído de (Sucar, 2009)
89

Figura 4. 2 Base de datos utilizado MUCT


Fuente: Extraído de (Milborrow, S., Morkel, J., & Nicolls, 2010)

4.1.2. Algoritmo de extracción de características seleccionado

Revisada la literatura sobre el proceso de reconocimiento facial, interviene la fase de


extracción de características, como se manifiesta en 2.9 del capítulo II, los algoritmos
de extracción de los caracteres que consisten en sacar información asociada con la
activación de los diversos músculos de la cara, esta actividad puede hacerse de manera
global o local en donde se examina la cara como un conjunto unico, respectivamente;
es así que, se escogen regiones de interés de la cara como ojos, cejas y boca (Leiva
José, 2007). Por lo que de los algoritmos revisados, se ha seleccionado el filtro y
extractor de características de Gabor; por cuanto es muy utilizado por los buenos
resultados obtenidos (Mariñas Guillermo, 2009).

No obstante es de mencionarse que, entre las particularidades del rostro a extraer


podemos diferenciar dos tipos: las transitorias que comparten diversos tipos de arrugas
y abultamientos y se crean debido a las expresiones del rostro y las no transitorias, que
90

normalmente se presentan en la cara, entre estas se encuentramos los ojos, las cejas y
la boca, y a disparidad de las primeras siempre están ahi en las expresiones del rostro
humano. Es así que la modificacion de Gabor se la aplica en forma localizada, usando
la función ventana gaussiana, con la que obtenemos un cambio muy parecido a la
transformada wavelet; sin embargo, para el caso de las figuras se utiliza una función
base que es una exponencial compleja y una función ventana gaussiana en 2D
multiplicadas, para lograr un conjunto de funciones en base a la transformada y
podemos variar las frecuencias centrales de la exponencial compleja, se podrían variar
el ancho de la ventana con la desviación estándar de la gaussiana y se puede
transformar la orientación de la función final. (Castrillon et al., 2008)

Por lo que, este filtro trabaja exclusivamente con tres parámetros importantes como la
frecuencia central, el escalado y la orientación, los mismos que se definen en 2.8.1 y
2.9.1 del capítulo II.

4.1.3 Algoritmo de clasificación

En la actualidad se cuenta con varios algoritmos de clasificación, sin embargo, en base


a la revisión de varios trabajos sobre reconocimiento facial, se pudo establecer que el
algoritmo Máquina de Vectores Soporte (SVM) resulta el mejor en base a los
resultados obtenidos; por lo cual, es de aclararse que, las SVMs fueron desarrolladas
por Vapnik y son entrenadas por algoritmos de optimización convexa; es decir que
existe una única solución; por lo cual, son construidas a partir de una estructura que
depende de un subconjunto de vectores soporte, que ayudan a la interpretación del
modelo. Durante la tarea de clasificación existen dos fases: la fase de aprendizaje
automático y la fase de reconocimiento. (Gonzales; et al, 2017)

Es así que, como se indica en la tabla 2.6 del capítulo II; se ha seleccionado este
clasificador SVM para la realización del estudio.

4.2 Modelo desarrollado para reconocimiento facial global en 2D

En la figura 4.3 se muestra el modelo propuesto para reconocimiento facial en 2D, en


el mismo que se plantea la aplicación de Gabor para el filtrado y separar las
características de un rostro, así como la máquina de vector de soporte (SVM) para la
91

clasificación (reconocimiento facial), a través de su kernels: Lineal, Cúbico y


Gaussiano.

En base a las teorías revisadas y analizadas, se plantea el siguiente modelo, que se


presenta en la figura 4.3

Figura 4.3 Modelo del proceso de reconocimiento facial en 2D

4.2.1. Componentes del modelo de reconocimiento facial global en 2D


Las dos etapas inician con la selección de una base de datos, para finalmente concluir
en la etapa de validación o reconocimiento; por lo que, el modelo planteado consta de
los siguientes componentes:

1) Base de datos de rostros.- Se cuenta con la data FERET y MUCT, las mismas que
contienen un conjunto de imágenes 2D, FERET es un estándar dataset usado para
la evaluación del sistema de reconocimiento facial. El programa Face Recognition
Technology (FERET) es manejado por Defense Advanced Research Projects
Agency (DARPA) y el Instituto Nacional de Estándares y Tecnología (NIST). La
base de datos MUCT se creó para proporcionar una mayor diversidad de
iluminación, edad y etnia que las bases de datos de caras 2D
marcadas actualmente disponibles
92

2) Filtrado y extracción de características de imágenes.- consiste en un conjunto de


métodos que permiten asignar entidades de entrada a nuevas entidades de salida.
Esta técnica permite apartar características como: coordenadas, objetos, colores,
texturas, propiedades de los elementos faciales, así como: objetos y formas de las
escenas.

3) Vector de características.- Consiste en almacenar todas las características


extraídas en un vector de m columnas.

4) Clasificación.- Es un proceso que trata de asignar las diferentes partes del vector
de características a grupos o clases, basándose en las características extraídas
anteriormente, para ello se utiliza el clasificador SVM.

5) Generación del modelo.- Una vez realizada la clasificación se obtiene un modelo


de clasificación realizada con todas las clases o imágenes de entrenamiento

6) Validación cruzada.- El modelo generado en el proceso anterior es sometido a un


proceso de validación cruzada, obteniendo un valor cuantitativo en cuanto a su
eficiencia de reconocimiento.

7) Identificación o reconocimiento. - Es la fase final, en donde se somete las


imágenes de prueba para ser procesadas con el modelo generado y probar la
eficacia de su identificación o reconocimiento, es decir verificar si se
corresponden o nó a la clase correcta.

La descripción de cada uno de estos componentes se indica en el apartado 4.3


correspondiente a la implementación del modelo.

4.3 Implementación del modelo

Para la implementación del modelo para reconocimiento facial se diseño un software


en Matlab R2015a para 64 bits, este software bajo licencia es una aplicación sólida en
el tratamiento de imágenes, toda vez que transforma una imágen en una tabla matricial
de valores y finalmente resulta manejable para aplicar diferentes filtros y kernels que
vienen incorporados en el mismo.
93

En el modelo desarrollado que se observa en la figura 4.3, consta de dos etapas


importantes: Una etapa de entrenamiento y otra de prueba. Las dos etapas inician con
la selección de una base de datos, para finalmente concluir en la etapa de identificación
(reconocimiento). A continuación se describe cada uno de los componentes del modelo
que se va a implementar:

1. Base de datos de rostros. - Las BDD utilizados son dos: FERET (Sadhya &
Kumar, 2019) y MUCT (Sadhya & Kumar, 2019), (Milborrow, S., Morkel, J.,
& Nicolls, 2010), la primera consta de 200 imágenes de tamaño 480 x 640
pixeles correspondientes a 20 individuos. Esta dataset está conformada por
imágenes que presentan diferentes edades, género, etnias, poses y expresiones.
Una parte de esta dataset se indica en la figura 4.4

Figura 4. 4 Dataset Feret utilizada


Fuente: Extraído de (Rosales & Gualle, 2006)
94

La segunda dataset utilizada llamada MUCT está compuesta por 1515 rostros
correspondientes a 101 personas y un tamaño de 480x640 pixeles. Esta dataset
está conformada por imágenes que presentan diferentes edades, género, etnias,
poses, expresiones e iluminación. Una parte de esta dataset se indica en la
figura 4.5

Figura 4. 5 Dataset MUCT utilizada


Fuente: Extraído de (Milborrow, S., Morkel, J., & Nicolls, 2010)

2. Filtrado y extracción de características de imágenes. - El proceso indicado se


lo realiza a través de Wavelets de Gabor, que contempla el filtrado y extracción
de características de un conjunto de rostros de las bases de datos mencionados
anteriormente.
95

3. Vector de características. - Todas las características principales extraídas en


el proceso anterior son almacenadas en vectores, de allí su nombre de vectores
características.

4. Clasificación. - Proceso que trata de asignar las diversas partes del vector de
caracteres a grupos o clases, que se basan en las características sacadas
anteriormente, el proceso se realiza para las imágenes de entrenamiento
(aprender).

5. Finalmente viene la etapa de Identificación (reconocimiento), que consiste en


identificar la imagen de prueba ingresada a que clase corresponde, donde se
valida si la identificación es acertada o desacertada.

De acuerdo al modelo establecido, su implementación se inicia con:

a) La lectura de las bases de datos indicado anteriormente: FERET y MUCT.


b) A continuación, se genera los filtros de Gabor. Parte del resultado obtenido se
indica en la figura 4.6, una parte aplicada a una imagen de la dataset MUCT.

Figura 4. 6 Resultado del filtrado de una imágen por Gabor


96

c) Seguidamente se realiza la extracción de características para obtener los


vectores característicos y almacenar en un banco de características. El proceso
de filtrado y extracción se realiza tanto con imágenes de entrenamiento como
de prueba.
d) Las características obtenidas se los guarda en una tabla denominada vector de
características, de allí su nombre de vectores características. Una parte de
vectores características correspondiente a la base de datos FERET se indica
en la figura 4.7, el proceso es el mismo para base de datos MUCT.

Figura 4. 7 Banco de vectores características de bdd FERET

e) A continuación, se procede con la clasificación de las características extraídas


anteriormente, el proceso se realiza tanto para las imágenes de entrenamiento
(aprender), como de prueba. Para nuestro caso se trabajó con el clasificador
Máquina de vectores soporte (SVM), a través de sus kernels o funciones:
Lineal, cúbico y gaussiano.
f) Una vez realizado la clasificación de patrones con SVM, se aplica la validación
cruzada para validar el modelo de entrenamiento obtenido, los resultados se
indican en el apartado 4.4.

Una parte del código del modelo implementado, se encuentra en el Anexo 2.


97

4.4 Validación del Modelo

En cuanto a la validación del modelo, y con la finalidad de verificar el grado de


confianza que tiene este modelo, se procede por validación cruzada como ya se lo
mencionó con anterioridad, para una mejor vizualización, parte de los resultados
adquiridos con las dos datas y sus respectivos kernels se indican en las figuras que van
desde la 4.8 hasta la 4.13. Es así que al finalizar la validación, se pudieron obtener los
resultados que son expuestos en la tabla 4.1 del presente documento.

Figura 4. 8 Validación modelo, bdd Feret kernel lineal

En cuanto a la validación del modelo bdd Feret Kernel lineal se pudo obtener como
resultado el 100%, a su vez se puede observar que de todas las pruebas 6 fueron de 1.0
de probabilidad, mientras que la mínima de probabilidad fue la de 0,9166 y el resto de
aciertos fue de 0,98 en adelante lo cual determina un 100% de eficacia para todas las
pruebas realizadas.
98

Figura 4. 9 Validación modelo, bdd Feret kernel cúbico

En relación a la visualización de esta gráfica se puede observar claramente que todas


las pruebas que se realizaron tuvieron el 100% de eficacia no obstante de las pruebas
realizadas 5 tuvieron 1,0 de probabilidad. Mientras que el resto de pruebas fueron
aproximadas al inmediato superior, teniendo como resultado que el que tuvo menor
probabilidad fue el de 0,9943 y las demás pruebas dieron un resultado superior al que
ya se mencionó, por lo cual, se comprueba que todas las pruebas fueron óptimas con
aciertos de 100/100 y una eficacia de 1.000000.
99

Figura 4. 10 Validación modelo, bdd Feret kernel Gaussiano

Cómo se observa en la gráfica, los aciertos que se dieron en este caso fueron de
100/100, es decir que todos llegaron o se aproximaron al 100% de eficacia, no obstante
7 de las pruebas tuvieron una probabilidad excelentes sin errores mientras que la
prueba que tuvo menos probabilidad fue la de 0,9220; seguida de pruebas de más de
0,99; por lo cual estas pruebas se elevaron al inmediato Superior y tenemos que todas
las pruebas tuvieron una probabilidad excelente el 100% y una eficacia de 1.000000
100

Figura 4. 11 Validación modelo, bdd Muct kernel Lineal

Cómo se observa en la figura 4.11, para la validación del modelo bdd Muct Kernel
Lineal, se obtuvo aciertos de 1350/1515 es decir que no fue totalmente acertado, por
lo que obtuvo una eficacia de 0,891089; debido a que existieron pruebas inferiores y
no cumplieron con las expectativas, es así que la que obtuvo menos probabilidad fue
la de predicción p09 con una probabilidad de 0,0272 seguida de la predicción p04 con
una probabilidad de 0,5065 sin embargo las siguientes pruebas tuvieron un valor
superior a 0, 8139 con lo cual justifica el resultado que se obtuvo de aciertos y eficacia.
101

Figura 4. 12 Validación modelo, bdd Muct kernel Cúbico

En cuanto a la realización de este modelo según la figura 4.12, podemos observar que
de los aciertos según esta imagen fueron de 1353/1515 con una eficacia de 0,893069;
lo cual se justifica debido a que no todas las pruebas tuvieron el puntaje máximo en
probabilidad. Por lo cual la menos puntuada para probabilidad fue la p92 con un valor
de 0,8641 seguida de p07 con valor de 0,9971; sin embargo el resto de aciertos, se
obtuvieron 1,0000; lo cual justifica el valor final de la eficacia que como ya se expuso
fue de 0,893069.
102

Figura 4. 13 Validación modelo, bdd Muct kernel Gaussiano

Finalmente en esta última figura 4.13, podemos observar que se obtuvieron aciertos de
1347/1515 con una eficacia de 0,88 9109; debido a que sólo dos de las pruebas tuvieron
un puntaje máximo que es de 1,0000; seguido de valores inferiores como el que se
obtuvo en p09 con un valor de 0,0316 que fue la prueba con menos puntuada para la
probabilidad seguida de la prueba P04 con un valor de 0,5685; por lo que es de
mencionarse que el resto de pruebas tuvieron valores superiores a 0,8460 pero
inferiores a 1,0000; lo cual justifica que se haya obtenido una eficacia de 0,889109

Los resultados obtenidos de la validación del modelo se resumen en la tabla 4.1

Tabla 4. 1 Resumen de validación cruzada a los modelos de aprendizaje generados


KERNEL GAUSSIANO
BASES DE DATOS KERNEL LINEAL (%) KERNEL CUBICO (%)
(%)
FERET 100 100 100
MUCT 89,1 89,3 88,9

En base al resumen de validación cruzada realizada en la etapa de entrenmiento, se


establece que los tres kernels (lineal, cúbico y gaussiano) alcanzan un máximo del
103

100%, con la base de datos FERET, superando totalmente al trabajo realizado con
MUCT, posiblemente se deba a la mejor resolución de las figuras de la primera data.

4.5 Descripción de los experimentos y sus resultados

En la realización del entrenamiento y pruebas, se utilizaron un total de 200 rostros


correspondientes a 20 personas, parte de la base FERET y 1515 correspondientes a
101 personas de la base MUCT. Respecto a la dataset FERET, se separó 5 imágenes
para la etapa de entrenamiento y 5 imágenes para pruebas por cada persona, mientras
que de la base MUCT se seleccionó 12 imágenes para entrenamiento y 3 para pruebas
por cada persona.

A continuación, se presenta en la tabla 4.2, un resumen de los resultados que


obtenemos en la fase de identificación (prueba) de la clase al que pertenece cada uno
de los caras humanas de la data FERET seleccionados para la prueba a través de los
kernels Lineal, Cúbico y Gaussiano, en total se realizaron 300 pruebas con los kernels
mencionados.

Tabla 4.2 Resumen de resultados con Bdd FERET

25 imágenes 50 imágenes 75 imágenes 100 imágenes


KERNELS
# de aciertos # de aciertos # de aciertos # de aciertos

Kernel_Lineal 25 50 72 95
Kernel_Cúbico 23 46 68 92
Kernel_Gaussiano 25 50 72 96

La tabla 4.2 presenta los resultados obtenidos sobre la identificación de la clase a la


que pertenece, como se visualiza, se realizó un total de 100 pruebas por cada kernel
con un total de 300 pruebas con rostros correspondientes a la base de datos FERET.
Obteniendo un mayor número de aciertos con el kernel Gaussiano con 96 aciertos y
un mínimo de 92 aciertos con el kernel cúbico de un total de 100. Cabe anotar que las
pruebas se realizaron en una forma aleatoria con respecto al número de la clase, para
ello se utilizó la función aleatoria de Microsoft Excel (ver anexos 4, 5 y 6).
104

Finalmente, los resultados presentados están divididos en 4 rangos o intervalos, tales


como: (1-25, 26-50, 51-75, 76-100) imágenes con el fin de ir visualizando como va
variando el número de aciertos. Estos resultados obtenidos en la tabla 4.2 se lo presenta
en modo porcentual en la tabla 4.3, el mismo que se lo puede visualizar gráficamente
en la figura 4.13 para su respectivo análisis.

Tabla 4.3 Porcentaje de reconocimiento de clases con Bdd FERET


100
KERNELS 25 imágenes 50 imágenes 75 imágenes
imágenes

Kernel_Lineal
(%) 100,0 100,0 96,0 95,0
Kernel_Cúbico
(%) 92,0 92,0 90,7 92,0
Kernel_Gaussiano
(%) 100,0 100,0 96,0 96,0

La tabla 4.3 muestra los resultados anteriores de reconocimiento en una forma


porcentual, la misma que figura el kernel Gaussiano con un 96,0% que corresponde al
mayor acierto obtenido en las pruebas y un mínimo del 92% con el kernel cúbico.
105

% DE RECONOCIMIENTO SEGUN
KERNEL APLICADO - BDD FERET
102.0

100.0

98.0
Porcentaje de reconocimiento

96.0

Kernel_Lineal (%)
94.0
Kernel_Cúbico (%)

92.0 Kernel_Gausiano (%)

90.0

88.0

86.0
25 50 75 100
Imágenes Imágenes Imágenes Imágenes

Figura 4.14 Porcentaje de reconocimiento de clases con Bdd FERET

En la figura 4.14 nos permite visualizar la tendencia de la trayectoria de las curvas, sea
variable o constante en función del porcentaje de acierto. De acuerdo a los resultados,
en el intervalo de 50-75 los tres kernels: Lineal, cúbico y gaussiano sufren una baja en
cuanto a los aciertos, a partir de la prueba 76 el kernel gaussiano mantiene una
trayectoria constante por el orden del 96% hasta el final, mientras el lineal mantiene
una tendencia de bajada, mientras el kernel cúbico a partir de la prueba 76 tiene una
tendencia de subida hasta el final.

De idéntica manera se presenta en la tabla 4.4, un resumen de los resultados obtenidos


en la validación de fase de identificación (pruebas) de la clase al que pertenece cada
uno de los rostros de las bases de datos MUCT seleccionados para la prueba a través
de los kernels Lineal, Cúbico y Gaussiano.
106

Tabla 4.4 Resumen de resultados con Bdd MUCT


RECONOCIMIENTO DE CLASES SEGUN KERNEL APLICADO - BDD
MUCT
50 100 150 200 250 303
imágenes imágenes imágenes imágenes imágenes imágenes
KERNELS
# de # de # de # de # de # de
aciertos aciertos aciertos aciertos aciertos aciertos
Kernel_Lineal 50 98 140 182 226 271
Kernel_Cúbico 50 95 141 188 233 284
Kernel_Gaussiano 50 99 141 185 229 274

La tabla 4.4, presenta los resultados obtenidos sobre la identificación de la clase a la


que pertenece, se realizó un total de 303 pruebas por cada kernel con un total de 909
pruebas con rostros correspondientes a la base de datos MUCT. Obteniendo un mayor
número de aciertos con el kernel Cúbico con 284 aciertos y un mínimo de 271 aciertos
con el kernel lineal de un total de 303. Cabe anotar que las pruebas se realizaron en
una forma aleatoria con respecto al número de la clase, para ello se utilizó la función
aleatoria de Microsoft Excel (ver anexos 7, 8 y 9). Finalmente, los resultados
presentados están divididos en 6 rangos o intervalos, tales como: (1-50, 51-100, 101-
150, 151-200, 201-250 y 251-303) imágenes con el fin de ir visualizando como va
variando el número de aciertos. Estos resultados obtenidos se lo presenta en modo
porcentual en la tabla 4.5 al mismo tiempo que se lo puede visualizar gráficamente en
la figura 4.15 para su respectivo análisis.
107

Tabla 4.5 Porcentaje de reconocimiento de clases con Bdd MUCT


% DE RECONOCIMIENTO DE CLASES SEGUN KERNEL APLICADO
BDD MUCT
50 100 150 200 250 303
KERNELS
imágenes imágenes imágenes imágenes imágenes imágenes

Kernel_Lineal
(%) 100,0 98,0 93,3 91,0 90,4 89,4
Kernel_Cúbico
(%) 100,0 95,0 94,0 94,0 93,2 93,7
Kernel_Gaussiano
(%) 100,0 99,0 94,0 92,5 91,6 90,4

La tabla 4.5 muestra los resultados anteriores de reconocimiento en una forma


porcentual, la misma que figura el kernel Cúbico con un 93,7% que corresponde al
mayor acierto obtenido en las pruebas y un mínimo del 89,4% con el kernel lineal.

% DE RECONOCIMIENTO SEGUN
KERNEL APLICADO - BDD MUCT
102.0

100.0

98.0
Porcentaje de reconocimiento

96.0

94.0
Kernel_Lineal (%)
92.0
Kernel_Cúbico (%)
90.0
Kernel_Gausiano (%)
88.0

86.0

84.0

Figura 4.15 Porcentaje de reconocimiento de clases con Bdd MUCT


108

En la figura 4.15 nos permite visualizar la tendencia de la trayectoria de las curvas, sea
variable o constante en función del porcentaje de acierto. De acuerdo a los resultados,
los kernels: Lineal y gaussiano mantienen una trayectoria con tendencia a la baja
durante todo el proceso de las pruebas, mientras el kernel cúbico presenta una
trayectoria con tendencia a seguir subiendo con respecto de los aciertos a partir de la
prueba No. 250.

4.6 Discusión de los resultados

De acuerdo al modelo presentado en la figura 4.3 se procede con los experimentos para
la fase de entrenamiento y pruebas. Para el mismo se utilizan las bases de datos FERET
y MUCT. En las tablas 4.2 y 4.4 se muestran los resultados realizados para cada una
de las bases de datos por cada kernel utilizado dentro del SVM. Es decir que para el
presente estudio, se procedio a realizar experimentos con los modelos propuestos para
el desarrollo del estudio; con lo que al finalizar la fase de pruebas, se pudo obtener
buenos resultados; pues como se muestra en la tabla 4.1, se obtuvo un puntaje de 100%
con la base de datos de Ferret, en sus validaciones de Kernel Lineal, Kernel Cúbico y
Kernel Gaussiano; lo que no ocurrió con la base de datos de MUCT, puesto que aquí
se otuvieron ciertas diferencias como 89,1% para Kernel Lineal; 89,3% para Kernel
Cúbico, y 88,9 para Kernel Gaussiano.

No obstante y como ya se referenció, de acuerdo a la obtención de resultados, se


contempla que con la base de datos FERET, se obtiene un mayor acierto de
reconocimiento (96%) con el kernel Gaussiano, teniendo en cuenta que, la prueba se
realizó con 100 imágenes correspondientes a 20 personas, con un total de 300 pruebas
con los 3 kernels; que por lo contrario ocurrió con Kernel Cúbico, pues este fue el de
menor puntage con 100 imágenes, ya que obtuvo un porcentaje del 92% como
resultados de la pruebas; sin embargo, es de resultados similares para menor cantidad
de imagenes, pues en todas las pruebas según número de imágenes, la de menor
porcentaje, resultó ser la de kernel cúbico, como se ilustra en la tabla 4.2

Por otro lado, lo contrario ocurrió con la base de datos MUCT, pues se obtiene un
mayor acierto de reconocimiento con un 93,7% para el kernel cúbico, en donde, la
109

prueba se realizó con 303 imágenes correspondientes a 101 personas, con total de 909
pruebas con los 3 kernels; por lo cual, es claro que para esta ocación, se utilizó una
mayor cntidad de imágenes; con lo que se pudo determinar que obtuvo mejor
porcentaje fue la de kernels cúbico con 303 imágenes; miemtras que la menor puntuada
en las mismas catacteristicas fue la de Kernel Lineal, por lo que, al analizar los
resultados se puede determinar que mientras mayor cantidad de imágenes se
integraban en la prueba, mejores resultados obtenia el kernel cúbico; y mientras menos
imágenes se integran, fue el Kernel Gaussiano que tenia mejor puntuación con 99 para
100 imágenes, seguido por kernel lineal con 98 en las mismas características con 100
imágenes; por lo que los resultados varian según el número de imágenes como se
indica en la tabla 4.4.

Finalmente, se realiza una comparación otros experimentos que funcionan con


métodos de [21]: cuantificación de fase local (LPQ), muestreo descendente (DS), los
patrones binarios locales (LBP) y Gabor, todos combinados con SVM. Un resumen de
esta comparación se indica en la tabla 4.6

Tabla 4. 6 Resumen de comparación con otros trabajos relacionados


reconocimiento
Porcentaje de
Base de datos
Métodos

LBP+SVM (Sun,
Zhao, & Jin, 2018) RAFD-FRONT 86,50%

Gabor+SVM (Sun et
al., 2018) RAFD-FRONT 83,10%

LPQ+SVM (Sun et
al., 2018) RAFD-FRONT 84,80%

DS+SVM (Sun et al.,


2018) RAFD-FRONT 79,00%

La presente
FERET 96,00%
investigación
La presente
MUCT 93,70%
investigación
110

En las comparaciones realizadas, es visible que nuestro método que consiste en


trabajar con la base de datos FERET y MUCT, luego de filtrar y extraer características
para finalmente realizar la clasificación ha resultado ser muy sólido con respecto a los
trabajos revisados anteriormente.
111

CAPITULO V: TECNICA EFICIENTE PARA


RECONOCIMIENTO FACIAL GLOBAL EN 3D

En el presente capítulo, se procede a detallar la técnica eficiente a utilizarse, para el


reconocimiento facial en 3D; para lo cual, se toma en cuenta la base de datos de
TEXAS3DFRD y BU-3DFE

5.1 Selección y justificación de las tecnologías para reconocimiento facial 3D

5.1.1 Bases de datos 3D seleccionados

Existen dos tipos de datos para procesamiento de imágenes faciales en 3D:

a) Imágenes faciales 3D con puntos de referencia.


Uno de los métodos utilizados para tratar imágenes de 3D, son los puntos de
referencia, conocidos como puntos fiduciarios. Se indica en la Fig. 5.1

Figura 5. 1 Puntos fiduciales antropométricos (a) en una imagen en color, y (b) en una imagen de
rango
Fuente: Extraído de (Castleman, Markey, & Bovik, 2010)
112

Estos puntos fiduciarios fueron ubicados manualmente en las imágenes de


color facial utilizando una interfaz gráfica de usuario basada en computadora
para motivos de estudio por otros investigadores. (Castleman et al., 2010)

b) Imágenes faciales 3D con máscaras

Para la segunda parte de este capítulo, se considera modelos de caras en 3D,


estos modelos que representan rostros humanos fueron proyectados a los tres
planos (x-z), (y-z) y (z-x), una parte del código en Matlab 2015 de la función
creada para obtener estas perspectivas se indica en el Anexo 15; en el mismo
que se puede visualizar como la aplicación hace un llamado de la imagen la
convierte en 2D y la almacena temporalmente en un directorio; lo mismo lo
hace con cada plano; para finalmente volver a tomar todos estos planos y
obtener una figura en 3D

Los modelos faciales 3D se han utilizado ampliamente para el reconocimiento


facial 3D y la animación facial 3D, no obstante, se desconoce la utilidad de
dichos datos para el reconocimiento de expresiones faciales 3D; sin embargo,
con la finalidad de fomentar la investigación en este campo, se creo una base
de datos de expresión facial en 3D (llamada base de datos BU-3DFE), que
incluye 100 sujetos con 2500 modelos de expresión facial; la misma que está
disponible para la comunidad investigadora, por lo que, las áreas de interés
provienen de áreas tan diversas como la informática afectiva, la visión por
computadora, la interacción con la computadora humana, la seguridad, la
biomedicina, la aplicación de la ley y la psicología. (Yin,et al, 2010)

Teniendo en cuenta que, a pesar de que, los humanos usan las expresiones
faciales con éxito para transmitir sus estados emocionales; replicar tal éxito en
el dominio de interacción humano-computadora es un problema de
investigación activa. (Oyedotun, Demisse, El, & Shabayek, 2017)

Hay que tomar en cuenta que, al referirse a la extensión WRL; es indispensable


mencionar que es el formato estándar para gráficos vectoriales 3D interactivos;
por lo cual, los archivos WRL tienen un contenido de la descripción de la
113

realidad virtual, la cual incluye investigación como el punto de partida de la


vista 3D, coordenadas, objetos, colores, texturas, propiedades de los elementos
de la escena, así como objetos y los modos de las escenas; en otras palabras
nos permite una correcta forma de identificarlos (Filextensions, 2020).

El objetivo de este proceso es obtener proyecciones en 2D para posteriormente


aplicar el mismo modelo del primer aporte en el proceso de reconocimiento de
rostros. El resultado obtenido se muestra en la figura 5.2

Figura 5. 2 Proyección de un modelo 3D a los planos (x-z), (y-z) y (z-y)

A continuación, las bases de datos seleccionadas son:


114

En lo que respecta a la selección de las bases de datos 3D, se trabaja con dos muy
importantes como TEXAS3DFRD (Gupta et al., 2010b) y BU-3DFE (X. Li, Ruan, Jin,
et al., 2015), (L. Yin, X. Wei, Y. Sun, J. Wang, 2006), (Yin,et al, 2010).

La primera TEXAS3DFRD (Gupta et al., 2010b), contiene personas adultas tomando


en cuenta su expresión, género y claridad de la imagen, con una resolución de 751 x
501 x 3 pixeles, la misma que contiene 1149 imágenes reprocesadas de alta resolución,
presentan imágenes de color y rango normalizadas, preprocesadas y perfectamente
alineadas de 118 sujetos humanos adultos adquiridos usando una cámara estéreo. Las
imágenes representan el género, la etnia y la expresión facial de los sujetos, de los
cuales por casos de estudio utilizamos imágenes correspondientes a 50 personas, dando
un total de 908 imágenes entre portada y rango para el entrenamiento y 183 para las
pruebas, con cada uno de los tres kernels indicados anteriormente. Un fragmento de la
base de datos se muestra en la Figura 5.3

Figura 5. 3 Imágenes preprocesadas (a) de color y (b) de rango de la Base de datos Texas 3DFRD
Fuente: Extraído de (Castleman et al., 2010)
115

La segunda base de datos es BU-3DFE (Yin,et al, 2010), se da debido a que, las
mismas contienen una amplia variedad de datos con características propias de diversas
etnias, lo cual es imprescindible, ya que con ello asegura una mejor probabilidad de
aciertos, a lo cual los creadores de estas base de datos mencionan que la misma
contiene actualmente 100 sujetos, de los cuales por razones de estudio se optó en
trabajar con 50 personas, correspondiendo 25 modelos de caras por cada persona en
formato *.wrl con un total de 1250 modelos con características de expresión y género.
Una parte de estas bases se indica en las Figuras 5.4 y 5.5 respectivamente.

Figura 5. 4 Base de datos TEXAS3DFRD


Fuente: Extraído de (Castleman et al., 2010)
116

Figura 5. 5 Base de datos BU-3DFE


Fuente: Extraído de (Oyedotun et al., 2017), (Yin,et al, 2010)

5.1.2. Algoritmos de extracción de características y de clasificación 3D

La técnica de extracción de características en imágenes se fundamenta en separar


información asociada con la activación de los diversos músculos de la cara, esta tarea
puede hacerse de manera global en donde se analice la cara humana como un conjunto
único, para el caso de esta investigación. (Castrillon et al., 2008).
117

De los algoritmos revisados, se ha seleccionado wavelet de Gabor para filtrar y extraer


características de la base de datos TEXAS3DFRD y de las perspectivas obtenidas de
los modelos 3D de BU-3DFE, por cuanto es muy utilizado por los buenos resultados
obtenidos según la literatura revisada. (Barina, 2016).

No obstante, de acuerdo a los fundamentos de la transformación de Wavelet de Gabor ;


la transformación ha sido la herramienta más utilizada para analizar la frecuencia de
propiedades de una señal dada, mientras que después de la transformación, la
información sobre el tiempo, es difícil saber dónde ocurre una determinada frecuencia;
por lo que con la finalidad de solucionar el problema, se usan distintos tipos de técnicas
de análisis de frecuencia de tiempo, ya que es bien sabido que cuando la duración del
tiempo aumenta (Chao, 2017).

Las propiedades de resolución múltiple y orientación múltiple de Gabor; así como la


transformación wavelet lo convierte en un método popular para la extracción de
características incluso si existe la no ortogonalidad intrínseca; debido a que, entre todas
las obras basadas en Galet wavelet face muestran que el reconocimiento y la
representación de texturas son las aplicaciones más notables, mientras que al utilizar
las wavelets de Gabor principalmente para la extracción de características; teniendo a
Matlab por sus características permite la representación de características, no obstante
las aplicaciones siguen siendo espacios para futuras investigaciones. (Chao, 2017).

En cuanto, a las funciones seleccionadas con el código respectivo para el filtrado y


extracción de características de Gabor, se utilizó aquellos que vienen incorporadas en
la aplicación Matlab versión R2015a para 64 bits, lo que, que permitió realizar todo el
proceso de entrenamiento y pruebas en 3D con las dos bases de datos ya mencionados.

La clasificación de patrones consiste en asignar las diversas partes del vector de


caracteres a grupos o clases, basándose en las formas separadas. Esta parte corresponde
a lo que se conoce como aprendizaje automático, cuya razón es desarrollar diversas
técnicas que permitan aprender a las computadoras.

Para la presente investigación, se trabaja con el clasificador de patrones, Máquina de


vectores de soporte (SVM) con sus kernels: cúbico, lineal y gaussiano.
118

Finalmente, es de explicarse que, Matlab es una aplicación muy sólida en el


tratamiento de imágenes, por lo cual es indispensble utilizarla como herramienta
necesaria para estos estudios; puesto que las mismas que son convertidas a tablas
matriciales de valores, finalmente resulta manejable para aplicar los diferentes filtros
y kernels que vienen incorporados en el mismo. Con respecto al hardware, la
aplicación se lo ha ejecutado en una máquina laptop hp, procesador Intel Core i5, 2.4
Ghz.

5.2 Modelo propuesto para reconocimiento en imágenes 3D

5.2.1 Modelo de imágenes facial 3D-2D con puntos de referencia

En la figura 5.6 se muestra un modelo propuesto para reconocimiento facial en 3D, en


el mismo que se plantea la utilización de la base de datos TEXAS3DFRD (Gupta et
al., 2010b), (Dow, Shishir, & Loannis, 2017) que trabaja con rostros en 3D
reprocesadas y mas robustas para aplicar el proceso de filtrado, extracción de
características y clasificación.

Para la realización de este proceso de reonocimiento, se plantea un modelo que


contempla dos etapas principales: entrenamiento y pruebas, el mencionado modelo se
lo indica en la figura 5.6.
119

Figura 5. 6 Modelo de reconocimiento facial 3D TEXAS3DFRD

Componentes del modelo de reconocimiento facial por etapas en 3D

 Etapa de entrenamiento

En la etapa de entrenamiento incluyen varios componentes entre los cuales se


encuentran: Filtrado de extracción de características por Gabor, en el cual como ya se
había explicado anteriormente se da una extracción de las características qué contiene
la base de datos y se asemejan a las características de la prueba, seguido de una
clasificación de patrones SVM, en la cual se produce primero una ordenación de las
características según su importancia para la clasificación mediante el algoritmo luego
clasifica cada imagen muestra usando todas las características en el orden obtenido
anteriormente mediante el método, finalmente se obtiene la tasa correcta de
clasificación para cada caso; y a continuación se integran los componentes de
generación del modelo validación cruzada y una identificación qué es el
reconocimiento.
120

 Etapa de prueba

La etapa de prueba al igual que la de entrenamiento contiene como componentes el


filtrado y extracción de características de Gabor, clasificación de características
obtenidas y la identificación de la clase para obtener el nombre de misma y finalmente
poder validar si fue correcto o incorrecto la identificación.

Al igual que en el primer aporte de este trabajo, se presenta un modelo de


reconocimiento facial en 3D (ver figura 5.6) el mismo que hace referencia a una serie
de procesos que se agrupa en 2 etapas principales que son la de entrenamiento y
pruebas, en las dos etapas se cumplen los mismos procesos, pero con diferentes
imágenes de una misma base de datos. Este modelo tiene los siguientes componentes
y procesos importantes que se la describe a continuación:

Base de datos.- Se cuenta con la base de rostros TEXAS3DFRD (Gupta et al., 2010b),
(Dow, Shishir, & Loannis, 2017), la misma que contiene un conjunto de imágenes
reprocesadas. El reprocesado de imágenes consiste en preparar una imagen en 3D, para
convertirlo en una forma útil para el reconocimiento facial, eliminando pequeñas
regiones extrañas que no estan unidas a la región de la cara, por ejemplo, puede ser
unos collares, para ello se procede a normalizar y detectar la región frontal como la
más grande, seguidamente se elimina las pequeñas cantidades de ruido de impulso
presentes en el rango de imágenes.

Filtrado y extracción de características. - es un conjunto de métodos que asignan


entidades de entrada a nuevas entidades de salida. Lo cual permite apartar
características como objetos, colores, texturas, coordenadas, propiedades de los
elementos faciales.

Vector de características.- Todas las características principales extraídas en el proceso


anterior son almacenadas en vectores, de allí su nombre de vectores características;
es decir que se reconocen características especiales como dimensiones y formas de
nariz, ojos, boca, pómulos, entre otros.

Clasificación.- Proceso que trata de asignar las diversas partes del vector de
características a grupos o clases, basándose en las propiedades extraídas anteriormente.
121

En esta etapa se tiene como objetivo desarrollar técnicas que permitan a las
computadoras aprender. Para nuestro caso se trabajó con el clasificador Máquina de
vectores soporte (SVM), a través de kernels o funciones: Lineal, cúbico y gaussiano.
Finalmente viene la etapa de reconocimiento, ya en la fase de pruebas, que consiste en
identificar la imagen ingresada a que clase corresponde, donde se valida sí la
identificación es correcta o incorrecta.

5.2.2 Modelo de imágenes facial 3D-2D con máscaras

El modelo de reconocimiento facial en 3D se implementa con la base de datos BU-


3DFE, y es muy parecido a los modelos anteriores, pero con una importante diferencia
acerca de las proyecciones del modelo o máscara a los tres planos x-z, y-z y z-y, como
se indica en la figura 5.7

Figura 5. 7 Modelo de reconocimiento facial 3D con BU-3DFE

Componentes del modelo de reconocimiento facial por etapas

 Etapa de entrenamiento

La etapa de entrenamiento para el modelo de reconocimiento facial 3D con BU-3DFE


tiene varios componentes los cuales incluyen proyecciones en los planos seguido del
filtrado de rostros en el cual se da una extracción de características con wavelets de
122

Gabor, una vez obtenido los vectores características se procede con la clasificación
utilizando máquina de vectores soporte o svm a través de los kernels lineal, cúbico y
gaussiano, para proceder con la validación el modelo generado a través de la validación
cruzada.

 Etapa de prueba

Para la etapa de pruebas se inicia con el component del filtrado de rostros y extracción
de características por wavelets de Gabor, seguido de una clasificación de estos vectores
características para finalmente dar una identificación de reconocimiento de lo cual se
determinará si la clase identificada es correcta o nó

En cuanto al segundo caso de reconocimiento 3D, se trabaja con la base de datos BU-
3DFE, utilizando una interfaz semejante, pero con un algoritmo para leer modelos de
rostros en 3D con formato vmrl (*.wrl), estos modelos son proyectados a los planos x-
z, y-z y z-y respectivos, una parte de este proceso se indica en la figura 5.8 y parte de
su código en el Anexo 15.

Figura 5.8 Proyección de un modelo de cara 3D en los planos

Una vez proyectado en los planos, estos son procesados como una imagen en 2D, por
tanto, el proceso a continuación es similar al experimento anterior con
TEXAS3DFRD, es decir las áreas resultantes de la proyección son filtrados, extraído
123

sus características y finalmente clasificados para la etapa de identificación


(reconocimiento).

5.3 Validación del modelo obtenido

5.3.1 Validación del modelo con base de datos TEXAS3DFRD


En cuanto a la validación cruzada del modelo, y con la finalidad de verificar el grado
de confianza que tiene este modelo, se procede por validación cruzada como ya se lo
mencionó con anterioridad, por lo que, para una mejor vizualización, parte de los
resultados obtenidos con las dos bases de datos y sus respectivos kernels se indican en
las figuras que van desde la 5.9 hasta la 5.11. Es así que al finalizar la validación, se
pudieron obtener los resultados que son expuestos en la tabla 5.1 del presente
documento.
124

Figura 5. 9 Validación modelo, bdd TEXAS3DFRD, kernel lineal

En la figura 5.9 se observa una eficiencia de validación del 89,5%, este valor
corresponde al promedio de los valores que acreditados como “ok”, es decir que las
clases se corresponden y multiplicado por 100 para ser expresado como un porcentaje
de eficiencia.
125

Figura 5. 10 Validación modelo, bdd TEXAS3DFRD kernel cúbico

De igual manera, en la figura 5.10 se observa una eficiencia de validación del 99,5%,
es decir logro acertar en reconocimiento 904 imágenes de 908. Este valor de eficiencia
se obtiene al promediar los valores acreditados como “ok”, es decir que las clases se
corresponden y luego multiplicado por 100 para ser expresado como un porcentaje de
eficiencia.
126

Figura 5. 11 Validación modelo, bdd TEXAS3DFRD kernel Gaussiano

Finalmente, en la figura 5.11 se observa una eficiencia de validación del 87,4%, es


decir logro acertar en reconocimiento 794 imágenes de 908. Este valor de eficiencia
se obtiene al promediar los valores acreditados como “ok”, es decir que las clases se
corresponden y luego multiplicado por 100 para ser expresado como un porcentaje de
eficiencia.
127

5.3.2 Validación del modelo con base de datos BU-3DFE

En cuanto a la validación del modelo, está realizado por validación cruzada, parte de
los resultados obtenidos con las dos bases de datos y sus respectivos kernels se indican
en las figuras: 5.12, 5.13 y 5.14

Figura 5. 12 Validación modelo, bdd BU-3DFE kernel lineal

En la figura 5.12 se observa una eficiencia de validación del 87,3%, es decir logró un
acierto de 917 imágenes de 1050. Este valor de eficiencia se obtiene al promediar los
valores acreditados como “ok”, es decir que las clases se corresponden y luego
multiplicado por 100 para ser expresado como un porcentaje de eficiencia.
128

Figura 5. 13 Validación modelo, bdd BU-3DFE kernel cúbico

En la figura 5.13 se observa una eficiencia de validación del 98,0 %, es decir logró un
acierto de 1029 imágenes de 1050. Este valor de eficiencia se obtiene al promediar los
valores acreditados como “ok”, es decir que las clases se corresponden y luego
multiplicado por 100 para ser expresado como un porcentaje de eficiencia.

Figura 5. 14 Validación modelo, bdd BU-3DFE kernel Gaussiano


129

En la figura 5.14 se observa una eficiencia de validación del 94,3 %, es decir logró un
acierto de 990 imágenes de 1050. Este valor de eficiencia se obtiene al promediar los
valores acreditados como “ok”, es decir que las clases se corresponden y luego
multiplicado por 100 para ser expresado como un porcentaje de eficiencia.

Los resultados obtenidos sobre la validación del modelo se resumen en la tabla 5.1

Tabla 5. 1 Resumen de validación cruzada aplicada al modelo generado por la clasificación


realizada por el SVM y sus Kernels

KERNEL GAUSSIANO
BASES DE DATOS KERNEL LINEAL (%) KERNEL CUBICO (%)
(%)
TEXAS3DFRD 89,5 99,6 87,4
BU-3DFE 87,3 98,0 94,3

De los datos presentados en la tabla 5.1, se concluye que bajo la base de datos BU-
3DFE, se obtienen en general mejores resultados, sin embargo el valor máximo
obtenido de la validación cruzada en el entrenamiento con el kernel cúbico se llega a
un 99,6% trabajando con la base de datos TEXAS3DFRD. Finalmente algo muy
importante, observar que el kernel cúbico resulta muy eficaz en los ambos casos, por
los resultados altos obtenidos.

5.4 Descripción de los experimentos y sus resultados

5.4.1 Descripción de los experimentos y sus resultados con BDD TEXAS3DFRD


Se procede a realizar los experimentos a través de la interfaz que se indica en el Anexo
10, la misma que contempla dos fases de entrenamiento y pruebas, para lo cual se
utilizan la base de datos TEXAS3DFRD, con 908 imágenes de rostros para la fase de
entrenamiento y 183 para la fase de pruebas, las mismas que corresponden a diferentes
edades, color de piel y género, como se resume en figura 5.13
130

Figura 5.15 Bdd TEXAS3DFRD


Fuente: Extraído de (Gupta et al., 2010b)

En la tabla 5.2 se muestra el resultado obtenido en cuanto a la fase de prueba para cada
kernel utilizado por el algoritmo SVM. De acuerdo a las pruebas realizadas con la
aplicación diseñada, y analizando los resultados obtenidos, se observa que con el
kernelk cúbico, se obtiene un mayor acierto de reconocimiento.

Tabla 5.2 Resumen de resultados con Bdd TEXAS3DFRD


RECONOCIMIENTO SEGUN KERNEL APLICADO_BDD_TEXAS
50 100 150 183
KERNELS imágenes imágenes imágenes imágenes
# aciertos # aciertos # aciertos # aciertos
Kernel_Lineal 42 85 132 162
Kernel_Cúbico 50 97 147 180
Kernel_Gaussiano 40 82 124 150

La tabla 5.2 presenta los resultados obtenidos acerca de la identificación de la clase a


la que pertenece la persona, en esta prueba se realizó un total de 183 pruebas por cada
kernel con un total de 549 pruebas con rostros del dataset TEXAS3DFRD, obteniendo
un mayor número de aciertos con el kernel Cúbico con 180 aciertos y un mínimo de
150 aciertos con el kernel gaussiano de un total de 183. Cabe anotar que las pruebas
se realizaron en una forma aleatoria con respecto al número de la clase, para ello se
utilizó la función aleatoria de Microsoft Excel (ver anexos 11, 12 y 13). Finalmente,
131

los resultados presentados están divididos en 4 rangos o intervalos, tales como: (1-50,
51-100, 101-150, 151-183) imágenes con el fin de ir visualizando como va variando
el número de aciertos.

Estos resultados obtenidos se indican en modo porcentual en la tabla 5.3, al mismo


tiempo que se lo puede visualizar gráficamente en la figura 5.16 para su respectivo
análisis.

Tabla 5.3 Porcentaje de reconocimiento de clases con Bdd TEXAS3DFRD


% DE RECONOCIMIENTO SEGUN KERNEL APLICADO_BDD_TEXAS
183
KERNELS 50 imágenes 100 imágenes 150 imágenes
imágenes
Kernel_Lineal
(%) 84,0 85,0 88,0 88,5
Kernel_Cúbico
(%) 100,0 97,0 98,0 98,4
Kernel_Gaussiano
(%) 80,0 82,0 82,7 82,0

La tabla 5.3 muestra los resultados anteriores de reconocimiento en una forma


porcentual, la misma que figura el kernel Cúbico con un 98,4% de acierto que
corresponde al mayor acierto obtenido en las pruebas y un mínimo del 82% con el
kernel gaussiano.
132

% DE RECONOCIMIENTO SEGUN KERNEL


APLICADO_BDD_TEXAS
120.0
Porcentaje de reconocimiento

100.0
80.0
Kernel_Lineal (%)
60.0
Kernel_Cúbico (%)
40.0
Kernel_Gausiano (%)
20.0
0.0
50 Imágenes 100 150 183
Imágenes Imágenes Imágenes

Figura 5.16 Porcentaje de reconocimiento de clases con Bdd TEXAS3DFRD

La figura 5.16 permite visualizar la tendencia de la trayectoria de las curvas, sea


variable o constante en función del porcentaje de acierto. De acuerdo a los resultados
obtenidos, al principio el kernel cúbico en las primeras pruebas tiende a la baja, pero
a partir de las 100 primeras imágenes toma una trayectoria constante por sobre los 98%
aproximadamente. Mientras que el kernel lineal sigue una trayectoria de subida
durante el intervalo 101-150 imágenes, a partir de este último toma una trayectoria casi
constante por encima de los 88% aproximadamente.

5.4.2 Descripción de los experimentos y sus resultados con BDD BU-3DFE

En cuanto a la descripción del experimento se la realizó a través de la interfaz que se


indica en el Anexo 14, respecto al trabajo con la segunda base de datos, se cuenta con
50 personas, cada persona cuenta con 7 modelos 3D con sus diferentes expresiones,
niveles de intensidad y género, para su entrenamiento, como se ilustra un ejemplo en
la figura 5.17, dando un total de 350 modelos.
133

Figura 5.17 Bases de datos BU-3DFE


Fuente: Extraído de (Oyedotun, Demisse, El, & Shabayek, 2017), (Yin,et al, 2010)

Respecto a la etapa de pruebas, sus resultados fueron registrados en una tabla de Excel
(ver anexos 17, 18 y 19), mientras que un resumen se indica en la tabla 5.4, la base de
datos fue probada con 150 modelos por cada kernel, teniendo un acierto de 130 y 20
deshaciertos con el kernel lineal, además un total de 146 aciertos, 4 deshaciertos con
el kernel Cúbico y finalmente un total de 135 aciertos, 15 deshaciertos con el kernel
Gaussiano, concluyendo con esto que el kernel cúbico resulta el mejor.

Tabla 5.4 Resultados según la base de datos BU-3DFE


RECONOCIMIENTO SEGUN KERNEL APLICADO_BDD_BU-3DFE
25 50 75 100 125 150
imágenes imágenes imágenes imágenes imágenes imágenes
KERNELS
# # # # # #
aciertos aciertos aciertos aciertos aciertos aciertos
Kernel_Lineal 15 38 63 84 105 130
Kernel_Cúbico 21 46 71 96 121 146
Kernel_Gaussiano 17 39 64 86 110 135

La tabla 5.4 muestra los rangos con los que se clasificaron previo al reconocimiento
en la base de datos utilizada, en donde se puede observar que el número de imágenes
de 1-25 se tienen 15 aciertos lineales, 21 aciertos cúbicos y 17 aciertos gaussianos. En
el rango 26-50 se identifican 38 aciertos lineales, 46 aciertos cúbicos y 39 aciertos
gaussianos. En el rango 51-75 se observan 63 aciertos lineales, 71 aciertos cúbicos y
134

64 aciertos gaussianos, igual forma en el rango 76-100 se identifican 84 aciertos


lineales, 96 aciertos cúbicos y 86 aciertos gaussianos, mientras en el rango 101-125 se
identifican 105 aciertos lineales, 121 aciertos cúbicos y 110 aciertos gaussianos y
finalmente en el rango 126-150 se identifican 130 aciertos lineales, 146 aciertos
cúbicos y 135 aciertos gaussianos, el cual se observa que el kernel cúbico aparece con
un alto porcentaje de pruebas correctas.

Tabla 5.5 Porcentaje de reconocimiento aplicando BDD BU-3DFE


% DE RECONOCIMIENTO SEGUN KERNEL APLICADO_BDD_BU-3DFE

1-25 26-50 51-75 76-100 101-125 126-150


KERNELS
imágenes imágenes imágenes imágenes imágenes imágenes

Kernel_Lineal
(%) 60,0 76,0 84,0 84,0 84,0 86,7
Kernel_Cúbico
(%) 84,0 92,0 94,7 96,0 96,8 97,3
Kernel_Gaussiano
(%) 68,0 78,0 85,3 86,0 88,0 90,0

La tabla 5.5 muestra los resultados de reconocimiento en una forma porcentual, la


misma que figura el kernel Cúbico con un 97,3% de acierto que corresponde al mayor
acierto obtenido en las pruebas, un 90% con el kernel Gaussiano y un mínimo del
86,7% con el kernel lineal.
135

% DE RECONOCIMIENTO SEGUN KERNEL


APLICADO_BDD_BU-3DFE
120.0
Porcentaje de reconocimiento
100.0
80.0
60.0
Kernel_Lineal (%)
40.0
Kernel_Cúbico (%)
20.0
Kernel_Gausiano (%)
0.0

Imágenes

Imágenes
Imágenes

Imágenes

Imágenes

Imágenes
100

125

150
25

50

75
Figura 5.18 Porcentaje de reconocimiento de clases con bdd BU-3DFE

La figura 5.18 permite visualizar la tendencia de la trayectoria de las curvas, sea


variable o constante en función del porcentaje de acierto. De acuerdo a los resultados
al inicio el kernel cúbico en las primeras pruebas tiende a la subida, pero a partir de las
101 primeras imágenes toma una trayectoria constante por sobre los 97%
aproximadamente. Mientras que el kernel lineal sigue una trayectoria de subida
durante el intervalo 101-150 imágenes, a partir de este último toma una trayectoria casi
constante por sobre los 85% aproximadamente, finalmente el kernel gaussiano tiene
una trayectoria siempre de subida, sobre los 83% aproximadamente.

5.5 Discusión de los resultados

Con los modelos planteados en la figura 5.6 y 5.7 se realizan los experimentos para la
fase de entrenamiento y pruebas con las bases de datos TEXAS3DFRD y BU-3DFE
antes anotados. En las tablas 5.2 y 5.3 se muestran los resultados obtenidos con cada
base de datos por cada uno de los kernels: lineal, cúbico y gaussiano propios del
clasificador SVM.

De acuerdo a los resultados obtenidos en el primer experimento de reconocimiento


facial 3D con la base de datos TEXAS3DFRD, se obtiene un mayor acierto del 98,4%
con el kernel cúbico y el mínimo con el kernel lineal con un 88,5% de acierto, la prueba
se realizó con 183 imágenes correspondientes a 50 personas, con total de 549 pruebas
con los 3 kernels, como se indica en la tabla 5.2
136

Los resultados obtenidos del experimento realizado se comparan con otros trabajos
relacionados con reconocimiento facial 3D que utilizan la misma base de datos
TEXAS3DFRD. Un resumen de la comparación realizada se indica en la tabla 5.6

Tabla 5. 6 Comparación de resultados con otros trabajos

Porcentaje de
Métodos Base de datos
reconocimiento
Anthroface3D (Song, TEXAS3DFRD 96,8
Luo, Zi, & Tian, 2016)
Curveletface3D (Song et TEXAS3DFRD 97,1
al., 2016)
ACFFR (Song et al.,
2016) TEXAS3DFRD 97,0

Trabajo de Investigación
TEXAS3DFRD 98,4
propuesto

De la comparación de los resultados, se observa que el modelo propuesto demostró un


resultado superior (98,4%) comparado con los trabajos relacionados con el tema, cabe
indicar que todos utilizan la misma base de datos.

De igual manera, respecto del segundo experimento con la base de datos BU-3DFE,
se obtiene un mayor acierto del 97,3% con el kernel cúbico y el mínimo con el kernel
lineal con un 86,7% de acierto, la prueba se realizó con 150 imágenes correspondientes
a 50 personas, con total de 450 pruebas con los 3 kernels, como se ilustra en la tabla
5.3

Los resultados del experimento realizado se compararon con otros trabajos


relacionados con reconocimiento facial 3D. Un resumen de la comparación realizada
se indica en la tabla 5.7
137

Tabla 5. 7 Comparación de resultados con otros trabajos

Porcentaje de
Métodos Base de datos
reconocimiento

Li et al. (X. Li, Ruan,


BU-3DFE 94.56%
An, et al., 2015)

Cai et al. (Cai, Lei,


Yang, You, & Shan, BU-3DFE 99.88%
2019)

Derkach, Sukno
(Derkach & Sukno, BU-3DFE 81.5%
2018)

Hariri et al. (Hariri,


Tabia, Farah,
BU-3DFE 92.62%
Benouareth, &
Declercq, 2017)

Hariri et al. (Hariri et


BOSPHORUS 86.17%
al., 2017)

Li et al. (X. Li, Ruan,


BU-3DFE 93.9%
Jin, et al., 2015)

Savran, Sankur
BOSPHORUS 96.8%
(Savran, 2017)

Savran, Sankur
BU-3DFE 96.1%
(Savran, 2017)

Shi et al. (R, Shi,


Zang, Zheng, & Zhan, CASIA-3D 94.0%
2019)

Trabajo de
Investigación BU-3DFE 97.3%
propuesto

De la comparación de los resultados, se observa que el modelo propuesto demostró


resultados superiores comparando con los trabajos relacionados con el tema. Sin
embargo, apenas fue superado por un trabajo propuesto por Cai (Cai et al., 2019) que
se basa en la misma base de datos. Según la obtención de resultados de los estudios
relacionados anteriores, los investigadores concluyen que los datos obtenidos de las
BDD de imágenes faciales 3D fueron de gran importancia para los experimentos de
reconocimiento facial en 3D.
138

5.6 Comprobación de hipótesis

Planteada la hipótesis, a través del análisis de los resultados obtenidos se puede


confirmar que se obtuvo una eficiencia por encima del 97%, por lo tanto la utilización
de algoritmos de reconocimiento facial global planteados en este modelo resulta ser
eficaz y quedaría comprobado la hipótesis.

5.7 Conclusiones

El proceso de reconocimiento facial en 3D, resulta más eficiente y práctico en estos


tiempos de gran avance tecnológico, pues al momento ya se cuentan con cámaras
digitales 3D de gran resolución que facilitan el proceso de identificación de una
persona.

A pesar de que existe la presencia de limitadas bases de datos de rostros en 3D libre


de costos para la investigación, sin embargo, se presume que muy pronto se abrirán las
puertas por parte de muchos laboratorios proporcionando estas bases para futuras
investigaciones. De acuerdo a los resultados obtenidos, se encuentran resultados muy
buenos, es así que se llega a obtener una eficiencia de reconocimiento del 98,4%, con
imágenes reprocesadas de la base de datos TEXAS3DFRD, mientras que con los
modelos de imágenes 3D de la base de datos BU-3DFE se obtiene un 97,3% de
aciertos.

Dentro de este capítulo tratado sobre imágenes 3D, es necesario destacar que los
rostros 3D ya no dependen de la iluminación y en especial las imágenes de la base de
datos TEXAS3DFRD pasaron en el laboratorio por un proceso de mejora como la
eliminación del ruido, eliminación de algunas regiones sin importancia, y el rellenado
de algunas regiones profundas. Estas operaciones sin lugar a dudas fueron importantes
que influyeron para los resultados obtenidos.
139

CAPITULO VI: CONCLUSIONES Y TRABAJOS FUTUROS

6.1 Conclusiones

 En la presente investigación se establecieron importantes etapas de la


investigación a realizar, partiendo de una profunda revisión literaria a través de
importantes motores de búsqueda de bases de datos como Science direct,
Scopus, Dialnet, IEEE, Web of Science, etc.
 Con la revisión literaria se establecieron las bases de datos, algoritmos de
extracción de características y clasificadores más adecuados para conseguir
una técnica eficiente en el proceso de identificación de la clase a la que
corresponde, en nuestro caso se trabajó con los waveles de Gabor y el
clasificador SVM con sus kernels lineal, cúbico y gaussiano, a la vez también
fue necesario contar con algunas bases de datos de rostros, muy necesario para
realizar los entrenamientos y pruebas, en el caso de rostros en 2D se encontró
en línea tales como: FERET y MUCT, mientras que resultó complejo adquirir
bases de datos de rostros en 3D, sin embargo se encontró a TEXAS3DFRD y
con bastante dificultad a BU-3DFE, que dio lugar a la posibilidad de una
variada selección, aspecto que se convierte en una ligera ventaja dentro del area
de reconocimiento facial en 3D, estas bases de datos contienen variadas
imágenes en función de raza, edad, estado emocional y pose sea para 2D y 3D.
 Se definieron modelos de reconocimiento facial para imágenes en 2D y 3D,
para ambos casos se utilizó wavelets de Gabor para filtrado y extracción de
características, así como la Máquina de vectores de soporte (SVM) para la
clasificación con sus kernels: lineal, cúbico y gaussiano.
 Se realizaron las respectivas validaciones del modelo obtenido a través de
algoritmos de extracción de características de Gabor y clasificador de patrones
SVM con cada uno de los kernels: lineal, cúbico y gaussiano en 2D y 3D
respectivamente, con las bases de datos seleccionados.
140

 Los resultados obtenidos con las dos bases de datos FERET y MUCT son
aceptables, dando la mejor eficiencia del 96% con el kernel Gaussiano y base
de datos FERET. Es así que se puede indicar que la metodología empleada es
acertada con la presencia de Gabor y Máquina de vectores soporte.
 Los resultados obtenidos con las dos bases de datos TEXAS3DFRD y BU-
3DFE son muy aceptables, dando una mejor eficiencia del 97,3% con BU-
3DFE y 98,4% con TEXAS3DFRD. Esto indica que el proceso empleado es
muy acertado con la presencia de Gabor y Máquina de vectores soporte, sin
dejar un lado el proceso de proyectar un modelo de imágen 3D hacia los planos.
Es necesario destacar que los rostros 3D ya no dependen de la iluminación y
por otro lado estas imágenes pasan por un proceso de mejora como: la
eliminación del ruido, eliminación de algunas regiones sin importancia, y el
rellenado de algunas regiones profundas. Estas operaciones sin lugar a dudas
fueron importantes que influyeron para los resultados obtenidos.
 Finalmente, se concluye que el reconocimiento facial sigue siendo un problema
complicado, a pesar de la presencia de muchos trabajos de investigación
actuales, hay muchas condiciones reales, difíciles de modelar y prever, los
mismos que limitan el rendimiento de los sistemas de la actualidad en términos
de tiempo y confianza.

6.2 Trabajos futuros

 Tomando una secuencia a la línea del trabajo de investigación se podrían hacer


la implementación en nuevas técnicas en la extracción de características, como
se ha venido comentando a lo largo del proyecto, la correcta detección de los
puntos de interés limitada por la presencia de rasgos propios de la edad en todas
las personas, malas condiciones de iluminación, oclusiones, sombras, opacidad
en las imágenes, entre otros, una futura línea de trabajo a seguir puede ser la
introducción de algunos métodos basados en mallas, las mismas que permitan
crear una serie de puntos de referencia, todo esto mediante un sistema operativo
Android o iOS;
 Así también como otra línea de investigación podría ser el uso de otros métodos
de clasificación y a la vez compararlos mediante algunas técnicas de
inteligencia artificial como árboles de decisión.
141

BIBLIOGRAFIA

3D morphable models UR. (2011). Retrieved from


http://faces.cs.unibas.ch/bfm/main.php

A. Moreno, A. S. (2004). Gavabdb: a 3D face database, 75–80.

A. Savran, N. Alyuz, H. Dibeklioglu, O. Celiktutan, B. Gokberk, B. Sankur, L. A.


(2008). Bosphorus database for 3D face analysis, 47–56.

Acosta, A. N., Pablo, J., & Gonz, N. (2014). Detecci ´ on y Diagn ´ ostico de Fallas
para la Din ´ amica Lateral de un Autom ´ ovil utilizando M ´ aquinas de
Soporte Vectorial Multiclase, 73, 167–179.

Alejandra, M.-O. D. (2016). Re-identificación de personas a través de sus


características soft-biométricas en un entorno multi-cámara de video-vigilancia.
Ingeniería, Investigación y Tecnología, 17(2), 257–271.
https://doi.org/10.1016/j.riit.2016.06.010

Alvarez, D., & Giraldo, E. (2008). Ica aplicado a la extracción de características en


imágenes, (40), 43–48.

B. Pradhan. (2013). A comparative study on the predictive ability of the decision


tree, support vector machine and neuro-fuzzy models in landslide susceptibility
mapping using GIS, 350–365.

Bah, S. M., & Ming, F. (2020). An improved face recognition algorithm and its
application in attendance management system. Array, 5(February 2019),
100014. https://doi.org/10.1016/j.array.2019.100014

Ballantyne, M., Boyer, R. S., & Hines, L. (1996). Woody Bledsoe—His Life and
Legacy, 17(1), 7–20.

Barina, D. (2016). Gabor wavelets in image processing, (2).

Bartlett, M.-S. (1999). Face image analysis by unsupervised learning and redundancy
reduction. Dissertation-Abstracts-International:-Section-b:-The-Sciences-and-
Engineering.

Bdd, T. (2010). Texas 3D Face Recognition DatabaseURL. Retrieved from


142

http://live.ece.utexas.edu/research/%0Atexas3dfr

Bdd, Y. (2011). York 3D databaseURL. Retrieved from http://www-


users.cs.york.ac.uk/nep/research/3Dface/tomh/%0A3DFaceRecognition.html

Belén, A., Díaz, M., & Físicas, C. C. (2004). Reconocimiento Facial Automático
mediante Técnicas de Visión Tridimensional Tesis Doctoral Reconocimiento
Facial Automático mediante Técnicas de Visión Tridimensional Tesis Doctoral.

Benini, S., Khan, K., Leonardi, R., Mauro, M., & Migliorati, P. (2019). Face analysis
through semantic face segmentation. Signal Processing: Image Communication,
74(November 2018), 21–31. https://doi.org/10.1016/j.image.2019.01.005

Benitez-Garcia, G., Olivares-Mercado, J., Aguilar-Torres, G., Sanchez-Perez, G., &


Perez-Meana, H. (2012). Face Identification Based on Contrast Limited
Adaptive Histogram Equalization (CLAHE), (May 2015).

Betancour, G. (2005). LAS MÁQUINAS DE SOPORTE VECTORIAL (SVMs).


Scientia Et Technica, (27), 67–72.

Blanco Oliver, A., Pino Mejías, R., & Lara Rubio, J. (2014). Modeling the Financial
Distress of Microenterprise Start-ups Using Support Vector Machines: a case
study. Innovar: Revista de Ciencias Administrativas y Sociales, 24(54), 153–
168. Retrieved from
https://dialnet.unirioja.es/servlet/articulo?codigo=4932773&orden=1&info=link
%5Cnhttps://dialnet.unirioja.es/servlet/extart?codigo=4932773

Cabello Pardos, E. (2003). Técnicas de reconocimiento facial mediante redes


neuronales, 135. Retrieved from
http://dialnet.unirioja.es/servlet/tesis?codigo=2586&info=resumen&idioma=SP
A

Cadena, J., & Flores, G. (2018). Reconocimiento facial en sub-espacios: lineales y


no-lineales, bases de datos de rostros y máquina de vectores de soporte, 12,
443–457.

Cadena, J., Montaluisa, R., Flores, G., Chancúsig, J., & Guaypatín, O. (2017).
Reconocimiento facial con base en imágenes.

Cai, Y., Lei, Y., Yang, M., You, Z., & Shan, S. (2019). A fast and robust 3D face
recognition approach based on deeply learned face representation, 363, 375–
143

397. https://doi.org/10.1016/j.neucom.2019.07.047

Carmona, E. (2016). Turorial sobre Máquinas de Vectores Soporte, 1–27.

Casia. (2010). Bases de datos CASIA., http://biometrics.idealtest.org. Retrieved from


http://biometrics.idealtest.org

Casia. (2011). Casia 3D face databaseURL. Retrieved from


http://www.cbsr.ia.ac.cn/english/3DFaceDatabases

Castleman, K. R., Markey, M. K., & Bovik, A. C. (2010). Texas 3D Face


Recognition Database, 2–5.

Castrillon, W. A., Alvarez, D. A., & López, A. F. (2008). Técnicas de extracción de


características en imágenes para el reconocimiento de expresiones faciales.
Scientia et Technica, (38), 7–12. https://doi.org/10.22517/23447214.3681

Chan, C. H., & Tahir, M. A. (2013). Multiscale Local Phase Quantization for Robust
Component-Based Face Recognition Using Kernel Fusion of Multiple
Descriptors, 35(5), 1164–1177.

Chang, C., & Lin, C. (2013). LIBSVM : A Library for Support Vector Machines.
ACM Transactions on Intelligent Systems and Technology (TIST), 2, 1–39.
https://doi.org/10.1145/1961189.1961199

Chao, W. (2017). Gabor wavelet transform and its application.

Correa, A. C., Salazar, A. E. S., & Ortiz, F. A. P. (2013). Reconocimiento de rostros


y gestos faciales mediante un analisis de relecancia con imagenes 3D. Revista
De Investigación, Desarrollo E Innovación, 4(1), 7–20.
https://doi.org/10.19053/20278306.2563

Corso, I., & Lorena, C. (2009). Aplicación de algoritmos de clasificación supervisada


usando.

Cutipa, R. A., Cesar, J., Huanca, L., Posgrado, E. De, & Universitaria, C. (2017).
Técnicas de procesamiento digital de imágenes aplicados al reconocimiento
automático de rostros digital processing techniques of images applied to
automatic face recognition, (051), 287–296.

D. Cosker, E. Krumhuber, A. H. (2011). A FACS valid 3D dynamic action unit


database with applications to 3D dynamic morphable facial modeling.
144

Deng, C. (2008). Four face databases in matlab format. Retrieved from


http://www.cad.zju.edu.cn/home/dengcai/Data/FaceData.html

Derkach, D., & Sukno, F. M. (2018). Automatic Local Shape Spectrum Analysis for
3D Facial Expression Recognition. Image and Vision Computing, #pagerange#.
https://doi.org/10.1016/j.imavis.2018.09.007

Devi, H. S., Laishram, R., & Thounaojam, D. M. (2015). Face Recognition using R-
KDA with Non-Linear SVM for Multi-View Database. Procedia Computer
Science, 54, 532–541. https://doi.org/10.1016/j.procs.2015.06.061

Dou, P., & Kakadiaris, I. A. (2017). End-to-end 3D face reconstruction with deep
neural networks, (May).

Escobar, J. (2019). Herramienta de Reconocimiento facial con técnica de vision


computacional 2D.

F. Tsalakanidou, S. M. (2010). Real-time 2D+3D facial action and expression


recognition, 1763–1775.

Fadaifard, H., Wolberg, G., & Haralick, R. (2013). Multiscale 3D feature extraction
and matching with an application to 3D face recognition. Graphical Models,
75(4), 157–176. https://doi.org/10.1016/j.gmod.2013.01.002

G. Pajares. (2008). Ejercicios resueltos de Visión por Computador.

G. Stratou, A. Ghosh, P. Debevec, L.-P. M. (2011). Effect of illumination on


automatic expression recognition: a novel 3D relightable facial database, 1–6.

Gao, W., Cao, B., Shan, S., Chen, X., Zhou, D., Zhan, X. (2008). The CAS-PEAL
large-scale Chinese face database and baseline evaluations, 149–161.

Gao, Y., Ma, J., Zhao, M., & Y. (2017). Semi-Supervised Sparse Representation
Based Classification for Face Recognition with Insufficient Labeled Samples,
1–16.

Garcia, A. (2014). El arte de elaborar el estado del arte en una investigación.


Retrieved from https://repositoriotec.tec.ac.cr/bitstream/handle/2238/9145/El
estado del arte 2017.pdf?sequence=1

Garrido, C. B., & Alcaide, T. R. (2018). AUTOMÁTICO APLICADO AL


RECONOCIMIENTO DE VEHÍCULOS. IMPLEMENTACIÓN EN FPSoC.
145

Gavab. (n.d.). Base de datos GAVAB. Retrieved from http://gavab.escet.urjc.es

Graham, D. B., & Mallinson, N. (1998). for General Purpose Face Recognition.

Gumus, E., Kilic, N., Sertbas, A., & Ucan, O. N. (2010). Evaluation of face
recognition techniques using PCA, wavelets and SVM. Expert Systems with
Applications, 37(9), 6404–6408. https://doi.org/10.1016/j.eswa.2010.02.079

Guo, G., Li, S. Z., & Chan, K. L. (2001). Support vector machines for face
recognition. Image and Vision Computing, 19, 631–638.
https://doi.org/10.1016/S0262-8856(01)00046-4

Gupta, S., Castleman, K. R., Markey, M. K., & Bovik, A. C. (2010a). Texas 3D Face
Recognition Database. Proceedings of the IEEE Southwest Symposium on
Image Analysis and Interpretation, (June), 97–100.
https://doi.org/10.1109/SSIAI.2010.5483908

Gupta, S., Castleman, K. R., Markey, M. K., & Bovik, A. C. (2010b). Texas 3D Face
Recognition Database. Proceedings of the IEEE Southwest Symposium on
Image Analysis and Interpretation, (March 2018), 97–100.
https://doi.org/10.1109/SSIAI.2010.5483908

Hariri, W., Tabia, H., Farah, N., Benouareth, A., & Declercq, D. (2017). 3D facial
expression recognition using kernel methods on Riemannian manifold.
Engineering Applications of Artificial Intelligence, 64(May), 25–32.
https://doi.org/10.1016/j.engappai.2017.05.009

Hernández, R. (2010). Metodología de la Investigación (Quinta). México.

Kakadiaris, I. A., Toderici, G., Evangelopoulos, G., Passalis, G., Chu, D., Zhao, X.,
… Theoharis, T. (2017). 3D-2D face recognition with pose and illumination
normalization. Computer Vision and Image Understanding, 154, 137–151.
https://doi.org/10.1016/j.cviu.2016.04.012

Kamencay, P., Hudec, R., Benco, M., Sykora, P., & Radil, R. (2015). An efficient P-
KCCA algorithm for 2D-3D face recognition using SVM. Advances in
Electrical and Electronic Engineering, 13(4), 399–406.
https://doi.org/10.15598/aeee.v13i4.1473

Karthika, R., & Parameswaran, L. (2016). Study of Gabor Wavelet for Face
Recognition Invariant to Pose and Orientation. https://doi.org/10.1007/978-81-
146

322-2671-0

Kasar, M. M., Bhattacharyya, D., & Kim, T. (2016). Face Recognition Using Neural
Network : A Review, 10(3), 81–100.

Kerbaa, T. H., Mezache, A., & Oudira, H. (2019). Model Selection of Sea Clutter
Using Cross Validation Method a , b Method. Procedia Computer Science, 158,
394–400. https://doi.org/10.1016/j.procs.2019.09.067

Khalil, T. (2014). A Survey of Feature Selection and Feature Extraction Techniques


in Machine Learning, 372–378.

Khan, N. M., Ksantini, R., Ahmad, I. S., & Boufama, B. (2012). A novel
SVM+NDA model for classification with an application to face recognition.
Pattern Recognition, 45(1), 66–79. https://doi.org/10.1016/j.patcog.2011.05.004

Kim, S.-K., Park, Y. J., Toh, K.-A., & Lee, S. (2010). SVM-based feature extraction
for face recognition. Pattern Recognition, 43(8), 2871–2881.
https://doi.org/10.1016/j.patcog.2010.03.008

Kong, R., & Zhang, B. (2011). A New Face Recognition Method Based on Fast
Least Squares Support Vector Machine. Physics Procedia, 22, 616–621.
https://doi.org/10.1016/j.phpro.2011.11.095

L. Benedikt, D. Cosker, P. Rosin, D. M. (2010). Assessing the uniqueness and


permanence of facial actions for use in biometric applications, 449–460.

L. Yin, X. Chen, Y. Sun, T. Worm, M. R. (2008). A high-resolution 3D dynamic


facial expression database, 1–6.

L. Yin, X. Wei, Y. Sun, J. Wang, M. R. (2006). A 3D facial expression database for


facial behavior researche, 211–216.

Laura, L., Waldo, H., César, E., Ronchetti, F., VillaMonte, A., Aquino, G., …
Santana, P. (2015). Redes Neuronales Artificiales plicaciones en Minería de
Datos y rocesamiento de Señales Temporales, 5.

Lei, Y., Bennamoun, M., & El-Sallam, A. A. (2013). An efficient 3D face


recognition approach based on the fusion of novel local low-level features.
Pattern Recognition, 46(1), 24–37. https://doi.org/10.1016/j.patcog.2012.06.023

Leiva José. (2007). Extracción de características mediante criterios basados en


147

teoría de la información.

Leon, E. C. (2016). Introducción a las máquinas de vector soporte (SVM) en


aprendizaje supervisado.

Li, J., Perrine, K., Wu, L., & Walton, C. M. (2019). Cross-validating traffic speed
measurements from probe and stationary sensors through state reconstruction.
International Journal of Transportation Science and Technology, 8(3), 290–
303. https://doi.org/10.1016/j.ijtst.2019.04.002

Li, W., Liu, L., & Gong, W. (2011). Multi-objective uniform design as a SVM model
selection tool for face recognition. Expert Systems with Applications, 38(6),
6689–6695. https://doi.org/10.1016/j.eswa.2010.11.066

Li, X., Ruan, Q., An, G., Jin, Y., & Zhao, R. (2015). Multiple strategies to enhance
automatic 3D facial expression recognition. Neurocomputing, 161, 89–98.
https://doi.org/10.1016/j.neucom.2015.02.063

Li, X., Ruan, Q., Jin, Y., An, G., & Zhao, R. (2015). Fully automatic 3D facial
expression recognition using polytypic multi-block local binary patterns. Signal
Processing, 108, 297–308. https://doi.org/10.1016/j.sigpro.2014.09.033

Lin, W.-H., Wang, P., & Tsai, C.-F. (2016). Face recognition using support vector
model classifier for user authentication. Electronic Commerce Research and
Applications, 18(February), 1–12. https://doi.org/10.1016/j.elerap.2016.01.005

Luo, Y., Wu, C. M., & Zhang, Y. (2013). Facial expression recognition based on
fusion feature of PCA and LBP with SVM. Optik, 124(17), 2767–2770.
https://doi.org/10.1016/j.ijleo.2012.08.040

Manju, D., & Radha, V. (2020). A Novel Approach for Pose Invariant Face
Recognition in Surveillance Videos. Procedia Computer Science, 167(2019),
890–899. https://doi.org/10.1016/j.procs.2020.03.428

Mano, Y. (2018). Method validation studies and an inter-laboratory cross validation


study of lenvatinib assay in human plasma using LC-MS / MS. Practical
Laboratory Medicine, 12(May), 1–9.
https://doi.org/10.1016/j.plabm.2018.e00103

Manso, M. (2017). Predicción y selección de características , mediante análisis local


de la fiabilidad , para el mercado de valores y su extensión a problemas de
148

clasificación y regresión.

Mariñas Guillermo. (2009). Evaluación de algoritmos supervisados de extracción de


características para clasificación de texturas.
https://doi.org/10.1016/j.biopha.2017.01.089

Milborrow, S., Morkel, J., & Nicolls, F. (2010). The MUCT Landmarked Face
Database.

Montoya, J. F. (2015). Identificación de patrones sísmicos en registros 2D mediante


máquinas de soporte vectorial ( SVM ), 68–79.

Moreno, A., & Sanchez, a. (2005). Face recognition using 3D local geometrical
features: PCA vs. SVM. Image and Signal …, (1), 185–190.
https://doi.org/10.1109/ispa.2005.195407

Nacelle, A. (2009). Redes neuronales artificiales, 1–9.

Olivares-Mercado, J., Toscano-Medina, K., Sánchez-Pérez, G., Nakano-Miyatake,


M., & Pérez-Meana, H. (2016). Modifications to the Eigenphases Method for
Face Recognition Based on SVM. Ingeniería, Investigación y Tecnología,
17(1), 119–129. https://doi.org/10.1016/j.riit.2016.01.011

ORL. (1994). Database of Faces. Retrieved from


http://www.cl.cam.ac.uk/research/dtg/attarchive/facedatabase.html

Oyedotun, O. K., Demisse, G., El, A., & Shabayek, R. (2017). Facial Expression
Recognition via Joint Deep Learning of RGB-Depth Map Latent
Representations Facial Expression Recognition via Joint Deep Learning of
RGB-Depth Map Latent Representations, (December).
https://doi.org/10.1109/ICCVW.2017.374

P.J. Phillips, H. Moon, S. Rizvi, P. R. (2000). The FERET evaluation methodology


for face recognition algorithms, 1090–1104.

Palella, S. (2012). Metodología de la Investigación Cuantitativa. (FEDUPEL, Ed.).


Caracas.

Passalis, G., Kakadiaris, I. A., Theoharis, T., Toderici, G., & Murtuza, N. (2014).
Evaluation of the UR3D algorithm using the FRGC v2 data set Evaluation of
the UR3D algorithm using the FRGC v2 data set, (June).
149

Pérez Flores, C. (2015). Reconocimiento frontal de rostros en base a imágenes de


alta resolución, 68.

Pérez, L. B. (2013). Reconocimiento facial basado en puntos característicos de la


cara en entornos no controlados, 110. Retrieved from
http://atvs.ii.uam.es/seminars/PFC_Luis_Blazquez.pdf

R, J. V. C. I., Shi, B., Zang, H., Zheng, R., & Zhan, S. (2019). An efficient 3D face
recognition approach using Frenet feature of iso-geodesic curves. Journal of
Visual Communication and Image Representation, 59, 455–460.
https://doi.org/10.1016/j.jvcir.2019.02.002

Robert, B. A. M. (2014). The AR Face Database. Autonomous University of


Barcelona, (January 1998).

Romero, A. (2011). Nuevos paradigmas para el análisis estadístico de imágenes


tomográficas cerebrales.

Rosato, M. J. (2016). A 3D facial expression database for facial behavior research A


3D Facial Expression Database For Facial Behavior Research, (May 2006).
https://doi.org/10.1109/FGR.2006.6

Ruiz, J. Z. (2018). COMPARATIVA Y ANÁLISIS DE ALGORITMOS.

Sadhya, D., & Kumar, S. (2019). Neurocomputing A comprehensive survey of


unimodal facial databases in 2D and 3D domains. Neurocomputing, 358, 188–
210. https://doi.org/10.1016/j.neucom.2019.05.045

Samaria, F., & Harter, A. (1994). Parameterisation of a stchastic model for human
face identification.

Sandbach, G., Zafeiriou, S., Pantic, M., & Yin, L. (2012). Static and dynamic 3D
facial expression recognition: A comprehensive survey. Image and Vision
Computing, 30(10), 683–697. https://doi.org/10.1016/j.imavis.2012.06.005

Sandoval, M. M., Rubio, J., & Eds, L. (2019). Avances en Ciencias en Ingeniería y
Tecnologías Computacionales.

Savran, A. (2017). Non-rigid Registration Based Model-free 3D Facial Expression


Recognition. https://doi.org/10.1016/j.cviu.2017.07.005

Serratosa, F. (2013). La biometría para la identificación de las personas.


150

Shao, Y. H., Chen, W. J., Wang, Z., Li, C. N., & Deng, N. Y. (2014). Weighted
linear loss twin support vector machine for large-scale classification.
Knowledge-Based Systems, 73(1), 276–288.
https://doi.org/10.1016/j.knosys.2014.10.011

Shen, L., & Bai, Æ. L. (2006). A review on Gabor wavelets for face recognition,
273–292. https://doi.org/10.1007/s10044-006-0033-y

Sim, T., Baker, S., & Bsat, M. (2003). The {CMU} pose, illuminlation, and
expression database. Pami, 25(12), 1615–1618.
https://doi.org/10.1109/AFGR.2002.1004130

Song, D., Luo, J., Zi, C., & Tian, H. (2016). 3D Face Recognition Using
Anthropometric and Curvelet Features Fusion, 2016.

Stan, L., & Jain, A. (2011). Handbook of facial recognition, 447–460.

Sujitha, P., Venkatramaphanikumar, S., & V, K. K. K. (2019). Scale Invariant Face


Recognition with Gabor Wavelets and SVM, (5), 100–104.

Sun, W., Zhao, H., & Jin, Z. (2018). PT • The learned ROIs are partly consistent with
the emotion specific Action. Neurocomputing.
https://doi.org/10.1016/j.neucom.2018.03.034

T. Faltemier, K. Bowyer, P. F. (2008). Using multi-instance enrollment to improve


performance of 3D face recognition, 114–125.

Torkhani, G., Ladgham, A., Sakly, A., & Mansouri, M. N. (2017). A 3D–2D face
recognition method based on extended Gabor wavelet combining curvature and
edge detection. Signal, Image and Video Processing, 11(5), 969–976.
https://doi.org/10.1007/s11760-016-1046-7

V. Blanz, T. V. (1999). A morphable model for the synthesis of 3D faces, 187–194.

Valverde, G., Criollo, R., Plua, D., Quinche, P., & Quiroz, M. (2014). Aplicación del
paradigma semiótico en una implementación de reconocimiento facial – Estado
del.

Vapnik, V. N. (1998). Statistical Learning Theory. Adaptive and Learning Systems


for Signal Processing, Communications and Control, 2, 1–740.
https://doi.org/10.2307/1271368
151

Wen, Y. (2012). An improved discriminative common vectors and support vector


machine based face recognition approach. Expert Systems with Applications,
39(4), 4628–4632. https://doi.org/10.1016/j.eswa.2011.09.119

Weyrauch, B., Heisele, B., & Blanz, V. (2004). Component-based Face Recognition
with 3D Morphable Models 2 . Generation of 3D Face Models, 0–4.

X. Peng. (2010). An efficient twin support vector machine for regression, 365–372.

Xu, Y., Fang, X., Li, X., Yang, J., You, J., Liu, H., & Teng, S. (2014). Data
Uncertainty in Face Recognition, 1950–1961.

Y. Chang, M. Vieira, M. Turk, L. V. (2005). Automatic 3D facial expression analysis


in videos, 293–307.

Yang, P. Y., Hui, C. J., Tien, D. J., Snowden, A. W., Derfus, G. E., Opel, C. F., &
Carlo, M. (2019). Accurate definition of control strategies using cross validated
stepwise regression and Monte Carlo simulation. Journal of Biotechnology: X,
2(April), 100006. https://doi.org/10.1016/j.btecx.2019.100006

Z. Qi, Y. Tian, Y. S. (2013). Robust twin support vector machine for pattern
classification, 305–316.

Zhan, Y., & Shen, D. (2005). Design efficient support vector machine for fast
classification. Pattern Recognition, 38(1), 157–161.
https://doi.org/10.1016/j.patcog.2004.06.001

Zhao, M., Fu, C., Ji, L., Tang, K., & Zhou, M. (2011). Feature selection and
parameter optimization for support vector machines: A new approach based on
genetic algorithm with feature chromosomes. Expert Systems with Applications,
38(5), 5197–5204. https://doi.org/10.1016/j.eswa.2010.10.041
152

ANEXOS
153

ANEXO 1. Resumen de trabajos revisados que involucran a la técnica SVM.

AUTOR TITULO FUENTE AÑO


Detección y Diagnóstico de Fallas
Acosta, A. N., Pablo, para la Dinamica Lateral de un
J., & Gonz, N. Automovil utilizando Maquinas de Computing
Soporte Vectorial Multiclase Science 2014
Reconocimiento Facial
Automático a través de técnicas de U. Politécnica
Belén, A., Díaz, M.
Visión Tridimensional. Tesis Madrid. Tesis
Doctoral doctoral 2004
IJCSI
Bellakhdhar, F., International
Face recognition approach using
Loukil, K., & ABID, Journal of
Gabor Wavelets, PCA and SVM
M. Computer
Science Issues 2013
LAS MÁQUINAS DE SOPORTE Scientia et
Betancour, G.
VECTORIAL (SVMs) Technica 2005
Modeling the Financial Distress of
Blanco Oliver, A.,
Microenterprise Start-ups Using
Pino Mejías, R., &
Support Vector Machines: a case
Lara Rubio, J.
study Innovar Journal 2014
Técnicas de reconocimiento facial
Cabello Pardos, E.
mediante redes neuronales Tesis Doctoral 2004
Facial Expression Recognition
Cao, J., & Tong, C.
Based on LBP-EHMM IEEE 2008
Facial Expression Recognition International
CAO, N. T., TON-
Based on Local Binary Pattern Journal of
THAT, A. H., &
Features and Support Vector Pattern
CHOI, H. IL.
Machine Recognition 2014
154

and Artificial
Intelligence

Cárdenas, J. P.,
Automatic text classification using
Olivares, G., &
words networks
Alfaro, R. Scielo 2014
Çarıkçı, M. üg., & A Face Recognition System Based
Özen, F. on Eigenfaces Method Elsevier 2012
Eye detection using discriminatory
Chen, S., & Liu, C. Haar features and a new efficient
SVM Elsevier 2015
Face recognition by generalized
Chowdhury, S., Sing,
two-dimensional FLD method and
J. K., Basu, D. K., &
multi-class support vector
Nasipuri, M.
machines Elsevier 2011
Recognizing facial action units
Chuang, C.-F., & using independent component
Shih, F. Y. analysis and support vector
machine Elsevier 2006
Hybrid Support Vector Machines Journal of
Concha, M. F. to Classify Traffic Accidents in the Technological
Región Metropolitana de Santiago Possibilism 2012
Face recognition using independent
Déniz, O., Castrillón,
component analysis and support
M., & Hernández, M.
vector machines Elsevier 2003
Face Recognition using R-KDA
Devi, H. S.,
with Non – Linear, Machines
Laishram, R., &
vectors support for Multi-View
Thounaojam, D. M.
Database Elsevier 2015
155

The Journal of
The Southern
Peak particle velocity prediction
African
Dindarloo, S. R. using support vector machines : a
Institute of
surface blasting case study
Mining and
Metallurgy 2015
Support vector machines
Emre, G., Haklı, H., classification based on particle
& Harun, U. swarm optimization for bone age
determination Elsevier 2014
Evaluación de sistemas de U. Politécnica
Espinosa, V
reconocimiento biométrico Madrid 2000
Improved support vector
Fortuna, J., &
classification using PCA and ICA
Capson, D.
feature space modification Elsevier 2004
Universidad
Reconocimiento de rostros
Garc, M. V. Católica de
combinando técnicas 2D y 3D
Cataluña. Tesis 2007
Universidad de
Procesamiento de Caras Humanas
García, G. Murcia. Tesis
Mediante Integrales Proyectivas
doctoral 2007
Implementación de algoritmos
basados en máquinas de soporte U. Distrital
Giral, D.
vectorial (SVM) para sistemas Francisco José
eléctricos: revisión de tema de Caldas 2016
Classification of Power Quality
Góes, A. R. T.,
Considering Voltage Sags in Journal
Steiner, M. T. A., &
Distribution Systems Using Kdd Pesquisa
Peniche, R. A.
Process Operacional 2015
Gumus, E., Kilic, N., Evaluation of face recognition
Sertbas, A., & Ucan, techniques using PCA, wavelets
O. N. and SVM Elsevier 2010
156

Guo, G., Li, S. Z., & Support vector machine for facial
Chan, K. L. recognition Elsevier 2001
Universidad
Clasificación de imágenes usando
Gutiérrez, J. D. Nacional de
Máquinas de Soporte Vectorial
Colombia 2007
Hayat, M., An RGB-D based image set
Bennamoun, M., & classification for robust face
El-Sallam, A. A. recognition from Kinect data Elsevier 2016
Heisele, B., Ho, P., Face recognition: component-
Wu, J., & Poggio, T. based versus global approaches Elsevier 2003
Hjelmås, E., & Low,
Face Detection: A Survey
B. K. Idealibrary 2001
Instituto
Diseño e implementación de una Politécnico
García, Inés
herramienta de detección facial Nacional
México 2009
Using self-organizing fuzzy
Juang, C.-F., & Shiu, network with support vector
S.-J. learning for face detection in color
images Elsevier 2008
Khan, N. M., A novel SVM+NDA model for
Ksantini, R., Ahmad, classification with an application to
I. S., & Boufama, B face recognition Elsevier 2012
Kim, S.-K., Park, Y.
SVM-based feature extraction for
J., Toh, K.-A., &
face recognition
Lee, S Elsevier 2010
A New Facial Recognition Method
Kong, R., & Zhang,
Based on Fast Least Squares
B
Support Vector Machine Elsevier 2011

La Serna Palomino, Diseño de un sistema de


N., Pró Concepción, recuperación de imágenes de
RISI 2013
157

L., & Román individuos malhechores para


Concha, U. seguridad ciudadana

Facial expression recognition


Lai, C.-C., & Ko, C.-
based on two-stage features
H.
extraction Elsevier 2014
Incorporating Prior Knowledge in
Lauer, F., & Bloch,
Support Vector Machines for
G.
Classification: a Review Elsevier 2008
International
Face Recognition Based on SVM Journal of
Le, T. H., & Bui, L
and 2DPCA Signal
Processing 2011
Lei, Y., Bennamoun, An efficient 3D face recognition
M., Hayat, M., & approach using local geometrical
Guo, Y. signatures Elsevier 2014
Multi-objective uniform design as
Li, W., Liu, L., &
a SVM model selection tool for
Gong, W.
face recognition Elsevier 2011
Feature selection for support vector
Liau, H. F., & Isa, D. machine-based face-iris
multimodal biometric system Elsevier 2011
Facial recognition using support
Lin, W.-H., Wang,
vector model classifier for user
P., & Tsai, C.-F.
authentication Elsevier 2016
Facial expression recognition
Luo, Y., Wu, C. M.,
based on fusion feature of PCA and
& Zhang, Y.
LBP with machine vectors support Elsevier 2013
Predicción y selección de
características, mediante análisis U. Carlos III
Manso, M.
local de la fiabilidad , para el Madrid. Tesis
mercado de valores y su extensión doctoral 2017
158

a problemas de clasificación y
regresión

Eleceng.
Proceedings
Milborrow, S.,
The MUCT Landmarked Face Pattern
Morkel, J., &
Database Recognition
Nicolls, F.
Association of
South Africa 2010
Identificación de patrones sísmicos
Montoya, J. F. en registros 2D mediante máquinas
de soporte vectorial ( SVM ) Grupo Solsytec 2015
Face recognition using 3D local
Moreno, A., &
geometrical features: PCA vs.
Sanchez, a.
SVM. Researchgate 2005
Universidad del
Salas, Rodrigo Redes neuronales artificiales
Valparaiso 2009
Nasiri, J. A., Least squares twin multi-class
Moghadam Charkari, classification support vector
N., & Jalili, S. machine Elsevier 2015
Computer
Face Recognition System based on Engineering
Nayef, M. Z.
Wavelet, PCA-LDA and SVM and Intelligent
Systems 2013
Olivares-Mercado,
Modifications to the Eigenphases
J., Toscano-Medina,
Method for Facial Recognition
K., Sánchez-Pérez,
Based on Machine vectors support.
G., Nakano- Ingeniería
Ingeniería, Investigación Y
Miyatake, M., & Investigación y
Tecnología
Pérez-Meana, H. Tecnología 2016
159

Reconocimiento de rostros
utilizando análisis de componentes Universidad
Quezada, V.
principales : limitaciones del Iberoamericana.
algoritmo Tesis Doctoral 2005
Instituto
Las maquinas de vectores de Politécnico
Resendiz Trejo, J.
soporte para identificación en línea Nacional
México. Tesis 2006
Reconocimiento de Localizaciones U. Carlos III
Riobó Otero, V. mediante Máquinas de Soporte Madrid. Tesis
Vectorial doctoral 2012
Rodríguez-vázquez, Clasificación de células cervicales Revista Cubana
S., & Martínez- con Máquinas de Soporte Vectorial de Ciencias
borges, A. V. empleando rasgos del núcleo Informáticas 2015
Segmentación de la región de la
Saint-exupery, A.
boca en imágenes faciales : Universidad
De, & Cedex, V.
Revisión bibliográfica Antoquia 2009
Schwaninger, A., &
Schwaninger, A., & Yang, J.
Yang, J. Elsevier 2011
Shao, Y. H., Chen, Weighted linear loss twin support
W. J., Wang, Z., Li, vector machine for large-scale
C. N., & Deng, N. Y. classification Elsevier 2015
Face detection using discriminating
Shih, P., & Liu, C. feature analysis and support vector
machine Elsevier 2006
SEGUIMIENTO DE PATRONES Universidad de
Sistemes, I. D. E. FACIALES POR Barcelona.
DESCRIPTORES DE FORMA Tesis 2008
International
SOHAIL, A. S. M., Classifying Facial Expressions
Journal of
& Using Level Set Method Based Lip
Pattern
BHATTACHARYA, Contour Detection and Multi-Class
Recognition
P. Support Vector Machines
and Artificial 2011
160

Intelligence.
World Cientific

Song, F., Yang, J., & Large margin linear projection and
Liu, S. face recognition Elsevier 2004
DISEÑO E IMPLEMENTACIÓN
DE UNA PLATAFORMA DE
Villalón, Dario SOFTWARE PARA
RECONOCIMIENTO FACIAL Universidad de
EN VIDEO Chile 2012
Métodos y técnicas de
Valvert, J. reconocimiento de rostros en U. San Carlos
imágenes digitales bidimensionales de Gatemala 2006
by John Wiley
Vapnik, V. N. Statistical Learning Theory
& Sons 1998
AdaBoost for Feature Selection,
Wang, R. Classification and Its Relation with
SVM, A Review Elsevier 2012
Wang, X. H., Liu, A., New facial expression recognition
& Zhang, S. Q. based on FSVM and KNN Elsevier 2015
Wang, X., & Wang, Enhanced algorithm for high-
S. dimensional data classification Elsevier 2015
Face recognition method based on
Wei, J., Jian-Qi, Z.,
support vector machine and
& Xiang, Z.
particle swarm optimization Elsevier 2011
An improved discriminative
common vectors and support
Wen, Y.
vector machine based face
recognition approach Elsevier 2012
161

Paola Rondón y
Sistema de reconocimiento facial
Henry Arguello, B.
basado en imágenes con color
P. P. UIS Ingenierías 2011
Design efficient support vector
Zhan, Y., & Shen, D.
machine for fast classification Elsevier 2005
Locality-sensitive kernel sparse
Zhang, S., & Zhao,
representation classification for
X.
face recognition Elsevier 2014
Zhang, X., Mahoor,
Facial expression recognition using
M. H., & Mavadati,
lp-norm MKL multiclass-SVM
S. M Springer 2015
Face recognition across pose: A
Zhang, X., & Gao, Y.
review Elsevier 2009
Feature selection and parameter
Zhao, M., Fu, C., Ji, optimization for support vector
L., Tang, K., & Zhou, machines: A new approach based
M on genetic algorithm with feature
chromosomes Elsevier 2011
Face recognition based on extreme
Zong, W., & Huang, learning machine
G.-B
Elsevier 2011
162

ANEXO 2: Elementos importantes que contemplan la implementación del


modelo para reconocimiento 2D

Código para descargar base de datos

Código para generar los filtros de Gabor


163

Resultado de la aplicación de un filtro de Gabor


164

Código para extraer características por Gabor

Banco de vectores características de bdd FERET


165

Código del proceso de clasificación SVM


166

ANEXO 3: Interfaz para el reconocimiento facial en 2D


167

ANEXO 4. Resultados con la bdd FERET, kernel LINEAL,

RESULTADOS CON LA BASE DE DATOS FERET


KERNEL LINEAL
CLASE O
ROSTROS
PERSONA VALIDACION
DE PRUEBA
IDENTIFICADA
23 P5 CORRECTA
10 P2 CORRECTA
84 p17 CORRECTA
37 P8 CORRECTA
85 P17 CORRECTA
25 P5 CORRECTA
41 P9 CORRECTA
88 P18 CORRECTA
95 P19 CORRECTA
47 P10 CORRECTA
33 P7 CORRECTA
64 P13 CORRECTA
79 P16 CORRECTA
90 P18 CORRECTA
73 P15 CORRECTA
77 P16 CORRECTA
5 P1 CORRECTA
6 P2 CORRECTA
13 P3 CORRECTA
67 P14 CORRECTA
12 P3 CORRECTA
75 P15 CORRECTA
14 P3 CORRECTA
8 P2 CORRECTA correcta incorrecta
74 P15 CORRECTA 25 0
7 P2 CORRECTA
55 P11 CORRECTA
3 P1 CORRECTA
30 P6 CORRECTA
45 P9 CORRECTA
66 P14 CORRECTA
54 P11 CORRECTA
21 P5 CORRECTA
87 P18 CORRECTA
28 P6 CORRECTA
97 P20 CORRECTA
34 P7 CORRECTA
168

35 P7 CORRECTA
31 P7 CORRECTA
98 P20 CORRECTA
94 P19 CORRECTA
46 P10 CORRECTA
1 P1 CORRECTA
72 P15 CORRECTA
59 P12 CORRECTA
36 P8 CORRECTA
40 P8 CORRECTA
71 P15 CORRECTA
17 P4 CORRECTA correcta incorrecta
70 P14 CORRECTA 50 0
86 P18 CORRECTA
48 P10 CORRECTA
51 P11 CORRECTA
89 P18 CORRECTA
68 P14 CORRECTA
62 P13 CORRECTA
42 P9 CORRECTA
57 P12 CORRECTA
61 P13 CORRECTA
16 P19 INCORRECTA
83 P17 CORRECTA
11 P3 CORRECTA
80 P16 CORRECTA
99 P20 CORRECTA
43 P9 CORRECTA
91 P19 CORRECTA
9 P2 CORRECTA
19 P11 INCORRECTA
49 P10 CORRECTA
2 P1 CORRECTA
60 P12 CORRECTA
52 P11 CORRECTA
56 P12 CORRECTA
18 P11 INCORRECTA correcta incorrecta
93 P19 CORRECTA 72 3
22 P5 CORRECTA
24 P5 CORRECTA
100 P20 CORRECTA
15 P3 CORRECTA
78 P16 CORRECTA
63 P13 CORRECTA
169

53 P11 CORRECTA
32 P7 CORRECTA
69 P14 CORRECTA
27 P6 CORRECTA
44 P9 CORRECTA
92 P19 CORRECTA
76 P16 CORRECTA
50 P10 CORRECTA
39 P8 CORRECTA
20 P19 INCORRECTA
26 P6 CORRECTA
38 P7 INCORRECTA
81 P17 CORRECTA
29 P6 CORRECTA
4 P1 CORRECTA
82 P17 CORRECTA
96 P20 CORRECTA
58 P12 CORRECTA correcta incorrecta
65 P13 CORRECTA 95 2

TOTAL ACIERTOS 95
TOTAL DESHACIERTOS 5
TOTAL IMÁGENES DE PRUEBA: 100
Correcta: Cuando SI identificó la clases correcta a la que pertenece
Incorrecta: Cuando NO identificó la clases correcta a la que pertenece
170

ANEXO 5. Resultados con la bdd FERET, kernel CUBICO

RESULTADOS CON LA BASE DE DATOS


FERET
KERNEL
CUBICO
CLASE O
ROSTRO
PERSONA VALIDACIO
S DE
IDENTIFICAD N
PRUEBA
A
23 P5 CORRECTA
10 P2 CORRECTA
84 P17 CORRECTA
37 P8 CORRECTA
85 P17 CORRECTA
25 P5 CORRECTA
41 P9 CORRECTA
88 P18 CORRECTA
INCORRECT
95 P11
A
47 P10 CORRECTA
33 P7 CORRECTA
64 P13 CORRECTA
79 P16 CORRECTA
90 P18 CORRECTA
73 P15 CORRECTA
77 P16 CORRECTA
INCORRECT
5 P5
A
6 P2 CORRECTA
13 P3 CORRECTA
67 P14 CORRECTA
12 P3 CORRECTA
171

75 P15 CORRECTA
14 P3 CORRECTA
8 P8 CORRECTA correcta incorrecta
74 P15 CORRECTA 23 2
7 P2 CORRECTA
55 P11 CORRECTA
INCORRECT
3 P5
A
30 P6 CORRECTA
45 P9 CORRECTA
66 P14 CORRECTA
54 P11 CORRECTA
21 P5 CORRECTA
87 P18 CORRECTA
28 P6 CORRECTA
97 P20 CORRECTA
34 P7 CORRECTA
35 P7 CORRECTA
31 P7 CORRECTA
98 P20 CORRECTA
94 P19 CORRECTA
46 P10 CORRECTA
1 P1 CORRECTA
72 P15 CORRECTA
59 P12 CORRECTA
36 P8 CORRECTA
INCORRECT
40 P18
A
71 P15 CORRECTA
17 P4 CORRECTA correcta incorrecta
70 P14 CORRECTA 46 2
86 P18 CORRECTA
172

48 P10 CORRECTA
51 P11 CORRECTA
89 P18 CORRECTA
68 P14 CORRECTA
62 P13 CORRECTA
42 P9 CORRECTA
57 P12 CORRECTA
61 P13 CORRECTA
INCORRECT
16 P11
A
83 P17 CORRECTA
11 P3 CORRECTA
80 P16 CORRECTA
99 P20 CORRECTA
43 P9 CORRECTA
91 P19 CORRECTA
9 P2 CORRECTA
INCORRECT
19 P11
A
49 P10 CORRECTA
2 P1 CORRECTA
60 P12 CORRECTA
52 P11 CORRECTA
56 P12 CORRECTA
INCORRECT
18 P11 correcta incorrecta
A
93 P19 CORRECTA 68 3
22 P5 CORRECTA
24 P5 CORRECTA
100 P20 CORRECTA
15 P3 CORRECTA
78 P16 CORRECTA
173

63 P13 CORRECTA
53 P11 CORRECTA
32 P7 CORRECTA
69 P14 CORRECTA
27 P6 CORRECTA
44 P9 CORRECTA
92 P19 CORRECTA
76 P16 CORRECTA
50 P10 CORRECTA
39 P8 CORRECTA
INCORRECT
20 P11
A
26 P6 CORRECTA
38 P8 CORRECTA
81 P17 CORRECTA
29 P6 CORRECTA
4 P1 CORRECTA
82 P17 CORRECTA
96 P20 CORRECTA
58 P12 CORRECTA correcta incorrecta
65 P13 CORRECTA 92 1

TOTAL, ACIERTOS 92
TOTAL, DESHACIERTOS 8
TOTAL, IMÁGENES DE
PRUEBA: 100
Correcta: Cuando SI identificó la clase correcta a la que pertenece
Incorrecta: Cuando NO identificó la clase correcta a la que pertenece
174

ANEXO 6. Resultados con la bdd FERET, kernel GAUSSIANO

RESULTADOS CON LA BASE DE DATOS


FERET
KERNEL GAUSSIANO
CLASE O
ROSTRO
PERSONA VALIDACIO
S DE
IDENTIFICAD N
PRUEBA
A
23 P5 CORRECTA
10 P2 CORRECTA
84 P17 CORRECTA
37 P8 CORRECTA
85 P17 CORRECTA
25 P5 CORRECTA
41 P9 CORRECTA
88 P18 CORRECTA
95 P19 CORRECTA
47 P10 CORRECTA
33 P7 CORRECTA
64 P13 CORRECTA
79 P16 CORRECTA
90 P18 CORRECTA
73 P15 CORRECTA
77 P16 CORRECTA
5 P1 CORRECTA
6 P2 CORRECTA
13 P3 CORRECTA
67 P14 CORRECTA
12 P3 CORRECTA
75 P15 CORRECTA
14 P3 CORRECTA
8 P2 CORRECTA correcta incorrecta
175

74 P15 CORRECTA 25 0
7 P2 CORRECTA
55 P11 CORRECTA
3 P1 CORRECTA
30 P6 CORRECTA
45 P9 CORRECTA
66 P14 CORRECTA
54 P11 CORRECTA
21 P5 CORRECTA
87 P18 CORRECTA
28 P6 CORRECTA
97 P20 CORRECTA
34 P7 CORRECTA
35 P7 CORRECTA
31 P7 CORRECTA
98 P20 CORRECTA
94 P19 CORRECTA
46 P10 CORRECTA
1 P1 CORRECTA
72 P15 CORRECTA
59 P12 CORRECTA
36 P8 CORRECTA
40 P8 CORRECTA
71 P15 CORRECTA
17 P4 CORRECTA correcta incorrecta
70 P14 CORRECTA 50 0
86 P18 CORRECTA
48 P10 CORRECTA
51 P11 CORRECTA
89 P18 CORRECTA
68 P14 CORRECTA
62 P13 CORRECTA
176

42 P9 CORRECTA
57 P12 CORRECTA
61 P13 CORRECTA
INCORRECT
16 P11
A
83 P17 CORRECTA
11 P3 CORRECTA
80 P16 CORRECTA
99 P20 CORRECTA
43 P9 CORRECTA
91 P19 CORRECTA
9 P2 CORRECTA
INCORRECT
19 P11
A
49 P10 CORRECTA
2 P1 CORRECTA
60 P12 CORRECTA
52 P11 CORRECTA
56 P12 CORRECTA
INCORRECT
18 P11 correcta incorrecta
A
93 P19 CORRECTA 72 3
22 P5 CORRECTA
24 P5 CORRECTA
100 P20 CORRECTA
15 P3 CORRECTA
78 P16 CORRECTA
63 P13 CORRECTA
53 P11 CORRECTA
32 P7 CORRECTA
69 P14 CORRECTA
27 P6 CORRECTA
177

44 P9 CORRECTA
92 P19 CORRECTA
76 P16 CORRECTA
50 P10 CORRECTA
39 P8 CORRECTA
INCORRECT
20 P19
A
26 P6 CORRECTA
38 P8 CORRECTA
81 P17 CORRECTA
29 P6 CORRECTA
4 P1 CORRECTA
82 P17 CORRECTA
96 P20 CORRECTA
58 P12 CORRECTA correcta incorrecta
65 P13 CORRECTA 96 1

TOTAL ACIERTOS 96
TOTAL DESHACIERTOS 4
TOTAL IMÁGENES DE
PRUEBA: 100
Correcta: Cuando SI identificó la clases correcta a la que pertenece
Incorrecta: Cuando NO identificó la clases correcta a la que pertenece
178

ANEXO 7. Resultados con la bdd MUCT, kernel LINEAL

RESULTADOS CON LA BASE DE DATOS


MUCT
KERNEL
LINEAL
CLASE O
ROSTRO
PERSONA
S DE VALIDACION
IDENTIFICAD
PRUEBA
A
183 P60 CORRECTA
88 P29 CORRECTA
259 P86 CORRECTA
124 P41 CORRECTA
10 P3 CORRECTA
17 P5 CORRECTA
233 P77 CORRECTA
303 P100 CORRECTA
4 P1 CORRECTA
64 P21 CORRECTA
257 P85 CORRECTA
71 P23 CORRECTA
213 P70 CORRECTA
14 P4 CORRECTA
114 P37 CORRECTA
235 P78 CORRECTA
119 P39 CORRECTA
80 P26 CORRECTA
245 P81 CORRECTA
13 P4 CORRECTA
206 P68 CORRECTA
8 P2 CORRECTA
300 P99 CORRECTA
179

162 P53 CORRECTA


47 P15 CORRECTA
274 P91 CORRECTA
146 P48 CORRECTA
87 P28 CORRECTA
154 P51 CORRECTA
278 P92 CORRECTA
174 P57 CORRECTA
85 P28 CORRECTA
189 P62 CORRECTA
239 P79 CORRECTA
110 P36 CORRECTA
133 P44 CORRECTA
26 P8 CORRECTA
208 P69 CORRECTA
129 P42 CORRECTA
172 P57 CORRECTA
153 P50 CORRECTA
277 P92 CORRECTA
90 P29 CORRECTA
28 P9 CORRECTA
140 P46 CORRECTA
34 P11 CORRECTA
302 P100 CORRECTA
250 P83 CORRECTA
CORRECTA INCORRECTA
203 P67 CORRECTA
S S
193 P64 CORRECTA 50 0
70 P23 CORRECTA
44 P14 CORRECTA
118 P39 CORRECTA
226 P75 CORRECTA
180

1 P0 CORRECTA
286 P7 INCORRECTA
158 P52 CORRECTA
240 P79 CORRECTA
7 P2 CORRECTA
43 P14 CORRECTA
66 P21 CORRECTA
185 P61 CORRECTA
268 P54 INCORRECTA
171 P56 CORRECTA
181 P60 CORRECTA
104 P34 CORRECTA
139 P46 CORRECTA
166 P55 CORRECTA
63 P20 CORRECTA
292 P97 CORRECTA
3 P0 CORRECTA
191 P63 CORRECTA
247 P82 CORRECTA
215 P71 CORRECTA
31 P100 CORRECTA
15 P4 CORRECTA
117 P38 CORRECTA
82 P27 CORRECTA
29 P9 CORRECTA
219 P72 CORRECTA
175 P58 CORRECTA
97 P32 CORRECTA
285 P94 CORRECTA
217 P72 CORRECTA
163 P54 CORRECTA
214 P71 CORRECTA
181

65 P21 CORRECTA
50 P16 CORRECTA
255 P84 CORRECTA
210 P69 CORRECTA
211 P70 CORRECTA
25 P8 CORRECTA
167 P55 CORRECTA
291 P96 CORRECTA
101 P33 CORRECTA
216 P71 CORRECTA
190 P63 CORRECTA
196 P65 CORRECTA
CORRECTA INCORRECTA
280 P93 CORRECTA
S S
243 P80 CORRECTA 98 2
24 P7 CORRECTA
68 P22 CORRECTA
39 P12 CORRECTA
69 P22 CORRECTA
225 P74 CORRECTA
2 P0 CORRECTA
260 P86 CORRECTA
178 P59 CORRECTA
224 P61 INCORRECTA
296 P98 CORRECTA
98 P77 INCORRECTA
184 P61 CORRECTA
35 P9 INCORRECTA
198 P65 CORRECTA
169 P56 CORRECTA
231 P76 CORRECTA
294 P97 CORRECTA
182

234 P77 CORRECTA


123 P40 CORRECTA
273 P90 CORRECTA
20 P46 INCORRECTA
290 P96 CORRECTA
156 P51 CORRECTA
284 P10 INCORRECTA
248 P82 CORRECTA
84 P27 CORRECTA
30 P9 CORRECTA
262 P87 CORRECTA
122 P40 CORRECTA
59 P19 CORRECTA
218 P72 CORRECTA
253 P84 CORRECTA
295 P98 CORRECTA
83 P27 CORRECTA
142 P47 CORRECTA
130 P43 CORRECTA
45 P11 INCORRECTA
301 P100 CORRECTA
246 P81 CORRECTA
222 P73 CORRECTA
165 P54 CORRECTA
92 P30 CORRECTA
86 P85 INCORRECTA
51 P16 CORRECTA
275 P28 INCORRECTA
289 P96 CORRECTA
126 P41 CORRECTA
204 P67 CORRECTA
183

CORRECTA INCORRECTA
279 P92 CORRECTA
S S
147 P48 CORRECTA 140 10
127 P29 INCORRECTA
136 P45 CORRECTA
58 P19 CORRECTA
199 P66 CORRECTA
202 P67 CORRECTA
267 P46 INCORRECTA
41 P13 CORRECTA
11 P3 CORRECTA
230 P76 CORRECTA
176 P58 CORRECTA
16 P5 CORRECTA
49 P16 CORRECTA
155 P98 INCORRECTA
187 P54 INCORRECTA
102 P33 CORRECTA
144 P47 CORRECTA
195 P64 CORRECTA
53 P17 CORRECTA
135 P44 CORRECTA
18 P5 CORRECTA
19 P6 CORRECTA
168 P55 CORRECTA
74 P24 CORRECTA
180 P59 CORRECTA
37 P12 CORRECTA
194 P64 CORRECTA
205 P68 CORRECTA
109 P36 CORRECTA
200 P66 CORRECTA
184

55 P34 INCORRECTA
57 P94 INCORRECTA
6 P1 CORRECTA
137 P45 CORRECTA
107 P35 CORRECTA
261 P86 CORRECTA
237 P78 CORRECTA
9 P2 CORRECTA
94 P9 INCORRECTA
265 P88 CORRECTA
209 P69 CORRECTA
42 P13 CORRECTA
212 P70 CORRECTA
62 P20 CORRECTA
197 P65 CORRECTA
113 P37 CORRECTA
256 P85 CORRECTA
186 P61 CORRECTA
141 P46 CORRECTA
CORRECTA INCORRECTA
100 P32 INCORRECTA
S S
27 P8 CORRECTA 182 18
236 P78 CORRECTA
75 P24 CORRECTA
207 P68 CORRECTA
152 P85 INCORRECTA
182 P60 CORRECTA
32 P10 CORRECTA
232 P10 INCORRECTA
12 P3 CORRECTA
38 P12 CORRECTA
188 P9 INCORRECTA
185

177 P58 CORRECTA


249 P82 CORRECTA
282 P93 CORRECTA
67 P22 CORRECTA
287 P26 INCORRECTA
252 P83 CORRECTA
81 P26 CORRECTA
227 P75 CORRECTA
148 P49 CORRECTA
293 P97 CORRECTA
112 P37 CORRECTA
173 P57 CORRECTA
271 P90 CORRECTA
46 P15 CORRECTA
91 P30 CORRECTA
116 P7 INCORRECTA
254 P84 CORRECTA
297 P98 CORRECTA
54 P17 CORRECTA
288 P95 CORRECTA
96 P26 INCORRECTA
266 P88 CORRECTA
40 P13 CORRECTA
229 P76 CORRECTA
170 P56 CORRECTA
103 P34 CORRECTA
145 P48 CORRECTA
128 P42 CORRECTA
99 P32 CORRECTA
270 P89 CORRECTA
263 P87 CORRECTA
79 P26 CORRECTA
186

115 P38 CORRECTA


143 P47 CORRECTA
192 P63 CORRECTA
121 P40 CORRECTA
111 P36 CORRECTA
299 P99 CORRECTA
CORRECTA INCORRECTA
258 P85 CORRECTA
S S
73 P24 CORRECTA 226 24
220 P73 CORRECTA
221 P73 CORRECTA
298 P5 INCORRECTA
244 P81 CORRECTA
36 P96 INCORRECTA
179 P59 CORRECTA
228 P75 CORRECTA
5 P1 CORRECTA
238 P79 CORRECTA
134 P66 INCORRECTA
160 P53 CORRECTA
120 P39 CORRECTA
89 P29 CORRECTA
150 P49 CORRECTA
61 P20 CORRECTA
95 P31 CORRECTA
276 P28 INCORRECTA
149 P49 CORRECTA
281 P93 CORRECTA
72 P23 CORRECTA
93 P89 INCORRECTA
272 P90 CORRECTA
23 P7 CORRECTA
187

283 P94 CORRECTA


157 P52 CORRECTA
108 P35 CORRECTA
21 P6 CORRECTA
269 P54 INCORRECTA
48 P15 CORRECTA
106 P35 CORRECTA
223 p74 CORRECTA
77 P25 CORRECTA
161 P53 CORRECTA
241 P80 CORRECTA
22 P7 CORRECTA
52 P17 CORRECTA
164 P54 CORRECTA
159 P52 CORRECTA
151 P50 CORRECTA
60 P19 CORRECTA
125 P6 INCORRECTA
56 P8 INCORRECTA
251 P83 CORRECTA
242 P80 CORRECTA
264 P87 CORRECTA
131 P43 CORRECTA
201 P66 CORRECTA
78 P25 CORRECTA
33 P10 CORRECTA
138 P45 CORRECTA
105 P34 CORRECTA
CORRECTA INCORRECTA
132 P43 CORRECTA
S S
76 P25 CORRECTA 271 32
188

TOTAL ACIERTOS 271


TOTAL DESHACIERTOS 32
TOTAL IMÁGENES DE
PRUEBA: 303
Correcta: Cuando SI identificó la clases correcta a la que pertenece
Incorrecta: Cuando NO identificó la clases correcta a la que pertenece
189

ANEXO 8. Resultados con la bdd MUCT, kernel CUBICO

RESULTADOS CON LA BASE DE DATOS MUCT


KERNEL
CUBICO
CLASE O
ROSTROS DE
PERSONA VALIDACION
PRUEBA
IDENTIFICADA
183 P60 CORRECTA
88 P29 CORRECTA
259 P86 CORRECTA
124 P41 CORRECTA
10 P3 CORRECTA
17 P5 CORRECTA
233 P77 CORRECTA
303 P100 CORRECTA
4 P1 CORRECTA
64 P21 CORRECTA
257 P85 CORRECTA
71 P23 CORRECTA
213 P70 CORRECTA
14 P4 CORRECTA
114 P37 CORRECTA
235 P78 CORRECTA
119 P39 CORRECTA
80 P26 CORRECTA
245 P81 CORRECTA
13 P4 CORRECTA
206 P68 CORRECTA
8 P2 CORRECTA
300 P99 CORRECTA
162 P53 CORRECTA
47 P15 CORRECTA
190

274 P91 CORRECTA


146 P48 CORRECTA
87 P28 CORRECTA
154 P51 CORRECTA
278 P92 CORRECTA
174 P57 CORRECTA
85 P28 CORRECTA
189 P62 CORRECTA
239 P79 CORRECTA
110 P36 CORRECTA
133 P44 CORRECTA
26 P8 CORRECTA
208 P69 CORRECTA
129 P42 CORRECTA
172 P57 CORRECTA
153 P50 CORRECTA
277 P92 CORRECTA
90 P29 CORRECTA
28 P9 CORRECTA
140 P46 CORRECTA
34 P11 CORRECTA
302 P100 CORRECTA
250 P83 CORRECTA
203 P67 CORRECTA CORRECTAS INCORRECTAS
193 P64 CORRECTA 50 0
70 P23 CORRECTA
44 P14 CORRECTA
118 P39 CORRECTA
226 P75 CORRECTA
1 P0 CORRECTA
286 P95 CORRECTA
158 P52 CORRECTA
191

240 P30 INCORRECTA


7 P2 CORRECTA
43 P14 CORRECTA
66 P21 CORRECTA
185 P61 CORRECTA
268 P89 CORRECTA
171 P56 CORRECTA
181 P60 CORRECTA
104 P34 CORRECTA
139 P46 CORRECTA
166 P55 CORRECTA
63 P3 INCORRECTA
292 P97 CORRECTA
3 P0 CORRECTA
191 P63 CORRECTA
247 P82 CORRECTA
215 P71 CORRECTA
31 P10 CORRECTA
15 P4 CORRECTA
117 P38 CORRECTA
82 P27 CORRECTA
29 P9 CORRECTA
219 P72 CORRECTA
175 P58 CORRECTA
97 P32 CORRECTA
285 P94 CORRECTA
217 P72 CORRECTA
163 P54 CORRECTA
214 P71 CORRECTA
65 P77 INCORRECTA
50 P16 CORRECTA
255 P46 INCORRECTA
192

210 P69 CORRECTA


211 P70 CORRECTA
25 P8 CORRECTA
167 P55 CORRECTA
291 P1 INCORRECTA
101 P33 CORRECTA
216 P71 CORRECTA
190 P63 CORRECTA
196 P65 CORRECTA
280 P93 CORRECTA CORRECTAS INCORRECTAS
243 P80 CORRECTA 95 5
24 P7 CORRECTA
68 P22 CORRECTA
39 P12 CORRECTA
69 P22 CORRECTA
225 P74 CORRECTA
2 P0 CORRECTA
260 P86 CORRECTA
178 P59 CORRECTA
224 P74 CORRECTA
296 P98 CORRECTA
98 P32 CORRECTA
184 P61 CORRECTA
35 P11 CORRECTA
198 P65 CORRECTA
169 P56 CORRECTA
231 P76 CORRECTA
294 P97 CORRECTA
234 P77 CORRECTA
123 P37 INCORRECTA
273 P90 CORRECTA
20 P6 CORRECTA
193

290 P96 CORRECTA


156 P51 CORRECTA
284 P94 CORRECTA
248 P41 INCORRECTA
84 P27 CORRECTA
30 P9 CORRECTA
262 P14 INCORRECTA
122 P37 INCORRECTA
59 P19 CORRECTA
218 P72 CORRECTA
253 P84 CORRECTA
295 P98 CORRECTA
83 P27 CORRECTA
142 P47 CORRECTA
130 P43 CORRECTA
45 P14 CORRECTA
301 P100 CORRECTA
246 P81 CORRECTA
222 P73 CORRECTA
165 P54 CORRECTA
92 P30 CORRECTA
86 P28 CORRECTA
51 P16 CORRECTA
275 P91 CORRECTA
289 P96 CORRECTA
126 P41 CORRECTA
204 P67 CORRECTA
279 P92 CORRECTA CORRECTAS INCORRECTAS
147 P48 CORRECTA 141 9
127 P42 CORRECTA
136 P45 CORRECTA
58 P19 CORRECTA
194

199 P66 CORRECTA


202 P67 CORRECTA
267 P88 CORRECTA
41 P13 CORRECTA
11 P3 CORRECTA
230 P76 CORRECTA
176 P58 CORRECTA
16 P5 CORRECTA
49 P41 INCORRECTA
155 P51 CORRECTA
187 P62 CORRECTA
102 P33 CORRECTA
144 P47 CORRECTA
195 P64 CORRECTA
53 P17 CORRECTA
135 P44 CORRECTA
18 P5 CORRECTA
19 P6 CORRECTA
168 P55 CORRECTA
74 P24 CORRECTA
180 P59 CORRECTA
37 P12 CORRECTA
194 P64 CORRECTA
205 P68 CORRECTA
109 P36 CORRECTA
200 P66 CORRECTA
55 P18 CORRECTA
57 P18 CORRECTA
6 P1 CORRECTA
137 P45 CORRECTA
107 P88 INCORRECTA
261 P86 CORRECTA
195

237 P78 CORRECTA


9 P2 CORRECTA
94 P31 CORRECTA
265 P88 CORRECTA
209 P69 CORRECTA
42 P13 CORRECTA
212 P70 CORRECTA
62 P20 CORRECTA
197 P63 INCORRECTA
113 P37 CORRECTA
256 P85 CORRECTA
186 P61 CORRECTA
141 P46 CORRECTA
100 P33 CORRECTA CORRECTAS INCORRECTAS
27 P8 CORRECTA 188 12
236 P78 CORRECTA
75 P24 CORRECTA
207 P68 CORRECTA
152 P50 CORRECTA
182 P60 CORRECTA
32 P10 CORRECTA
232 P77 CORRECTA
12 P3 CORRECTA
38 P12 CORRECTA
188 P62 CORRECTA
177 P58 CORRECTA
249 P82 CORRECTA
282 P93 CORRECTA
67 P22 CORRECTA
287 P95 CORRECTA
252 P83 CORRECTA
81 P26 CORRECTA
196

227 P75 CORRECTA


148 P49 CORRECTA
293 P97 CORRECTA
112 P37 CORRECTA
173 P57 CORRECTA
271 P90 CORRECTA
46 P15 CORRECTA
91 P30 CORRECTA
116 P38 CORRECTA
254 P84 CORRECTA
297 P98 CORRECTA
54 P17 CORRECTA
288 P95 CORRECTA
96 P31 CORRECTA
266 P88 CORRECTA
40 P13 CORRECTA
229 P76 CORRECTA
170 P56 CORRECTA
103 P89 INCORRECTA
145 P48 CORRECTA
128 P42 CORRECTA
99 P32 CORRECTA
270 P89 CORRECTA
263 P87 CORRECTA
79 P95 INCORRECTA
115 P38 CORRECTA
143 P50 INCORRECTA
192 P50 INCORRECTA
121 P71 INCORRECTA
111 P36 CORRECTA
299 P99 CORRECTA
258 P85 CORRECTA CORRECTAS INCORRECTAS
197

73 P24 CORRECTA 233 17


220 P73 CORRECTA
221 P7 INCORRECTA
298 P99 CORRECTA
244 P81 CORRECTA
36 P11 CORRECTA
179 P59 CORRECTA
228 P75 CORRECTA
5 P1 CORRECTA
238 P51 INCORRECTA
134 P44 CORRECTA
160 P53 CORRECTA
120 P39 CORRECTA
89 P29 CORRECTA
150 P49 CORRECTA
61 P20 CORRECTA
95 P31 CORRECTA
276 P91 CORRECTA
149 P49 CORRECTA
281 P93 CORRECTA
72 P23 CORRECTA
93 P30 CORRECTA
272 P90 CORRECTA
23 P7 CORRECTA
283 P94 CORRECTA
157 P52 CORRECTA
108 P35 CORRECTA
21 P6 CORRECTA
269 P89 CORRECTA
48 P15 CORRECTA
106 P35 CORRECTA
223 P74 CORRECTA
198

77 P25 CORRECTA
161 P53 CORRECTA
241 P80 CORRECTA
22 P7 CORRECTA
52 P17 CORRECTA
164 P54 CORRECTA
159 P52 CORRECTA
151 P50 CORRECTA
60 P19 CORRECTA
125 P41 CORRECTA
56 P18 CORRECTA
251 P83 CORRECTA
242 P80 CORRECTA
264 P87 CORRECTA
131 P43 CORRECTA
201 P66 CORRECTA
78 P25 CORRECTA
33 P10 CORRECTA
138 P45 CORRECTA
105 P34 CORRECTA
132 P43 CORRECTA CORRECTAS INCORRECTAS
76 P25 CORRECTA 284 19

TOTAL ACIERTOS 284


TOTAL DESHACIERTOS 19
TOTAL IMÁGENES DE
PRUEBA: 303
CORRECTA: Cuando SI identificó la clase correcta a la que pertenece
INCORRECTO: Cuando NO identificó la clase correcta a la que pertenece
199

ANEXO 9. Resultados con la bdd MUCT, kernel GAUSSIANO

RESULTADOS CON LA BASE DE DATOS


MUCT
KERNEL GAUSSIANO
CLASE O
ROSTRO
PERSONA
S DE VALIDACION
IDENTIFICAD
PRUEBA
A
183 P60 CORRECTA
88 P29 CORRECTA
259 P86 CORRECTA
124 P41 CORRECTA
10 P3 CORRECTA
17 P5 CORRECTA
233 P77 CORRECTA
303 P100 CORRECTA
4 P1 CORRECTA
64 P21 CORRECTA
257 P85 CORRECTA
71 P23 CORRECTA
213 P70 CORRECTA
14 P4 CORRECTA
114 P37 CORRECTA
235 P78 CORRECTA
119 P39 CORRECTA
80 P26 CORRECTA
245 P81 CORRECTA
13 P4 CORRECTA
206 P68 CORRECTA
8 P2 CORRECTA
300 P99 CORRECTA
162 P53 CORRECTA
47 P15 CORRECTA
274 P91 CORRECTA
146 P48 CORRECTA
87 P28 CORRECTA
154 P51 CORRECTA
278 P92 CORRECTA
174 P57 CORRECTA
85 P28 CORRECTA
189 P62 CORRECTA
239 P79 CORRECTA
110 P36 CORRECTA
200

133 P44 CORRECTA


26 P8 CORRECTA
208 P69 CORRECTA
129 P42 CORRECTA
172 P57 CORRECTA
153 P50 CORRECTA
277 P92 CORRECTA
90 P29 CORRECTA
28 P9 CORRECTA
140 P46 CORRECTA
34 P11 CORRECTA
302 P100 CORRECTA
250 P83 CORRECTA
CORRECTA INCORRECTA
203 P67 CORRECTA
S S
193 P64 CORRECTA 50 0
70 P23 CORRECTA
44 P14 CORRECTA
118 P39 CORRECTA
226 P75 CORRECTA
1 P0 CORRECTA
286 P95 CORRECTA
158 P52 CORRECTA
240 P79 CORRECTA
7 P2 CORRECTA
43 P14 CORRECTA
66 P21 CORRECTA
185 P61 CORRECTA
268 P54 INCORRECTA
171 P56 CORRECTA
181 P60 CORRECTA
104 P34 CORRECTA
139 P46 CORRECTA
166 P55 CORRECTA
63 P20 CORRECTA
292 P97 CORRECTA
3 P0 CORRECTA
191 P63 CORRECTA
247 P82 CORRECTA
215 P71 CORRECTA
31 P10 CORRECTA
15 P4 CORRECTA
117 P38 CORRECTA
82 P27 CORRECTA
201

29 P9 CORRECTA
219 P72 CORRECTA
175 P58 CORRECTA
97 P32 CORRECTA
285 P94 CORRECTA
217 P72 CORRECTA
163 P54 CORRECTA
214 P71 CORRECTA
65 P21 CORRECTA
50 P16 CORRECTA
255 P84 CORRECTA
210 P69 CORRECTA
211 P70 CORRECTA
25 P8 CORRECTA
167 P55 CORRECTA
291 P96 CORRECTA
101 P33 CORRECTA
216 P71 CORRECTA
190 P63 CORRECTA
196 P65 CORRECTA
CORRECTA INCORRECTA
280 P93 CORRECTA
S S
243 P80 CORRECTA 99 1
24 P7 CORRECTA
68 P22 CORRECTA
39 P12 CORRECTA
69 P22 CORRECTA
225 P74 CORRECTA
2 P0 CORRECTA
260 P86 CORRECTA
178 P59 CORRECTA
224 P61 INCORRECTA
296 P98 CORRECTA
98 P77 INCORRECTA
184 P95 INCORRECTA
35 P11 CORRECTA
198 P65 CORRECTA
169 P56 CORRECTA
231 P76 CORRECTA
294 P97 CORRECTA
234 P77 CORRECTA
123 P40 CORRECTA
273 P90 CORRECTA
20 P46 INCORRECTA
202

290 P96 CORRECTA


156 P51 CORRECTA
284 P10 INCORRECTA
248 P82 CORRECTA
84 P27 CORRECTA
30 P9 CORRECTA
262 P87 CORRECTA
122 P40 CORRECTA
59 P19 CORRECTA
218 P72 CORRECTA
253 P84 CORRECTA
295 P98 CORRECTA
83 P27 CORRECTA
142 P47 CORRECTA
130 P43 CORRECTA
45 P89 INCORRECTA
301 P100 CORRECTA
246 P81 CORRECTA
222 P73 CORRECTA
165 P54 CORRECTA
92 P30 CORRECTA
86 P85 INCORRECTA
51 P16 CORRECTA
275 P28 INCORRECTA
289 P96 CORRECTA
126 P41 CORRECTA
204 P67 CORRECTA
CORRECTA INCORRECTA
279 P92 CORRECTA
S S
147 P48 CORRECTA 141 1
127 P29 INCORRECTA
136 P45 CORRECTA
58 P19 CORRECTA
199 P66 CORRECTA
202 P67 CORRECTA
267 P88 CORRECTA
41 P13 CORRECTA
11 P3 CORRECTA
230 P76 CORRECTA
176 P58 CORRECTA
16 P5 CORRECTA
49 P16 CORRECTA
155 P98 INCORRECTA
187 P54 INCORRECTA
203

102 P33 CORRECTA


144 P47 CORRECTA
195 P64 CORRECTA
53 P17 CORRECTA
135 P44 CORRECTA
18 P5 CORRECTA
19 P6 CORRECTA
168 P55 CORRECTA
74 P24 CORRECTA
180 P59 CORRECTA
37 P12 CORRECTA
194 P64 CORRECTA
205 P68 CORRECTA
109 P36 CORRECTA
200 P66 CORRECTA
55 P34 INCORRECTA
57 P94 INCORRECTA
6 P1 CORRECTA
137 P45 CORRECTA
107 P35 CORRECTA
261 P86 CORRECTA
237 P78 CORRECTA
9 P2 CORRECTA
94 P9 INCORRECTA
265 P88 CORRECTA
209 P69 CORRECTA
42 P13 CORRECTA
212 P70 CORRECTA
62 P20 CORRECTA
197 P65 CORRECTA
113 P37 CORRECTA
256 P85 CORRECTA
186 P61 CORRECTA
141 P46 CORRECTA
CORRECTA INCORRECTA
100 P33 CORRECTA
S S
27 P8 CORRECTA 185 15
236 P78 CORRECTA
75 P24 CORRECTA
207 P68 CORRECTA
152 P85 INCORRECTA
182 P60 CORRECTA
32 P10 CORRECTA
232 P10 INCORRECTA
204

12 P3 CORRECTA
38 P12 CORRECTA
188 P9 INCORRECTA
177 P58 CORRECTA
249 P82 CORRECTA
282 P93 CORRECTA
67 P22 CORRECTA
287 P26 INCORRECTA
252 P83 CORRECTA
81 P70 INCORRECTA
227 P75 CORRECTA
148 P49 CORRECTA
293 P97 CORRECTA
112 P37 CORRECTA
173 P57 CORRECTA
271 P90 CORRECTA
46 P15 CORRECTA
91 P30 CORRECTA
116 P38 CORRECTA
254 P84 CORRECTA
297 P98 CORRECTA
54 P17 CORRECTA
288 P95 CORRECTA
96 P26 INCORRECTA
266 P88 CORRECTA
40 P13 CORRECTA
229 P76 CORRECTA
170 P56 CORRECTA
103 P34 CORRECTA
145 P48 CORRECTA
128 P42 CORRECTA
99 P32 CORRECTA
270 P89 CORRECTA
263 P87 CORRECTA
79 P26 CORRECTA
115 P38 CORRECTA
143 P47 CORRECTA
192 P63 CORRECTA
121 P40 CORRECTA
111 P36 CORRECTA
299 P99 CORRECTA
CORRECTA INCORRECTA
258 P85 CORRECTA
S S
73 P24 CORRECTA 229 21
205

220 P73 CORRECTA


221 P73 CORRECTA
298 P63 INCORRECTA
244 P81 CORRECTA
36 P96 INCORRECTA
179 P59 CORRECTA
228 P75 CORRECTA
5 P1 CORRECTA
238 P79 CORRECTA
134 P66 INCORRECTA
160 P53 CORRECTA
120 P39 CORRECTA
89 P29 CORRECTA
150 P49 CORRECTA
61 P20 CORRECTA
95 P31 CORRECTA
276 P28 INCORRECTA
149 P49 CORRECTA
281 P93 CORRECTA
72 P23 CORRECTA
93 P89 INCORRECTA
272 P90 CORRECTA
23 P7 CORRECTA
283 P94 CORRECTA
157 P52 CORRECTA
108 p35 CORRECTA
21 p6 CORRECTA
269 P54 INCORRECTA
48 P15 CORRECTA
106 P35 CORRECTA
223 P74 CORRECTA
77 P25 CORRECTA
161 P53 CORRECTA
241 P80 CORRECTA
22 P7 CORRECTA
52 P17 CORRECTA
164 P54 CORRECTA
159 P52 CORRECTA
151 P50 CORRECTA
60 p19 CORRECTA
125 P6 INCORRECTA
56 P8 INCORRECTA
251 P83 CORRECTA
242 P80 CORRECTA
206

264 P87 CORRECTA


131 P43 CORRECTA
201 P66 CORRECTA
78 P25 CORRECTA
33 P9 CORRECTA
138 P45 CORRECTA
105 P34 CORRECTA
CORRECTA INCORRECTA
132 P43 CORRECTA
S S
76 P25 CORRECTA 274 29

TOTAL ACIERTOS 274


TOTAL DESHACIERTOS 29
TOTAL IMÁGENES DE
PRUEBA: 303
Correcta: Cuando SI identificó la clases correcta a la que pertenece
Incorrecta: Cuando NO identificó la clases correcta a la que pertenece
207

ANEXO 10: Interfaz para reconocimiento facial 3D con bdd TEXAS3DFRD y


sus kernels: lineal, cúbico y gaussiano.
208

ANEXO 11. Resultados con la bdd Texas 3DFRD, kernel Lineal

RESULTADOS CON LA BASE DE DATOS


TEXAS_3D
KERNEL
LINEAL
ROSTROS CLASE O
DE PERSONA VALIDACION
PRUEBA IDENTIFICADA
53 P44 SI
157 p14 SI
171 P16 SI
133 P10 SI
110 P6 SI
144 P12 SI
176 P17 SI
82 P13 NO
79 P2 SI
175 P17 SI
114 P7 SI
126 P9 SI
86 P2 SI
118 P8 SI
137 P11 SI
25 P31 SI
15 P26 SI
50 P43 SI
127 P15 NO
113 P7 SI
16 P7 NO
108 P6 SI
123 P8 SI
104 P5 SI
47 P41 SI
7 P22 SI
88 P2 SI
27 P32 SI
17 P27 SI
129 P10 SI
107 P6 SI
30 P17 NO
20 P28 SI
33 P11 NO
181 P18 SI
209

44 P11 NO
2 P19 SI
91 P3 SI
51 P43 SI
84 P2 SI
83 P2 SI
169 P12 SI
158 P14 SI
32 P34 SI
152 P13 SI
109 P1 NO
45 P11 NO
90 P3 SI
35 P36 SI CORRECTA INCORRECTO
65 P50 SI 42 8
3 P6 NO
153 P13 SI
151 P13 SI
52 P17 NO
178 P18 SI
73 P1 SI
112 P7 SI
67 P1 SI
26 P31 SI
164 P15 SI
61 P48 SI
155 P18 SI
167 P15 NO
36 P36 SI
1 P19 SI
143 P12 SI
120 P8 SI
180 P18 SI
105 P5 SI
31 P34 SI
22 P29 SI
135 P48 NO
117 P7 SI
59 P47 SI
24 P30 SI
147 P12 SI
87 P2 SI
78 P2 SI
10 P13 NO
210

96 P11 SI
43 P39 SI
29 P33 SI
115 P7 SI
66 P1 SI
100 P5 SI
132 P10 SI
92 P3 SI
4 P16 NO
99 P4 SI
9 P2 NO
140 P11 SI
68 P1 SI
11 P24 SI
58 P47 SI
145 P12 SI
69 P1 SI
75 P1 SI
63 P49 SI
28 P32 SI CORRECTA INCORRECTO
182 P18 SI 85 15
179 p18 SI
41 p38 SI
80 P2 SI
170 P16 SI
12 P24 SI
136 P11 SI
77 P2 SI
141 P11 SI
128 P9 SI
64 P50 SI
23 P30 SI
150 P13 SI
146 P12 SI
94 P3 SI
156 P17 SI
81 P2 SI
165 P15 SI
85 P2 SI
98 P4 SI
21 P29 SI
76 P5 NO
102 P5 SI
89 P3 SI
211

138 P11 SI
97 P4 SI
101 P5 SI
160 P15 SI
106 P6 SI
37 P37 SI
93 P3 SI
159 P14 SI
131 P10 SI
56 P18 NO
125 P9 SI
18 P27 SI
121 P8 SI
49 P42 SI
161 P15 SI
72 P1 SI
48 P42 SI
71 P1 SI
54 P45 SI
39 P37 SI
5 P8 NO
14 P25 SI
163 P15 SI
148 P13 SI
62 P49 SI
40 P38 SI CORRECTA INCORRECTO
174 P17 SI 132 18
166 P16 SI
55 P45 SI
142 P12 SI
19 P28 SI
34 P35 SI
183 P18 SI
154 P14 SI
134 P18 NO
173 P17 SI
95 P4 SI
130 P10 SI
60 P48 SI
6 P8 NO
8 P22 SI
162 P15 SI
168 P11 NO
57 P46 SI
212

70 P1 SI
177 P17 SI
74 P1 SI
119 P8 SI
139 P11 SI
42 P39 SI
38 P37 SI
149 P13 SI
172 P17 SI
13 P25 SI
116 P7 SI
111 P6 SI
46 P41 SI
122 P8 SI
103 P5 SI CORRECTA INCORRECTO
124 P9 SI 162 21

TOTAL, ACIERTOS 162


TOTAL, DESHACIERTOS 21
TOTAL, IMÁGENES DE
PRUEBA: 183
Correcta: Cuando SI identificó la clase correcta a la que pertenece
Incorrecta: Cuando NO identificó la clase correcta a la que pertenece
213

ANEXO 12. Resultados con la bdd Texas 3DFRD, kernel Cúbico

ROSTROS CLASE O
DE PERSONA VALIDACION
PRUEBA IDENTIFICADA
53 P44 SI
157 P14 SI
171 P16 SI
133 P10 SI
110 P6 SI
144 P12 SI
176 P17 SI
82 P1 SI
79 P2 SI
175 P17 SI
114 P7 SI
126 P9 SI
86 P2 SI
118 P8 SI
137 P11 SI
25 P31 SI
15 P26 SI
50 P43 SI
127 P9 SI
113 P7 SI
16 P26 SI
108 P6 SI
123 P8 SI
104 P5 SI
47 P41 SI
7 P22 SI
88 P2 SI
27 P32 SI
17 P27 SI
129 P10 SI
107 P6 SI
30 P33 SI
20 P28 SI
33 P35 SI
181 P18 SI
44 P40 SI
2 P19 SI
91 P3 SI
51 P43 SI
214

84 P2 SI
83 P2 SI
169 P12 SI
158 P14 SI
32 P34 SI
152 P13 SI
109 P6 SI
45 P40 SI
90 P3 SI
35 P36 SI CORRECTA INCORRECTO
65 P50 SI 50 0
3 P12 NO
153 P13 SI
151 P13 SI
52 P44 SI
178 P18 SI
73 P1 SI
112 P7 SI
67 P1 SI
26 P31 SI
164 P15 SI
61 P48 SI
155 P18 SI
167 P15 NO
36 P36 SI
1 P19 SI
143 P12 SI
120 P8 SI
180 P18 SI
105 P5 SI
31 P34 SI
22 P29 SI
135 P10 SI
117 P7 SI
59 P47 SI
24 P30 SI
147 P12 SI
87 P2 SI
78 P2 SI
10 P23 SI
96 P11 SI
43 P39 SI
29 P33 SI
115 P7 SI
215

66 P1 SI
100 P5 SI
132 P10 SI
92 P3 SI
4 P16 NO
99 P4 SI
9 P23 SI
140 P11 SI
68 P1 SI
11 P24 SI
58 P47 SI
145 P12 SI
69 P1 SI
75 P1 SI
63 P49 SI
28 P32 SI CORRECTA INCORRECTO
182 P18 SI 97 3
179 P18 SI
41 P38 SI
80 P2 SI
170 P16 SI
12 P24 SI
136 P11 SI
77 P2 SI
141 P11 SI
128 P9 SI
64 P50 SI
23 P30 SI
150 P13 SI
146 P12 SI
94 P3 SI
156 P17 SI
81 P2 SI
165 P15 SI
85 P2 SI
98 P4 SI
21 P29 SI
76 P1 SI
102 P5 SI
89 P3 SI
138 P11 SI
97 P4 SI
101 P5 SI
160 P15 SI
216

106 P6 SI
37 P37 SI
93 P3 SI
159 P14 SI
131 P10 SI
56 P46 SI
125 P9 SI
18 P27 SI
121 P8 SI
49 P42 SI
161 P15 SI
72 P1 SI
48 P42 SI
71 P1 SI
54 P45 SI
39 P37 SI
5 P21 SI
14 P25 SI
163 P15 SI
148 P13 SI
62 P49 SI
40 P38 SI CORRECTA INCORRECTO
174 P17 SI 147 3
166 P16 SI
55 P45 SI
142 P12 SI
19 P28 SI
34 P35 SI
183 P18 SI
154 P14 SI
134 P10 SI
173 P17 SI
95 P4 SI
130 P10 SI
60 P48 SI
6 P8 SI
8 P22 SI
162 P15 SI
168 P16 SI
57 P46 SI
70 P1 SI
177 P17 SI
74 P1 SI
119 P8 SI
217

139 P11 SI
42 P39 SI
38 P37 SI
149 P13 SI
172 P17 SI
13 P25 SI
116 P7 SI
111 P6 SI
46 P41 SI
122 P8 SI
103 P5 SI CORRECTA INCORRECTO
124 P9 SI 180 3

TOTAL ACIERTOS 180


TOTAL DESHACIERTOS 3
TOTAL IMÁGENES DE
PRUEBA: 183
Correcta: Cuando SI identificó la clases correcta a la que pertenece
Incorrecta: Cuando NO identificó la clases correcta a la que pertenece
218

ANEXO 13. Resultados con la bdd Texas 3DFRD, kernel Gaussiano

RESULTADOS CON LA BASE DE DATOS


TEXAS_3D
KERNEL GAUSSIANO
ROSTROS CLASE O
DE PERSONA VALIDACION
PRUEBA IDENTIFICADA
53 P44 SI
157 P8 NO
171 P16 SI
133 P10 SI
110 P6 SI
144 P12 SI
176 P17 SI
82 P5 NO
79 P2 SI
175 P17 SI
114 P7 SI
126 P9 SI
86 P5 NO
118 P8 SI
137 P11 SI
25 P31 SI
15 P7 NO
50 P43 SI
127 P15 NO
113 P7 SI
16 P7 NO
108 P6 SI
123 P8 SI
104 P5 SI
47 P41 SI
7 P22 SI
88 P2 SI
27 P8 NO
17 P27 SI
129 P10 SI
107 P6 SI
30 P33 SI
20 P28 SI
33 P11 NO
181 P18 SI
44 P40 SI
219

2 P19 SI
91 P3 SI
51 P43 SI
84 P2 SI
83 P2 SI
169 P12 SI
158 P14 SI
32 P34 SI
152 P13 SI
109 P1 NO
45 P5 NO
90 P3 SI
35 P36 SI CORRECTA INCORRECTO
65 P50 SI 40 10
3 P6 NO
153 P13 SI
151 P13 SI
52 P44 SI
178 P18 SI
73 P1 SI
112 P7 SI
67 P1 SI
26 P31 SI
164 P15 SI
61 P48 SI
155 P14 NO
167 P15 NO
36 P36 SI
1 P19 SI
143 P12 SI
120 P8 SI
180 P18 SI
105 P5 SI
31 P34 SI
22 P29 SI
135 P10 SI
117 P7 SI
59 P47 SI
24 P30 SI
147 P12 SI
87 P2 SI
78 P2 SI
10 P13 NO
96 P11 SI
220

43 P15 NO
29 P33 SI
115 P7 SI
66 P1 SI
P5 SI
132 P10 SI
92 P3 SI
4 P18 NO
99 P4 SI
9 P2 NO
140 P11 SI
68 P1 SI
11 P24 SI
58 P47 SI
145 P12 SI
69 P1 SI
75 P1 SI
63 P49 SI
28 P17 NO CORRECTA INCORRECTO
182 P18 SI 82 18
179 P18 SI
41 P38 SI
80 P2 SI
170 P18 NO
12 P24 SI
136 P11 SI
77 P5 NO
141 P11 SI
128 P9 SI
64 P50 SI
23 P30 SI
150 P2 NO
146 P12 SI
94 P3 SI
156 P17 SI
81 P2 SI
165 P11 NO
85 P2 SI
98 P4 SI
21 P29 SI
76 P5 NO
102 P18 NO
89 P3 SI
138 P11 SI
221

97 P4 SI
101 P5 SI
160 P15 SI
106 P6 SI
37 P37 SI
93 P3 SI
159 P14 SI
131 P10 SI
56 P46 SI
125 P9 SI
18 P27 SI
121 P17 NO
49 P42 SI
161 P15 SI
72 P1 SI
48 P42 SI
71 P1 SI
54 P45 SI
39 P37 SI
5 P8 NO
14 P25 SI
163 P15 SI
148 P13 SI
62 P49 SI
40 P38 SI CORRECTA INCORRECTO
174 P17 SI 124 26
166 P5 NO
55 P11 NO
142 P12 SI
19 P28 SI
34 P11 NO
183 P18 SI
154 P12 NO
134 P15 NO
173 P17 SI
95 P4 SI
130 P10 SI
60 P48 SI
6 P8 SI
8 P22 SI
162 P15 SI
168 P5 NO
57 P46 SI
70 P1 SI
222

177 P17 SI
74 P1 SI
119 P8 SI
139 P11 SI
42 P39 SI
38 P37 SI
149 P13 SI
172 P17 SI
13 P25 SI
116 P7 SI
111 P6 SI
46 P41 SI
122 P12 NO
103 P5 SI CORRECTA INCORRECTO
124 P9 SI 150 33

TOTAL, ACIERTOS 150


TOTAL, DESHACIERTOS 33
TOTAL, IMÁGENES DE
PRUEBA: 183
Correcta: Cuando SI identificó la clase correcta a la que pertenece
Incorrecta: Cuando NO identificó la clase correcta a la que pertenece
223

ANEXO 14: INTERFAZ PARA RECONOCIMIENTO FACIAL EN 3D CON


BU-3DFE
224

ANEXO 15: Código para obtener una perspectiva de un modelo de cara 3D


225

ANEXO 16: RESULTADOS CON LA BASE DE DATOS BU_3DFE – KERNEL


LINEAL

RESULTADOS CON LA BASE DE DATOS BU_3DFE


KERNEL LINEAL
ROSTROS
CLASE O PERSONA
DE VALIDACION
IDENTIFICADA
PRUEBA
1 p1 Si
2 p1 si
3 p1 si
4 p2, p50, p26 no
5 p2, p24, p2 si
6 p40, p30, p11 no
7 p3 si
8 p3, p44, p7 no
9 p43, p19, p23 no
10 p4, p10, p23 no
11 p4, p24, p21 no
12 p4 si
13 p5, p5, p7 si
14 p5, p5, p30 si
15 p44, p45, p5 no
16 p6 si
17 p6 si
18 p6 si
19 p7 si
20 p7 si
21 p7 si
22 p10, p29, p44 no
23 p47, p47, p26 no
24 p26, p44, p47 no
25 p9 si
26 p9 si
27 p9 si
28 p10 si
29 p10 si
30 p10 si
31 p11 si
32 p11 si
33 p11 si
34 p26, p12, p12 si
35 p12 si
36 p12 si
226

37 p13 si
38 p13 si
39 p13 si
40 p47, p14, p14 si
41 p14, p14, p47 si
42 p14 si
43 p15 si
44 p15 si
45 p15, p21, p15 si
46 p16, p29,30 no
47 p16, p47, p16 si
48 p16, p47p26 no
49 p17 si
50 p17 si
51 p17, p17, p11 si
52 p18 si
53 p18 si
54 p18 si
55 p19 si
56 p19 si
57 p19 si
58 p20 si
59 p20 si
60 p20 si
61 p21 si
62 p21 si
63 p21 si
64 p22 si
65 p22 si
66 p22 si
67 p23 si
68 p23 si
69 p23 si
70 p24 si
71 p24 si
72 p24 si
73 p25 si
74 p25, p25, p3 si
75 p25 si
76 p26 si
77 p26 si
78 p26 si
79 p27 si
80 p27 si
227

81 p27 si
82 p23, p44, p45 no
83 p47, p30, p11 no
84 p19, p44, p24 no
85 p29 si
86 p29 si
87 p29 si
88 p30 si
89 p30 si
90 p30 si
91 p31, p31, p30 si
92 p31 si
93 p31 si
94 p45, p32, p32 si
95 p32, p32, p21 si
96 p32, p32, p45 si
97 p26, p33, p33 si
98 p33 si
99 p33 si
100 p21, p29, p21 no
101 p50, p29, p34 no
102 p44, p10, p34 no
103 p35 si
104 p35 si
105 p35 si
106 p36 si
107 p11, p36, p43 no
108 p36 si
109 p37 si
110 p37 si
111 p37 si
112 p38 si
113 p38 si
114 p38 si
115 p39 si
116 p39 si
117 p39 si
118 p40 si
119 p40, p29, p40 si
120 p40 si
121 p41, p44, p24 no
122 p29, p41, p41 si
123 p41 si
124 p42 si
228

125 p42 si
126 p42 si
127 p43 si
128 p43 si
129 p43 si
130 p44 si
131 p44 si
132 p44 si
133 p45 si
134 p45 si
135 p45 si
136 p46 si
137 p46 si
138 p46 si
139 p47 si
140 p47 si
141 p47 si
142 p48 si
143 p48 si
144 p48 si
145 p49 si
146 p49 si
147 p49 si
148 p50, p44, p50 si
149 p50 si
150 p50 si
TOTAL, ACIERTOS 130
TOTAL, DESHACIERTOS 20
TOTAL, IMÁGENES DE
PRUEBA: 150
Cuando SI identificó la clase correcta a la que
Correcta: pertenece
Cuando NO identificó la clase correcta a la que
Incorrecta: pertenece
229

ANEXO 17: RESULTADOS CON LA BASE DE DATOS BU_3DFE – KERNEL


CUBICO

RESULTADOS CON LA BASE DE DATOS BU_3DFE


KERNEL CUBICO
ROSTROS
CLASE O PERSONA
DE VALIDACION
IDENTIFICADA
PRUEBA
1 p1 si
2 p1 si
3 p1 si
4 p2 si
5 p2 si
6 p2 si
7 p3 si
8 p3 si
9 p5, p10, p23 no
10 p4 si
11 p4 si
12 p4 si
13 p5 si
14 p5 si
15 p5 si
16 p6 si
17 p6 si
18 p6 si
19 p7 si
20 p7 si
21 p7 si
22 p21, p18, p42 no
23 p30, p21, p21 no
24 p12, p42, p24 no
25 p9 si
26 p9 si
27 p9 si
28 p10 si
29 p10 si
30 p10 si
31 p11 si
32 p11 si
33 p11 si
34 p12 si
35 p12 si
36 p12 si
230

37 p13 si
38 p13 si
39 p13 si
40 p14 si
41 p14 si
42 p14 si
43 p15 si
44 p15 si
45 p15 si
46 p16 si
47 p16 si
48 p16 si
49 p17 si
50 p17 si
51 p17 si
52 p18 si
53 p18 si
54 p18 si
55 p19 si
56 p19 si
57 p19 si
58 p20 si
59 p20 si
60 p20 si
61 p21 si
62 p21 si
63 p21 si
64 p22 si
65 p22 si
66 p22 si
67 p23 si
68 p23 si
69 p23 si
70 p24 si
71 p24 si
72 p24 si
73 p25 si
74 p25 si
75 p25 si
76 p26 si
77 p26 si
78 p26 si
79 p27 si
80 p27 si
231

81 p27 si
82 p28 si
83 p28 si
84 p28 si
85 p29 si
86 p29 si
87 p29 si
88 p30 si
89 p30 si
90 p30 si
91 p31 si
92 p31 si
93 p31 si
94 p32 si
95 p32 si
96 p32 si
97 p33 si
98 p33 si
99 p33 si
100 p34 si
101 p34 si
102 p34 si
103 p35 si
104 p35 si
105 p35 si
106 p36 si
107 p36 si
108 p36 si
109 p37 si
110 p37 si
111 p37 si
112 p38 si
113 p38 si
114 p38 si
115 p39 si
116 p39 si
117 p39 si
118 p40 si
119 p40 si
120 p40 si
121 p41 si
122 p41 si
123 p41 si
124 p42 si
232

125 p42 si
126 p42 si
127 p43 si
128 p43 si
129 p43 si
130 p44 si
131 p44 si
132 p44 si
133 p45 si
134 p45 si
135 p45 si
136 p46 si
137 p46 si
138 p46 si
139 p47 si
140 p47 si
141 p47 si
142 p48 si
143 p48 si
144 p48 si
145 p49 si
146 p49 si
147 p49 si
148 p50 si
149 p50 si
150 p50 si
TOTAL, ACIERTOS 146
TOTAL, DESHACIERTOS 4
TOTAL, IMÁGENES DE
PRUEBA: 150
Cuando SI identificó la clase correcta a la que
Correcta: pertenece
Cuando NO identificó la clase correcta a la que
Incorrecta: pertenece
233

ANEXO 18: RESULTADOS CON LA BASE DE DATOS BU_3DFE – KERNEL


GAUSSIANO

RESULTADOS CON LA BASE DE DATOS BU_3DFE


KERNEL GAUSSIANO
ROSTROS
CLASE O PERSONA
DE VALIDACION
IDENTIFICADA
PRUEBA
1 P1 SI
2 P1 si
3 p1 si
4 p2 si
5 p2 si
6 p2 si
7 p3 si
8 p3 no
9 p3 no
10 p4 si
11 p4 no
12 p4 si
13 p5 no
14 p5 no
15 p5 si
16 p6 si
17 p6 si
18 p6 si
19 p7 si
20 p7 si
21 p7 si
22 p8 no
23 p8 no
24 p8 no
25 p9 si
26 p9 si
27 p9 si
28 p10 si
29 p10 si
30 p10 si
31 p11 si
32 p11 si
33 p11 si
34 p12 si
35 p12 si
36 p12 si
234

37 p13 si
38 p13 si
39 p13 si
40 p14 si
41 p14 si
42 p14 si
43 p15 si
44 p15 si
45 p15 si
46 p16 no
47 p16 no
48 p16 no
49 p17 si
50 p17 si
51 p17 si
52 p18 si
53 p18 si
54 p18 si
55 p19 si
56 p19 si
57 p19 si
58 p20 si
59 p20 si
60 p20 si
61 p21 si
62 p21 si
63 p21 si
64 p22 si
65 p22 si
66 p22 si
67 p23 si
68 p23 si
69 p23 si
70 p24 si
71 p24 si
72 p24 si
73 p25 si
74 p25 si
75 p25 si
76 p26 si
77 p26 si
78 p26 si
79 p27 si
80 p27 si
235

81 p27 si
82 p28 no
83 p28 no
84 p28 no
85 p29 si
86 p29 si
87 p29 si
88 p30 si
89 p30 si
90 p30 si
91 p31 si
92 p31 si
93 p31 si
94 p32 si
95 p32 si
96 p32 si
97 p33 si
98 p33 si
99 p33 si
100 p34 si
101 p34 si
102 p34 si
103 p35 si
104 p35 si
105 p35 si
106 p36 si
107 p36 no
108 p36 si
109 p37 si
110 p37 si
111 p37 si
112 p38 si
113 p38 si
114 p38 si
115 p39 si
116 p39 si
117 p39 si
118 p40 si
119 p40 si
120 p40 si
121 p41 si
122 p41 si
123 p41 si
124 p42 si
236

125 p42 si
126 p42 si
127 p43 si
128 p43 si
129 p43 si
130 p44 si
131 p44 si
132 p44 si
133 p45 si
134 p45 si
135 p45 si
136 p46 si
137 p46 si
138 p46 si
139 p47 si
140 p47 si
141 p47 si
142 p48 si
143 p48 si
144 p48 si
145 p49 si
146 p49 si
147 p49 si
148 p50 si
149 p50 si
150 p50 si
TOTAL, ACIERTOS 135
TOTAL, DESHACIERTOS 15
TOTAL, IMÁGENES DE
PRUEBA: 150
Cuando SI identificó la clase correcta a la que
Correcta: pertenece
Cuando NO identificó la clase correcta a la que
Incorrecta: pertenece
237

ANEXO: 19 PUBLICACIONES REALIZADAS SOBRE LA INVESTIGACION

El cúmulo de conocimientos adquiridos, durante el proceso de investigación, que


comenzó con la revisión lietraria hasta los resultados obtenidos se fueron plasmando
en publicaciones a través de diferentes revistas indexadas en bases de datos como:
Scopus, Web of science, latindex, Dialnet, siendo las siguientes.

 Técnica eficiente para el reconocimiento de imágenes faciales con máquinas


de vectores de soporte en imágenes 2D con validación cruzada en Matlab.
Revista Wseas. Año 2020. DOI: 10.37394/23203.2020.15.18 Indexado en
SCOPUS. Ver Anexo 20
Link: https://www.wseas.org/multimedia/journals/control/2020/a365103-946.pdf
238

 Global Facial Recognition Using Gabor Wavelet, Support Vector Machines


and 3D Face Models. Revista JAIT. Año: 2020. DOI: 10.12720/jait.11.3.143-
148 Indexado en SCOPUS. Ver Anexo 20
Link:
http://www.jait.us/index.php?m=content&c=index&a=show&catid=199&id=1106
239

 Técnicas de reconocimiento facial utilizando SVM: un análisis comparativo.


Revista Enfoque UTE. Año: 2019. DOI: 10.29019/enfoque.v10n3.493.
Indexado en WEB OF SCIENCE. Ver Anexo 20
Link:
https://ingenieria.ute.edu.ec/enfoqueute/index.php/revista/article/view/493/559
240

 Reconocimiento facial en subespacios: lineal y no lineal, bases de datos


faciales y máquina de vectores de soporte. Revista Arjé. Año: 2018. Indexado
en LATINDEX. Ver Anexo 20
Link: http://arje.bc.uc.edu.ve/arje22e/art41.pdf
241

 Reconocimiento facial con base en imágenes. Revista Redipe. Año 2017.


Indexado en DIALNET. Ver Anexo 20
Link: https://dialnet.unirioja.es/servlet/articulo?codigo=6145639

También podría gustarte