Técnica Eficiente para Reconocimiento Facial Global
Técnica Eficiente para Reconocimiento Facial Global
Técnica Eficiente para Reconocimiento Facial Global
TESIS
AUTOR
Mg. José Augusto CADENA MOREANO
ASESOR
Dra. Nora Bertha LA SERNA PALOMINO
Lima, Perú
2021
Reconocimiento - No Comercial - Compartir Igual - Sin restricciones adicionales
https://creativecommons.org/licenses/by-nc-sa/4.0/
Usted puede distribuir, remezclar, retocar, y crear a partir del documento original de modo no
comercial, siempre y cuando se dé crédito al autor del documento y se licencien las nuevas
creaciones bajo las mismas condiciones. No se permite aplicar términos legales o medidas
tecnológicas que restrinjan legalmente a otros a hacer cualquier cosa que permita esta licencia.
Referencia bibliográfica
A los siete (07) días del mes de marzo del 2021, siendo las quince horas, se reunieron en la sala
virtual meet.google.com/vuh-bcjj-zjm, el Jurado de Tesis conformado por los siguientes
docentes:
Se inició la Sustentación invitando al candidato a Doctor Jose Augusto Cadena Moreano, para
que realice la exposición oral y virtual de la tesis para optar el Grado Académico de Doctor en
Ingeniería de Sistemas e Informática, siendo la Tesis intitulada:
Concluida la exposición, los miembros del Jurado de Tesis procedieron a formular sus preguntas
que fueron absueltas por el graduando; acto seguido se procedió a la evaluación
correspondiente, habiendo obtenido la siguiente calificación:
Siendo las…16: 16………. horas, el Presidente del Jurado de Tesis da por concluido el acto
académico de Sustentación de Tesis.
Dra. Rosa Sumactika Delgadillo Avila Dr. Erik Alex Papa Quiroz
(Presidente) (Miembro)
DEDICATORIA
A mi esposa Ofelia
A mi familia
Doctorando
iii
AGRADECIMIENTO
Doctorando
iv
INDICE GENERAL
ABSTRACT......................................................................................................................... xiii
1.5 Hipótesis.................................................................................................................. 6
2.4.5 Reconocimiento facial R-KDA con SVM no lineal para bases de datos de
múltiples vistas.............................................................................................................. 21
2.4.10 Evaluation of facial recognition techniques using SVM, wavelets and PCA ... 26
2.4.11 Uniform multi-lens design as an SVM model selection tool for facial
recognition .................................................................................................................... 26
2.4.12 Main Subclass Convex Shell Sample Selection Method for SVM in Facial
Recognition ................................................................................................................... 27
2.4.13 A new SVM + NDA classification model with a facial recognition application
28
2.4.14 An efficient 3D face recognition approach based on the fusion of novel local
low-level features.......................................................................................................... 29
2.4.17 A 3D-2D facial recognition method based on the extended Gabor wavelet
combining edge and curvature detection ..................................................................... 35
2.4.18 An efficient P-KCCA algorithm for 2D-3D face recognition using SVM .......... 37
2.4.20 3D-2D face recognition with pose and illumination normalization ............... 42
5.1 Selección y justificación de las tecnologías para reconocimiento facial 3D ......... 111
5.2.1 Modelo de imágenes facial 3D-2D con puntos de referencia ...................... 118
5.3.1 Validación del modelo con base de datos TEXAS3DFRD .............................. 123
5.3.2 Validación del modelo con base de datos BU-3DFE .................................... 127
5.4.1 Descripción de los experimentos y sus resultados con BDD TEXAS3DFRD .. 129
5.4.2 Descripción de los experimentos y sus resultados con BDD BU-3DFE ......... 132
INDICE DE FIGURAS
Figura 2.1 Estructura de un árbol binario para 8 clases para un reconocimiento (Guo et al.,
2001) ..................................................................................................................................... 17
Figura 2.2 Región basada en representación facial 3D (Lei et al., 2013) ............................... 30
Figura 2.4 Esquemas de división descritos en base a una imagen de textura neutral (X. Li et
al., 2015) ............................................................................................................................... 33
Figura 2.5 Pesos de diferentes bloques de una imagen. El bloque más brillante tiene un
mayor peso; viceversa (X. Li et al., 2015) .............................................................................. 34
Figura 2.6 Diagrama de bloques de sistema 3D FR propuesto (Torkhani et al., 2017) .......... 36
Figura 2.7 Configuración del sistema de reconocimiento facial (Kamencay et al., 2015)...... 38
Figura 2.8 Algoritmo P-KCCA de diagrama de bloque propuesto (Kamencay et al., 2015) ... 40
Figura 2.9 Algoritmo P-KCCA usando SVM (Kamencay et al., 2015) ...................................... 40
Figura 2. 18 Ejemplo de sesión completa para una persona de la base de datos de Yale
(Shao et al., 2014). ................................................................................................................ 59
Figura 2.19 Ejemplo de una base de datos ampliada de rostros de Yale B. (Chan & Tahir,
2013) ..................................................................................................................................... 59
Figura 2.20 Ejemplo de imágenes tomadas en la base de datos de rostros CAS-PEAL.(Gao, Y.,
Ma, J., Zhao, M., 2017) .......................................................................................................... 60
Figura 2.21 Imágenes de ejemplo de la base de datos de caras de FERET(Lu, J., Tan, Y.-P., &
Wang, 2013), (Sadhya & Kumar, 2019), (Benini et al., 2019) ................................................ 61
Figura 2.22 Imágenes de muestra de la base de datos facial ORL. (Xu, Y., Fang, X., Li, X.,
Yang, J., You, J., Liu, H., & Teng, 2014) .................................................................................. 61
ix
Figura 2.26 Ejemplo de imágenes clasificadas como neutrales en la base de datos de FRGC
v2 (Passalis et al., 2014) ........................................................................................................ 64
Figura 2.27 Base de datos BU-3DFE (Dou & Kakadiaris, 2017) .............................................. 65
Figura 2.28 Imagen original (izquierda) que ha sido filtrada (derecha) ................................. 68
Figura 2.29 Dos filtros de Gabor, cada uno de ellos con distinta frecuencia central, escalado
y orientación (García, Escaramilla, & Nariko, 2015). ............................................................. 69
Figura 2. 31 Resumen de trabajos que involucran al algoritmo SVM según la base de datos
registrada .............................................................................................................................. 76
Figura 2. 32 Resumen de trabajos revisados que involucran al algoritmo SVM según el año
de publicación. ...................................................................................................................... 76
Figura 3. 6 Esquema Validación cruzada del modelo obtenido aplicado al conjunto de datos
de entrenamiento ................................................................................................................. 87
Figura 4.15 Porcentaje de reconocimiento de clases con Bdd MUCT ................................. 107
Figura 5. 1 Puntos fiduciales antropométricos (a) en una imagen en color, y (b) en una
imagen de rango ................................................................................................................. 111
Figura 5. 2 Proyección de un modelo 3D a los planos (x-z), (y-z) y (z-y) .............................. 113
Figura 5. 3 Imágenes preprocesadas (a) de color y (b) de rango de la Base de datos Texas
3DFRD ................................................................................................................................. 114
Figura 5.16 Porcentaje de reconocimiento de clases con Bdd TEXAS3DFRD ...................... 132
Figura 5.18 Porcentaje de reconocimiento de clases con bdd BU-3DFE ............................. 135
xi
INDICE DE TABLAS
Tabla 2.2 Resumen de los resultados obtenidos para siete entrenamientos con 8 técnicas
(Wen, 2012) .......................................................................................................................... 19
Tabla 2.3 Resultados obtenidos en el reconocimiento (Kong & Zhang, 2011) ...................... 20
Tabla 2.5 Reconocimiento facial en UHDB11 utilizando sistemas 3D-3D, 2D-2D y 3D-2D
(Kakadiaris et al., 2017) ......................................................................................................... 44
Tabla 4.3 Porcentaje de reconocimiento de clases con Bdd FERET ..................................... 104
Tabla 5.3 Porcentaje de reconocimiento de clases con Bdd TEXAS3DFRD .......................... 131
RESUMEN
ABSTRACT
The research presented in this Doctoral Thesis is carried out within the framework of
automatic facial image recognition systems. They consist of processing the images of
people's faces using statistical and mathematical methods of extracting characteristics
and classifying images, to know if an individual is in a certain class, and finally find
their identity. The automatic treatment of a face is complicated, due to the fact that it
presents several factors that affect it, such as the position of the face, expression, age,
race, type of lighting, noise, and objects such as glasses, hat, beard among others.
Processing is done globally, where the entire face is processed. Processing images
globally is known to be faster, more practical, and more reliable than feature-based
images. Furthermore, it is known that processing images in three dimensions is more
real and consistent than in two dimensions. The main objective of the proposed thesis
was to develop an efficient facial recognition technique with global features, and with
three-dimensional images. For this, the most efficient algorithms for feature extraction,
Gabor filters, and the algorithm for classification, Support vector machine (SVM),
were selected. This last algorithm, its efficiency varies according to the kernel or
kernel function, therefore, in this thesis we worked with three kernels: linear, gausean
and cubic. These systems consist of two necessary processes: 1) Training, and 2)
Testing. This allowed establishing a global facial recognition model for two and three
dimensions, respectively. The technique was processed first for 2D images, then for
3D images. And the cross validation method was used in both cases to approve it. The
best results obtained with the technique achieved are 96% efficiency with a two-
dimensional image database; and 98.4% with a three-dimensional image database.
Finally, a comparison is made of the results achieved with other similar research
works, obtaining greater efficiency with this work.
CAPITULO I: INTRODUCCION
En la sociedad actual, la inseguridad se ha vuelto una de las formas de vida diaria que
lleva la humanidad avanzar de una manera muy acelerada, sin que al momento haya
una forma de contrarrestarla. En los últimos años, la seguridad de algunos países se ha
visto intimidada por los ataques terroristas, especialmente en los países con mayor
poder en el mundo (Cadena, Montaluisa, Flores, Chancúsig, & Guaypatín, 2017).
Dichos ataques han demostrado las falencias en los sistemas de inteligencia y de
seguridad nacional. Debido a esta situación los gobiernos de todos los países del
mundo han utilizado su presupuesto para mejorar estos sistemas en distintos lugares
como; aereopuertos, oficinas de investigación, entidades publicas, etc. En función de
esto, el reconocimiento biométrico facial es indispensable para un sistema de seguridad
ciudadana en general (Arguello, 2011). Actualmente los sistemas de reconocimiento
facial tienen altos porcentajes de reconocimiento, sin embargo, no se ha
logrado obtener un cien por ciento de efectividad, debido a varios inconvenientes que
se presentan principalmente con las características faciales del ser humano.
Por un lado, los seres humanos a menudo utilizan rostros para reconocer individuos,
dada su capacidad discriminativa y por otro lado avances en el campo de la informática
en las últimos tiempos permiten registros parecidos en forma automática. Desde este
punto de vista en estos últimos tiempos se habla de reconocimiento de imágenes
faciales, que consiste en captar la imagen de una persona a través de ciertas técnicas,
las mismas que no son intrusivas, es decir la persona no se siente obligada a ser
identificada. El ser humano nace con la capacidad de reconocer rostros, misma que va
desarrollando conforme avanza su crecimiento. Sin embargo, es necesario automatizar
esta actividad que realizamos los seres humanos, por cuanto es imposible que la
persona pueda estar en el momento que se da una acción no permitida como: robos,
asesinatos, secuestros, etc. De allí que en la actualidad se cuenta con un sistema de
reconocimiento facial controlado por computador. Este reconocimiento facial de
2
rostros humanos es un problema que aún sigue desafiando en informática por cuanto
aún no llegan a una eficiencia esperada (Bah & Ming, 2020).
1.4 Objetivos
Máquinas de vectores soporte con sus diferentes kernels a través de imágenes 3D para
contribuir a la seguridad ciudadana.
1.5 Hipótesis
1.6 Variables
Variable independiente:
Técnica de reconocimiento facial usando Gabor y Máquina de Vectores
Soporte
Variable dependiente:
MEDICIÓN DE
DEFINICIÓN DE INDICADOR DE DEFINICIÓN DE
VARIABLES TIPO DE VARIABLE INDICADOR DE
VARIABLE CUMPLIMIENTO INDICADOR
CUMPLIMIENTO
El capítulo II aborda el marco teórico acerca del tema planteado, es así que en la
Sección 2.1 se plantea el marco filosófico y epistemológico del tema de investigación,
la Sección 2.2 trata sobre los antecedentes de la investigación, a continuación la
Sección 2.3 trata sobre el reconocimiento facial, mientras que en la Sección 2.4 se
revisa exclusivamente trabajos relacionados con la técnica del SVM para el
reconocimiento de rostros, seguido de la Sección 2.5 donde trata las técnicas de
reconocimiento en dos dimensiones (2D) y tres dimensiones (3D), en la Sección 2.6
se realiza una conceptualización de las principales bases de datos de caras, de las cuales
se elegirán las más apropiadas para el trabajo de investigación, seguido por la Sección
2.7 donde se realiza una evaluación de las técnicas revisadas sobre reconocimiento
facial, a continuación en la Sección 2.8 se plantea una revisión sobre filtrado de
imágenes, mientras en la Sección 2.9 trata la revisión sobre extracción de
características, a continuación en la Sección 2.10 se realiza un resumen de la revisión
de la literatura, y finalmente en la Sección 2.11 trata sobre la validación cruzada.
El reconocimiento facial es uno de los pocos métodos con alta precisión y baja
tendencia a la intrusión, es altamente eficiente sin ser intrusivo. (Valverde, Criollo,
Plua, Quinche, & Quiroz, 2014). En los años setenta el reconocimiento facial ha sido
identificado por los investigadores en las áreas de seguridad, procesmiento de
imágenes, hasta una visualización por computadora. Debido al alto grado de
inseguridad, se presenta un análisis exhaustivo sobre las técnicas más eficientes para
reconocimiento facial en el campo de visión por computador y posteriormente el
desarrollo respectivo de un aplicativo para un reconocimiento facial en 2D y 3D. El
presente trabajo de investigación considera como una herramienta importante al
reconocimiento facial para aportar a la seguridad de una persona, un problema actual
y fundamental que al momento es muy difícil superarla. Tomando como base este
criterio es necesario hacer un análisis a la seguridad ciudadana desde el punto de vista
filosófico o epistemológico.
Administrativos: Como las leyes y reglamentos adecuados que permitan saber cómo
actuar y utilizar a los elementos técnicos de la mejor forma.
Cabe mencionar que la seguridad también se le debe entender como política pública,
es así que la seguridad ciudadana es parte del sistema de protección estatal a través de
las diversas fuerzas del orden, el estado toma un importante papel en la seguridad
interna del país ya sea en sus gobiernos locales como en los gobiernos regionales o la
política de seguridad publica como un engranaje de todos los actores de la seguridad
de un país, es decir como los habitantes de una determinada población encuentran en
sus autoridades la suficiente tranquilidad y respaldo en cuanto a su seguridad y de sus
bienes. Cada país es independiente en sus estrategias de seguridad pública y destinan
diversos presupuestos para llevar a cabo su planeación estratégica.
A futuro, según (Valverde et al., 2014) esta técnica de reconocimiento facial se puede
ampliar para identificar a la persona que abre la caja registradora durante un intento de
robo en un supermercado o pequeño establecimiento; o en un caso más extremo, se
puede utilizar en cajeros automáticos donde se puede utilizar para validar mediante
reconocimiento facial en lugar del código PIN actual.
En el año 1882, el policía Bertillon Alphonse presentó un algoritmo, el que años más
tarde se constituiría en el primer sistema biométrico para la identificación de personas,
fundamentado en rasgos físicos, al que llamó antropometría (Serratosa, 2013). Este
sistema se lo considera como un sistema biométrico científico, mediante el cual la
policía podría registrar a todos los criminales. Bertillon Alphonse se encargó de
clasificar a los culpables por la altura y el rostro.
el envejecimiento, etc.". En aquella época, a las computadoras les resultaba más difícil
reconocer rostros que vencer a los grandes maestros en el ajedrez. Han pasado muchos
años, el tema de reconocimiento facial sigue en avanzada, sin embargo aún no se
superan completamente estos problemas.
Según Cabello (Cabello Pardos, 2003), considera que una de las virtudes de un sistema
de reconocimiento facial basado en visión artificial es su carácter no intrusivo, es decir
que la persona no se siente invadido su intimidad, no tiene que realizar ninguna acción
16
para identificarse o someterse a ningún tipo de análisis. Otra ventaja es que permiten
eliminar la memorización de códigos y además se evitaría llevar una identificación
como: pasaporte, cédula de ciudadanía, etc.
Finalmente hay que indicar que en la actualidad se cuenta con varias técnicas que
permiten el tratamiento del reconocimiento, los mismos que serán tratados más
adelante.
En este trabajo, Moreno (Moreno & Sanchez, 2005) presenta un sistema de modelado
3D de la cara basado en un algoritmo de segmentación HK, que consiste en separar la
cara en zonas bajo características establecidas.
Seis zonas y dos líneas se adquirieron de forma automática desde cada malla 3D,
además se utilizan para obtener el principal rasgo facial que corresponde al coeficiente
de Fisher (Correa, Salazar, & Ortiz, 2013), para encontrar las zonas del rostro. El
modelo planteado ha sido comprobado en la implementación de dos sistemas de
reconocimiento facial basado en PCA (Moreno & Sanchez, 2005), técnica que permite
reducir la dimensionalidad de las imágenes y SVM (Support Machines Vectors) como
clasificadores de patrones, determinando la forma en como se empareja esquemas bajo
17
Este trabajo trata sobre el reconocimiento facial multi clase (Guo et al., 2001), indica
que es posible utilizar un método de red de aprendizaje para reconocimiento de
patrones bipartita, y se incorpora a SVM una estrategia de reconocimiento de árbol
binario para manejar el problema de reconocimiento facial multi clase. En relación al
rendimiento del SVM se identifica que se basa en la comparación con el enfoque
eigenface estándar, y su algoritmo actual expone una línea característica más cercana
NFL(Guo et al., 2001), (B. Pradhan, 2013), (Z. Qi, Y. Tian, 2013), (X. Peng, 2010)
perteneciente a un método eficiente pero simple para el reconocimiento de modelos.
Según (Guo et al., 2001), establece un árbol binario estratégico para el SVM utilizado
para resolver el problema de reconocimiento multi clase como se muestra en la figura
2.1.
Figura 2.1 Estructura de un árbol binario para 8 clases para un reconocimiento (Guo et al., 2001)
18
Se propone construir un árbol binario para la clasificación, allí se tiene 8 clases, los
números del 1 al 8 son los que codifican las clases, cabe señalar que estos números
para la codificación pueden estar en forma arbitraria. Entonces se elige un número
ganador que sale de la comparación entre cada par de clases, las clases acertadas o
elegidas llegarán al nivel superior para realizar una nueva ronda de pruebas. Guo
utiliza tres métodos de clasificación: Line nearest features (NFL) (Líneas
características más cercanas) (Guo et al., 2001), Nearest Center (NC) (centro más
cercano) y el SVM. Se realizaron dos experimentos que arrojaron los errores
cometidos en cuanto al reconocimiento, el primero trabajó solo con una base de datos
ORL (ORL, 1994), con un total de 40 personas participantes distintas con 10 poses
cada una, obteniendo un error del 3% para el SVM, que fue el mínimo comparado con
el 3,83% del CNN (Lawrence et al., 1997), y 3,125% del NFL (Li S. & Lu L., 1999),
e igual forma se realiza un segundo experimento con 1079 imágenes de 137 personas
correspondiente a una base de datos compuesta principalmente por cinco bases de
datos como pueden ser: ORL, BERN, YALE u otras, por lo que se finiquita que el
SVM tiene el menor error en reconocimiento con un valor del 8,79 %, seguido de NFL
con un 9,72% y el NC con el 15,14 %.
En el presente trabajo se demuestra que la técnica propuesta IDCV con SVM presenta
un alto porcentaje de reconocimiento comparado con los otros siete métodos, con cada
sistema de base de datos utilizadas. Los vectores comunes se generan en el caso de que
19
Tabla 2.2 Resumen de los resultados obtenidos para siete entrenamientos con 8 técnicas (Wen,
2012)
TECNICAS EFICIENCIA KERNEL
EIGENFACE 93,87%
LDA 93,8%
PCA-SVM 95,56%
DCV-NN 96,67%
KDCV-NN 97,75% Gaussian
DCV-RBF 97,77%
KDCV-RBF 97,65%
IDCV-SVM 98,92%
Este trabajo (Kong & Zhang, 2011), propone un nuevo método para el reconocimiento
facial mediante la combinación de Análisis de Componentes Independientes por sus
siglas en inglés (ICA)(Bartlett, 1998) y SVM. Como primer punto se separa las
características del rostro utilizando el algoritmo Informax, después se procede a
implementar el reconocimiento de rostros aplicando el algoritmo rápido de mínimos
cuadrados (FLS-SVM). ICA es una tecnología de procesamiento de señal estadística
desde 1990, la misma que puede extraer características de imágenes de rostros
20
De acuerdo a los resultados obtenidos se visualiza que ICA con el clasificador FLS-
SVM resultó el más efectivo, con un reconocimiento máximo del 97.5%.
21
2.4.5 Reconocimiento facial R-KDA con SVM no lineal para bases de datos de
múltiples vistas
Se utiliza la base de datos AR (Martínez, 2014) compuesta por 9360 rostros, trabaja
con 120 personas (65 hombres y 55 mujeres). Efectúa dos entrenamientos distintos
con 1200 imágenes cada una, igualmente para poner en práctica el SVM se utiliza la
biblioteca LIBSVM (Chang & Lin, 2013), y la función utilizada para la tarea de
entrenamiento y reconocimiento es el Kernel polinomial. En cuanto a la identificación
usando SVM, utiliza algoritmos como: gabor, wavelet, LSDE3, LSDE6, LFDE3,
LFDE6 distribuido en dos grupos o conjuntos. De los cuales el principal LFDE3 es el
que mayor probabilidad tiene, además con el primer conjunto de datos tiene un acierto
del 85,92% y en con el segundo conjunto un 97,92% de acierto.
Este trabajo trata sobre el Análisis de componentes principales (PCA), el mismo que
es un método de extracción basado en características estadísticas de grises globales de
toda la imagen. Los autores (Luo, Wu, & Zhang, 2013), implementan el método
híbrido de análisis de componentes principales y un patrón binario local (LBP). LBP
elimina las características de escala de grises locales de la zona de la boca, que
contribuyen en mayor medida a reconocimiento de expresiones faciales, para ayudar a
las características globales de la escala de grises en el reconocimiento de expresiones
faciales.
alegre, en ambos casos utilizando un kernel RBF. Cabe anotar que este reconocimiento
de imágenes lo aplica desde el punto de vista de las emociones.
Este trabajo de investigación según (Lin, Wang, & Tsai, 2016), desarrolló un sistema
de reconocimiento facial en línea mediante la formación de un clasificador SVM
basado en los rasgos faciales del usuario asociado a la transformada y un patrón binario
local espacialmente mejorado. Este sistema de validación cruzada y SVM asociado
utilizó la base de datos Olivetti Research Laboratory de rasgos faciales para la solución
de problemas de precisión de clasificación. Los resultados experimentales mostraron
que el error de clasificación disminuyó con un aumento en el tamaño de las muestras
de entrenamiento. De allí que la precisión global del reconocimiento de la cara es más
del 97%, para un tamaño de datos de 168 y 341 imágenes de baja y alta resolución
respectivamente. En cuanto a la transformada, se manifiesta que esta debe permitir
cambios sólo en la extensión de tiempo, pero no en la forma, sobre la base de funciones
de base adecuados. Los rasgos faciales más comunes aparecen como parte de la
información de baja resolución, mientras que la parte de alta resolución contiene la
mayor parte de los rasgos faciales, tales como las variaciones locales de la iluminación,
la expresión y el vestido. A la inversa, la transformación wavelet inversa combina las
dos partes de la imagen de la cara en la imagen original a través de un proceso de
reconstrucción de información.
Según los autores (Kim, Park, Toh, & Lee, 2010), el objetivo es encontrar un
subespacio eficaz para la discriminación de identidad que servirá para la extracción de
características del rostro. Este se ha extendido para hipersuperficie no lineal, sin
embargo, sigue habiendo limitaciones para el LDA no lineal para hacer frente a las
aplicaciones físicas en virtud de factores ambientales complejos. Las limitaciones
incluyen el uso de una función de coavarianza común entre cada clase, y la
dimensionalidad limitada inherente a la definición de la dispersión entre la clase. Dado
que estos problemas son inherentemente causados por la propia definición de criterio
de Fisher, que no pueden solventarse en el marco LDA (Zhao, Fu, Ji, Tang, & Zhou,
2011) convencional, utiliza el kernel no lineal, en este caso un polynomial.
Esta situación establece incorporar una dispersión basada en el margen entre la clase
y un proceso de regularización para resolver un problema, para esto rediseña una
matriz de dispersión entre la base de los márgenes de SVM para facilitar la extracción
de características de una manera eficaz y fiable. A continuación se realiza una
regularización de la matriz de dispersión dentro de la clase, en este proceso se realizan
algunos experimentos empíricos que se llevan a cabo para comparar el método
propuesto con varias otras variantes del método LDA (Zhao et al., 2011) mediante las
bases de datos FERET(P.J. Phillips, H. Moon, S. Rizvi, 2000), (Sadhya & Kumar,
2019), (Benini, Khan, Leonardi, Mauro, & Migliorati, 2019), AR(Robert, 2014) y
CMU-PIE(Sim, Baker, & Bsat, 2003). Con esta base de datos se realiza tres
experimentos respectivamente. Con FERET hay 1702 imágenes que corresponden a
256 personas, con AR hay 1680 imágenes que corresponden a 120 personas y
finalmente con CMU-PIE existen 1840 imágenes que corresponden a 68 personas.
Todas estas imágenes corresponden al tamaño 56 x 46 pixeles. El porcentaje de error
del Análisis discriminante basado en SVM resulta ser el mínimo en relación a las
técnicas KFD, el Análisis discriminante generalizado GDA, y el Análisis
discriminante directo KDDA. Los mejores resultados obtenidos fueron que con la base
26
de datos (FERET, ARE, CMU, PIES). El método SVM-DA obtuvo los errores más
mínimos como; 8,5%, 8,6% y 9,5% respectivamente.
2.4.10 Evaluation of facial recognition techniques using SVM, wavelets and PCA
De acuerdo a los autores (W. Li, Liu, & Gong, 2011), plantean que la principal
dificultad de la selección del modelo de la máquina de vector de soporte (SVM) es un
coste computacional elevado. El autor propone primero un método de búsqueda de
diseño uniforme multiobjetivo (MOUD) como una herramienta de selección de
modelo SVM, y luego aplica este clasificador SVM optimizado para el reconocimiento
de rostros. Debido a que se reemplaza el criterio objetivo único por criterios
multiobjetivos y se adopta un diseño uniforme para buscar puntos experimentales que
27
Los experimentos se ejecutan en el benchmark UCI, y utiliza las bases de datos de cara
de Yale (Deng, 2008) y CAS-PEAL-RI (Gao, W., Cao, B., Shan, S., Chen, X., Zhou,
D., Zhan, 2008). Los resultados experimentales muestran que el método propuesto
supera significativamente otros métodos de búsqueda de modelos, especialmente para
el reconocimiento facial. Además de las bases de datos utilizados, también se hizo uso
de la función del núcleo polinomial. De acuerdo a los resultados, con las dos bases de
datos utilizados, YALE con 165 imágenes y CAS-PEAL-RI con 100 imágenes,
muestran a MOUD como una herramienta de selección de modelo SVM que puede
efectivamente aliviar el coste computacional de la selección del modelo SVM, y al
mismo tiempo puede aumentar la capacidad del reconocimiento facial, en este caso se
alcanzó el major resultado de clasificación del 96,67%.
Según los autores (Zhou, Jiang, Tian, & Shi, 2010), el SVM tiene un defecto vital, es
que necesita un gran cálculo para tareas de aprendizaje a gran escala, para lo cual
propone una selección de muestras para superar este problema.
Con el fin de reducir las muestras de entrenamiento sin sacrificar la precisión del
reconocimiento, este trabajo presenta un nuevo método de selección de muestras
denominado Kernel Subclass Convex Hull (KSCH), que trata de seleccionar muestras
límite de cada casco convexo de clase. Este método de selección de la muestra es más
adecuado para el SVM no lineal, el mismo que trabaja con tres kernels: El lineal, el
Quad y el RBF, por lo que las muestras seleccionadas por este método pueden
representar eficientemente el conjunto de entrenamiento original y apoyar la
clasificación SVM. Para los resultados finales experimentales se utilizó las bases de
datos faciales MIT-CBCL (Weyrauch, Heisele, & Blanz, 2004) y el UMIST(Graham
& Mallinson, 1998) se verificó que el método de selección de muestras KSCH puede
seleccionar menos muestras de alta calidad para mantener la precisión de
reconocimiento de SVM. Finalmente, con ese método KSCH, se logra reducir el
28
En este trabajo de investigación (Khan, Ksantini, Ahmad, & Boufama, 2012), los
autores coinciden en que SVM es una metodología de clasificación potente. Este
trabajo introduce un nuevo modelo SVM + NDA (Análisis discriminatorio no
paramétrico) que puede ser visto como una extensión a la SVM mediante la
incorporación de alguna información parcialmente global, especialmente, la
información discriminatoria en la dirección normal a la decisión frontera. Esto también
puede considerarse como extensión de la NDA donde los vectores de soporte mejoran
la elección de k-vecinos más cercanos en el límite de decisión incorporando
información local.
Según Lei(Lei, Bennamoun, & El-Sallam, 2013), en su trabajo manifiesta que en las
últimas dos décadas, el reconocimiento de caras 2D ha sido un tema de gran interés en
la mayoría de las personas dedicadas a la investigación, sin embargo debido a la
presencia de varios factores como: pose, iluminación, edad, estado de ánimo, etc., han
sido factores dominantes que han obstaculizado la eficiencia de muchas aplicaciones
de reconocimiento en 2D. Para poder superar estas limitaciones y retrocesos
inherentes, muchos de los investigadores se han inclinado por el área del
reconocimiento facial en 3D, con el objetivo de tener el potencial adecuado para lograr
una mayor precisión de reconocimiento. Igualmente indica que los algoritmos de
reconocimiento facial 3D se pueden clasificarse en diferentes categorías, de acuerdo
con la modalidad utilizada, por ejemplo: Multimodal (RGBD) y Profundidad 3D (Lei
et al., 2013).
En este trabajo de investigación según los autores (Lei et al., 2013) señalan un enfoque
de reconocimiento facial en 3D basado en características geométricas de bajo nivel
que se recogen en diferentes regiones como; ojos, frente y nariz, como se ilustra en la
figura 2.2. Estas zonas son relativamente influenciadas en menor cantidad por las
deformaciones que son causadas por las expresiones faciales, estas características
extraídas revelan ser eficientes y robustas en presencia de las expresiones faciales. Un
descriptor de histograma basado en una región calculada a partir de estas
características se aplica para representar de manera única un rostro en 3D.
30
Los autores (Fadaifard, Wolberg, & Haralick, 2013) establece una representación
superficial multi escalar para las formas 3D que se basa en la teoría del espacio-escala.
La representación, Curvature Scale-Space 3D (CS3), es adecuada para medir la
similitud entre superficies (parciales) que tienen una posición, una orientación y una
escala desconocida. La representación CS3 se obtiene mediante la evolución de las
curvaturas superficiales de acuerdo con la ecuación de calor. Este proceso de evolución
produce una pila de curvaturas superficiales cada vez más suavizadas que son útiles
para la extracción de puntos clave y cálculos de descriptor. Demuestra que este
enfoque de cálculo de clave y descriptor supera a muchos de los principales métodos.
31
El presente trabajo (X. Li, Ruan, An, Jin, & Zhao, 2015), considera que la
investigación sobre el reconocimiento de la expresión facial 3D ha atraído un gran
número de interés debido a su superioridad a los trabajos en 2D y ha sido muy
promovido en los últimos años, su funcionamiento necesita mejorar y la estructura de
la base de datos debe ser anlaizada para que de esa manera mantenga su
automatización, debido a que la estructura de la malla de modelos de la cara 3D no se
puede aplicar directamente a las operaciones algebraicas. Plantea una estructura
similar a una imagen para representar los modelos, de manera que las operaciones
algebraicas se pueden aplicar directamente para analizar datos 3D. Basándose en esta
estructura de imagen, se debe emplear las estrategias de esquemas de división
irregulares y los bloques de entropía para mejorar la precisión de reconocimiento.
El autor propone tres estrategias para el reconocimiento facial, siendo las siguientes:
El primera instancia se utiliza para procesar y normalizar los modelos faciales en 3D,
de modo que los modelos se adapten a las características, mientras que en la segunda
y tercera, las estrategias pueden aplicarse por separado o conjuntamente para reforzar
las características de clasificación. Se considera que la extracción de características es
el paso clave para un sistema de reconocimiento, pero no se puede aplicarse
directamente a los modelos 3D ya que son ruidosos y complejos. Aunque algunos
investigadores consideran usar los puntos de referencia para representar datos faciales
en 3D para la extracción de características, dan ciertos problemas, es así que la
ubicación automática de referencia en el modelo 3D sigue siendo un problema abierto
32
que afecta en gran medida la calidad de las características (X. Li, Ruan, An, et al.,
2015).
Figura 2.4 Esquemas de división descritos en base a una imagen de textura neutral (X. Li et al.,
2015)
34
Como proceso final se plantea la tercera estrategia, que consiste en crear bloques de
entropía para enfatizar la contribución de las diferentes regiones, donde finalmente, se
extrae las características faciales locales de cada bloque, y posteriormente se
concatenan en un vector de características para representar la característica facial. Sin
embargo, las contribuciones de las diferentes regiones en las imágenes de la cara son
diferentes, como se ilustra en la figura 2.5.
Figura 2.5 Pesos de diferentes bloques de una imagen. El bloque más brillante tiene un mayor
peso; viceversa (X. Li et al., 2015)
Por ejemplo, el bloqueo de la nariz que es menos afectado por las expresiones faciales,
puede contribuir menos que la región de la boca. Por lo tanto, los diferentes bloques
deben ser dados pesos diferentes para enfatizar sus contribuciones antes de generar el
vector de características. Para resolver este problema, este trabajo propone la estrategia
de entropía ponderada. Como se ha analizado anteriormente, la contribución de cada
bloque debe agregarse antes de alcanzar el vector de rasgos faciales. La contribución
de una región se puede medir por la cantidad de información que contiene, que puede
calificarse por su entropía de acuerdo con la definición de la teoría de Shannon.
En este trabajo (X. Li, Ruan, An, et al., 2015) se concluye que la estrategia I es eficaz
para el reconocimiento de la expresión facial 3D. Todas las características extraídas
35
De acuerdo al trabajo realizado por (Torkhani, G., et al), una principal limitación en
los sistemas de reconocimiento facial en 3D (FR) es su susceptibilidad a las
dificultades de escaneo y ambientes no controlados como pose, iluminación y variedad
de expresión. Este trabajo propone un nuevo marco de reconocimiento facial basado
en la deformación de malla (3D a 2D) y combinado de la curvatura de Gabor y mapas
de borde. Los vectores características extraídos se clasifican utilizando la excepcional
robustez de SVM (Torkhani et al., 2017). A pesar de las mejoras significativas en el
reconocimiento de rostros en 3D, aún no se ha logrado un cierto criterio de precisión
que satisfaga los propósitos industriales y comerciales (Torkhani et al., 2017).
El autor recomienda trabajar con datos de malla, porque es adecuado para el modelado
de superficies 3D. Las imágenes pueden tener ruidos gaussianos sintéticos, artefactos
y agujeros. En la etapa de mejora de la malla, los ruidos y los artefactos agudos se
tratan usando el filtrado laplaciano. En el siguiente paso, agujeros y brechas que
ocurren durante el escaneo, el proceso se corrige usando el algoritmo de restauración.
Finalmente, se aplica una curva laplaciana más suave para homogeneizar la superficie
de la malla y restrinja los bordes filosos.
La base de datos CASIA (Casia, 2010) Contiene 123 sujetos escaneados utilizando
una cámara USB Logitech 3D bajo condiciones no controladas como oclusiones y
variedad de pose. Las imágenes son también efectivas en expresiones faciales como la
risa, la sonrisa, el disgusto, felicidad y tristeza La presencia de accesorios y oclusiones
lo hace un buen candidato para probar el rendimiento de este enfoque 3D FR.
Este trabajo (Kamencay, Hudec, Benco, Sykora, & Radil, 2015), presenta sistema de
reconocimiento de rostros basado en una combinación de análisis de componentes
principales (PCA) y Kernel Canonical Correlation Analysis (P-KCCA) usando la
38
Figura 2.7 Configuración del sistema de reconocimiento facial (Kamencay et al., 2015)
39
El método propone dos enfoques de reconocimiento facial, a saber, PCA con algoritmo
KCCA y SVM. PCA lo ocupa para disminuir la dimensión del espacio de la función
de la cara. Mientras que KCCA es utilizado para identificar y cuantificar la asociación
entre dos conjuntos de variables, es una variante no lineal de CCA. El SVM se utiliza
como clasificador para verificar la cara candidata. El objetivo del método propuesto
es reconocer un objeto 2D que contiene un rostro humano.
Figura 2.8 Algoritmo P-KCCA de diagrama de bloque propuesto (Kamencay et al., 2015)
En este trabajo realizado por Sandbach, et al. (Sandbach, Zafeiriou, Pantic, & Yin,
2012), se examina los avances recientes en reconocimiento de expresiones faciales 3D
y 4D. Se habla sobre desarrollos en adquisición y seguimiento de datos faciales en 3D,
y presenta bases de datos 3D / 4D disponibles actualmente para el análisis de
expresiones faciales 3D. La técnica de adquisición utilizada para capturar datos 3D es
especialmente importante al recopilar expresiones faciales, ya que el equipo ha
utilizarse puede afectar el nivel de imposición sobre el sujeto (Sandbach et al., 2012),
cambiando así su comportamiento significativamente. Existe una variedad de
dispositivos y técnicas que han sido empleado previamente para adquisición de datos
de expresión facial en 3D, incluyendo el uso de la reconstrucción de una sola imagen,
las tecnologías de luz estructurada y dos métodos diferentes para algoritmos de
reconstrucción estéreo: fotométrico estéreo y multivista estéreo.
Ante la gran dificultad de la presencia mínima de bases de datos de caras en 3D, este
trabajo (Sandbach et al., 2012), presenta un resumen de algunas de ellas, las mismas
que podrán ser de gran utilidad para investigaciones futuras sobre reconocimiento
facial en 3D, como se ilustra en la tabla 2.4.
El trabajo realizado propone (Kakadiaris et al., 2017) conjuntamente con las bases de
datos mencionadas, un sistema de reconocimiento de rostros asociado (UR2D), basado
en la ecualización de las condiciones de postura e iluminación entre un par de galería
sonda a igualar. Para ello, se adapta un modelo de cara deformable a los datos
tridimensionales para registrar las texturas faciales de galería y sonda, obtenidas con
el mismo modelo, en un sistema de coordenadas bidimensional común. El proceso
proporciona una representación de rostros basada en la apariencia en el espacio de la
imagen geométrica y una alineación de las áreas faciales visibles bajo una pose
estimada.
Tabla 2.5 Reconocimiento facial en UHDB11 utilizando sistemas 3D-3D, 2D-2D y 3D-2D (Kakadiaris
et al., 2017)
𝑆𝑇 = ∑𝑁
𝑘=1(𝑥𝑘 − 𝜇 )(𝑥𝑘 − 𝜇 )
𝑇
(1)
𝑦𝑘 = 𝜑 𝑇 𝑥𝑘 𝑑𝑜𝑛𝑑𝑒 𝑘 = 1, … , 𝑁 (2)
Las propiedades principales del PCA son resumidas por las siguientes ecuaciones:
𝑥 ≈ 𝜑𝑘 𝑦 (4)
𝜑𝑘𝑇 𝜑𝑘 = 𝐼 (5)
Por último los autores (Kasar, Bhattacharyya, & Kim, 2016), señalan que una red
neuronal es una herramienta de clasificación muy potente y robusta que se puede
utilizar para pronosticar los datos renombrados y los desconocidos. Una red neuronal
es utilizable en muchas áreas, como la interpretación de escenas visuales,
reconocimiento de voz, reconocimiento facial, reconocimiento de huellas digitales,
reconocimiento de iris, etc. Una red neuronal está compuesta por una red de neuronas
artificiales también conocidas como nodos, los mismos que están conectados entre sí,
se le asigna un valor basado en su fuerza: inhibición (el máximo es -1.0) o excitación
(el máximo es +1.0). Si el valor de la conexión es elevado, la conexión es fuerte, de la
misma manera en el interior de cada nodo se incorpora una función de transferencia.
Existen tres tipos de neuronas en una red neuronal artificial que son; nodos de entrada,
nodos ocultos y los nodos de salida como se muestra en la figura 2.10.
Este trabajo de investigación (Kasar et al., 2016), realiza una comparación entre
algunas técnicas de redes neuronales para reconocimiento facial, de los mismos
establece que la fusión entre la Red de propagación hacia atrás y Función de base radial
(BNP y RBF) logra alcanzar un 97,56% de efectividad en reconocimiento facial.
Según Cabello(Cabello Pardos, 2003) las SVM son técnicas consideradas como
clasificadores, además se considera un algoritmo que define un modelo para cada
clase, de manera que esta clase a la que pertenence cada elemento se calcule con los
48
valores de los datos del elemento, según (Betancour, 2005) considera que la teoria de
las Support Vector Machines corresponde a una técnica eficiente. La diferenciación
más importante de las máquinas de vectores de soporte frente a otros algoritmos de
instruccion es la aplicación de un nuevo principio inductivo, que busca minimizar el
riesgo estructural, además del uso de un kernel o función del kernel, lo que le confiere
una gran capacidad de generalización, incluso cuando el conjunto de entrenamiento es
pequeño.
Realizando un poco de historia, la teoría del SVM fue desarrollada por Vladimir
Vapnik(Vapnik, 1998) por los años 90, aparece en trabajos sobre la teoría del
aprendizaje estadístico. El SVM es una técnica considerada como un clasificador,
aunque también se la utiliza en el campo de la regresión, agrupamiento,
multiclasificación, de allí que ha estado inmerso en algunos campos como la visión
artificial, reconocimiento de caracteres, medicina. El SVM se considera un algoritmo
que permite definir un modelo para cada clase y se calcule a partir de los valorees de
los datos que definen el elemento, como se muestra en la figura 2.11.
misma que permite adaptar la distribución de patrones para poder separar los mismos
sin ninguna dificultad. En esta fase, se ingresa cualquier conjunto X con n muestras, y
en la salida habrá un conjunto Y compuesto por los elementos 1 y -1. En conclusión,
el conjunto de entrenamiento estará compuesto por pares (X, Y), donde i = 1,2,3,4,….,
n, donde:
R
X i Yi 1, 1
n
f ( x ) a i y i H ( xi , x ) b (7)
i 1
Esta función representa una combinación lineal de núcleos centrados en cada punto.
Lineal:
H ( x, y) x ' y (8)
Función de base tradial
o Gausiana:
x y
2
2
2
H ( x, y ) e
(9)
e = 2,7182…..
o Exponencial:
x y
2 2
H ( x, y ) e (10)
e = 2,7182…..
50
Polinomios:
H ( x, y) (1 ( x, y)) d (11)
Función sigmoide:
H ( x, y) tanh ( ( x, y) ) (12)
Donde (x, y) se refiere al producto interno con y parámetros de ajuste.
La segunda fase, que es la decisión consiste en ingresar ahora los nuevos x, y se espera
que la técnica determine la clase a la que corresponde conforme al signo de polaridad
(+, -) de f (x), una vez que se pasó la primera fase. Se considera a los vectores soporte
a aquellos datos más representativos de todos los utilizados hasta el punto en que al
utilizar los vectores soporte se llegaría a una misma solución que cuando se utilizarían
el resto de patrones, es decir que los vectores de soporte contienen el mayor grado de
información y no se necesitaría del resto de patrones, en tal sentido se ahorraría espacio
en el almacenamiento de los resultados del aprendizaje obtenidos. La distancia mínima
51
desde el hiperplano que separa las clases al patrón más cercano se denomina margen
. Un hiperplano resulta inmejorable si es el máximo margen.
f ( x)
d yk (13)
w
A su vez:
n
w ai y i xi (14)
i 1
y k f ( xk )
(16)
w
k 1,2,3,......., n
y 1, 1
w 1 (17)
52
En el espacio que separa dos clases podemos tener varios hiperplanos, pero existe un
hiperplano óptimo, como se indican en las figuras: 2.13 y 2.14
a) Separable linealmente
b) No separable linealmente
En el gráfico 2.16 se indica un ejemplo, el cual no se puede separar por medio de una
función lineal, es decir a través de un hiperplano separador, entonces se debe recurrir
a una técnica consistente en la transformación del espacio original mediante una
función no lineal hacia un espacio Hilbert dotado de un producto escalar denominado
función kernel ó SVM kernelizada, como se indica en la figura 2.17 (Leon, 2016)
54
La mayor parte del software existente está escrito en C o C++, como la biblioteca
libsvm, ganadora del premio, que proporciona una robusta y rápida implementación
55
La máquina de vectores de soporte tienen algunas particularidades que las han puesto
en superioridad encima de otras técnicas populares de clasificación y / o regresión.
Alguna de estas características que se destacan es que son pertenecientes a las
disciplinas del aprendizaje automático o aprendizaje estadístico. La estrategia sobre
este modelo de aprendizaje nos permite que las máquinas aprendan con los ejemplos;
las salidas correctas para algunas entradas. La diferencia más notable de las máquinas
de vectores de soporte frente a otros algoritmos de aprendizaje es la aplicación de un
nuevo principio inductivo, que busca minimizar el riesgo estructural.
en concreto en los sistemas de detección de rostros. Así como también el SVM ha sido
también aplicada en la medicina de acuerdo a un artículo publicado por Zhan & Shen
(Zhan & Shen, 2005), sobre tejidos de próstata, igualmente Montoya & otros
(Montoya, 2015) aplican el MVS en la identificación de patrones sísmicos en ficheros
2D mediante máquinas de soporte vectorial, de igual forma hay un trabajo de Acosta
& otros (Acosta et al., 2014) sobre diagnóstico y detección de fallas para la dinámica
lateral de un vehículo utilizando Máquinas de Soporte Vectorial Multiclase. Así mismo
tenemos un trabajo de Oliver & otros (Blanco Oliver et al., 2014) sobre un caso de
estudio de un Modelado de auxilio financiero con el apoyo de Máquina de Vectores.
De acuerdo a (Devi et al., 2015), el LDA es uno de los métodos para la reducción de
dimensiones y una técnica de clasificación al maximizar la relación entre la varianza
de clase y la varianza dentro de la clase en cualquier conjunto de datos en particular.
El LDA fue desarrollado por R.A. Fisher en 1936, también conocido como
“Discriminante lineal de Fisher”. También se la conoce como una técnica supervisada
utilizada para clasificación de patrones en términos de reducción de dimensionalidad.
De acuerdo a Alvarez & Giraldo (Alvarez & Giraldo, 2008), ICA es comprendido para
el problema de separación ciega de fuentes (proceso que se fundamenta en la
estadística independiente de las señales, que son generadas en procesos autosuficientes
y consiste en la recuperación de las señales originarias a partir de las combinaciones
observadas). Asimismo recibió gran atención en las redes neuronales y procesamiento
de señales, en causa de la potencial de sus aplicaciones en estas áreas. También la
forma se ha extendido a su aplicación en el área de procesamiento de imágenes
observando el hecho de que ésta técnica pudiera aplicarse en algún dominio donde un
arreglo de N entradas forma una mezcla lineal de un conjunto incognito de fuentes
estadísticamente independientes. ICA puede ser usada en aplicaciones reales en
imágenes, los aplicativos con frecuencia prefieren utilizar ICA sobre PCA debido a
que ICA es capaz de producir bases no ortonormales y no esta restringido a mediciones
de covarianza como PCA. Sin embargo, plantean utilizar PCA para estimar una matriz
58
de cruces que pueda ser utilizada como inicialización para ICA. Asimismo con ICA se
encuentran una representación fuerte de la imagen en la cual tanto las estadísticas de
segundo como las de más alto orden se encuentran decorrelacionadas.
La base de datos de rostros Yale fue construída en 1997, la cual está conformada por
165 imágenes en escala de grises de 15 individuos (11 imágenes por individuo), ésta
contempla diversas expresiones de rostro, iluminación y uso de anteojos. En la figura
2.18, se indica la sesión de imágenes completa para un individuo de estudio de la base
de datos Yale (Shao, Chen, Wang, Li, & Deng, 2014).
59
Figura 2. 18 Ejemplo de sesión completa para una persona de la base de datos de Yale (Shao et al.,
2014).
Figura 2.19 Ejemplo de una base de datos ampliada de rostros de Yale B. (Chan & Tahir, 2013)
En el año 2004, (Gao, Y., Ma, J., Zhao, M., 2017) fue construída esta base de datos de
rostros que contiene 99.594 imágenes de 1040 individuos, de los cuales 595 son de
sexo masculino y 445 son de sexo femenino, en donde se cogieron las imágenes con
60
Figura 2.20 Ejemplo de imágenes tomadas en la base de datos de rostros CAS-PEAL.(Gao, Y., Ma, J.,
Zhao, M., 2017)
Entre los años 1993 y 1996, (P.J. Phillips, H. Moon, S. Rizvi, 2000), fue cosntruída la
base de datos FERET (Face Recognition Technology), la cual radica en 1196 personas
y cuatro clases de conjunto de pruebas: fafb (imágenes con diferentes expresiones de
rostro), fafc (imágenes con diferentes orientaciones de iluminación), dupI (imágenes
tomadas en menos de 18 meses) y dupII (imágenes tomadas en los 18 meses
siguientes). El programa (FERET) es dirigido por la Agencia (DARPA) (Defense
Advanced Research Projects Agency) y (NIST) (National Institute of Standards and
Technology).
En la figura 2.21, se muestran una parte de las imágenes capturadas en la base de datos
FERET.
61
Figura 2.21 Imágenes de ejemplo de la base de datos de caras de FERET(Lu, J., Tan, Y.-P., & Wang,
2013), (Sadhya & Kumar, 2019), (Benini et al., 2019)
Figura 2.22 Imágenes de muestra de la base de datos facial ORL. (Xu, Y., Fang, X., Li, X., Yang, J.,
You, J., Liu, H., & Teng, 2014)
62
Esta base de datos MUCT, consta de 3755 imágenes de rostros humanos con 76 puntos
de referencia manuales. Esta base de datos MUCT proporciona más diversidad de
iluminación, edad y etnia en relación a otras bases de datos de marcas registradas 2D
disponibles al público. A continuación, se ilustra un conjunto de rostros parte de esta
base de datos en la siguiente figura 2.23.
Esta base de datos está disponible gratuitamente para uso académico en la siguiente
dirección: https://github.com/StephenMilborrow/muct
En la actualidad se cuenta con una gran variedad de bases de datos en 2D, siendo una
pequeña desvenataja la poca presencia de bases de datos en 3D. Sin embargo a través
63
Figura 2.26 Ejemplo de imágenes clasificadas como neutrales en la base de datos de FRGC v2
(Passalis et al., 2014)
65
Esta base de datos BU-3DFE (L. Yin, X. Wei, Y. Sun, J. Wang, 2006), (Yin,et al,
2010), (Rosato, 2016), (Dou & Kakadiaris, 2017) contiene rostros de personas con
diferentes expresiones (neutral, tristeza, alegría, enojo, sorpresa), ver figura 2.27. Esta
base de datos corresponde al Dr. Lijun Yin del Department of Computer Science de
State University of New York at Binghamton. La base de datos BU-3DFE se encuentra
disponible para áreas de interés como la computación afectiva, visión por
computadora, interacción con la computadora humana, seguridad, biomedicina,
aplicación de la ley y la psicología. Esta base de datos actualmente contiene 100
sujetos, de los cuales el 56% corresponde a mujeres y 44% hombres, con edades entre
18 y 70 años, con una variedad de ancestros étnicos raciales, incluídos los blancos,
negros, asíaticos del Medio Oriente, indios, e hispano latino. Sin lugar a duda esta base
de datos constituye uno de los componentes más importantes en el campo del
reconocimieto facial. En el presente trabajo, se optó por trabajar con esta data.
A partir de los trabajos revisados, muchas técnicas son las que permiten cumplir con
el objetivo del reconocimiento de rostros, según lo revisado entre los que figuran son:
Máquinas de vectores soporte, Análisis de principales componentes, K-nn vecinos,
66
Dentro de los filtros muy importantes empleados para procesar una imagen de entrada
están los filtros de Gabor, los mismos que son victoriosamente utilizados en varias
aplicaciones de imágenes como el estudio de textura, verificación facial,
reconocimiento de caracteres y restablecimiento de imágenes por contenido, estos
filtros funcionan como un detector de bordes en una base no ortogonal, por lo tanto
cada característica extraída por un filtro se correlaciona con otra particularidad
generada por otro, (Alejandra, 2016) (Belén et al., 2004) (Garrido & Alcaide, 2018).
f0
2 x2 y
2
( x, y, x0 , y0 , f 0 , x , y , , ) exp f 0 2 2 2 2 . exp( 2i. f 0 xr i ) (18)
2
x y y
x
Donde:
69
xr ( x x0 ) cos ( y y 0 ) sin
y r ( x x0 ) sin ( y y 0 ) cos
x0 y y 0 indican la posición en el espacio de la wavelet
f 0 frecuencia central de la onda plana
x det er min a el ancho del eje mayor de la envolvente Gaussiana
y det er min a el ancho del eje menor de la envolvente Gaussiana
ángulo (contrario de las manecillas del reloj )
entre la dirección de propagación de la onda y el eje x
desplazamiento de la fase de la onda
He aquí una representación de una imagen filtrada utilizando el filtro de Gabor, Figura
2.29
Figura 2.29 Dos filtros de Gabor, cada uno de ellos con distinta frecuencia central, escalado y
orientación (García, Escaramilla, & Nariko, 2015).
En tal sentido el filtro de Gabor es un filtro lineal cuya replica de impulso esta en
función sinusoidal multiplicada por una función gaussiana. Si le asignamos una
específica frecuencia y direcciónamiento, se obtiene una rebaja del ruido a la vez de
proteger una dirección de la imagen original.
Los filtros de Gabor pueden ajustar para operar a diferentes escalas y orientaciones, de
modo que se pueda analizar la imagen en diferentes profundidades y ángulos. Este
actúa como un filtro de paso de banda sintonizable. Gracias a la implementación de
banco de filtros multicanal y sintonización a diferentes escalas y orientaciones, imita
la respuesta del sistema visual humano (Karthika & Parameswaran, 2016).
70
Por último los filtros de Gabor están directamente en conexion con los wavelets de
Gabor, dado que tienen funcionabilidad en aproximación pasabanda y que pueden
delinearse como un banco de filtros con diferentes dilataciones y rotaciones, al trabajar
con filtros ortogonales (requisito de los wavelets) puede dar complicaciones, en este
caso se requiere el uso de wavelets biortogonales.
que fue modulada por una onda sinusoidal. Los filtros wavelet de Gabor se pueden
practicar en numerosos problemas de detección para la extracción de características
debido a sus propiedades de localización impecables en pares de dominio espacial y
de frecuencia.
Las wavelets de Gabor son inventadas por Dennis Gabor, la propiedad importante de
la wavelet es que minimiza el producto de sus desviaciones estándar en el dominio del
tiempo y la frecuencia. Hay que tener en cuenta que los errores en la información
transportada por esta wavelet se minimizan, pero tiene el inconveniente de no ser
ortogonales, por lo que es difícil una descomposición eficiente en la base de datos. Se
encuentran en distintas aplicaciones desde el procesamiento de imágenes hasta el
análisis de neuronas en el sistema visual humano.
Los wavelets de Gabor se usan para detectar bordes, esquinas y manchas, la función
regular de una wavelet de Gabor bidimensional descrita en el dominio de la frecuencia
espacial (Sujitha et al., 2019) se da en base a la siguiente ecuación:
x2 y2
g ( x, y ) exp cos(u 0 x v0 y ) (19)
2 xy
2
r0 u 0 v0
2 2 2
(20)
v0
tan (21)
u0
Figura 2. 30 El conjunto de 40 wavelets Gabor. a) La magnitud a cinco escalas. b) Las partes reales a
cinco escalas y ocho orientaciones (Shen & Bai, 2006)
Para un caso de una dimensión, se tiene que la función g está representado por:
i x x2
g , ( x) e e
(23
g , ( x) g , 0 ( x0 ) g , 1 ( x1 ) (24)
1
Siendo ( 0 , 1 ) y x ( x0 , x1 ) , con ello ( 0 1 )
2 2 2
Los enfoques holísticos en cambio extraen características de toda la imagen del rostro.
La normalización del tamaño de la cara y la rotación es un preprocesamiento realmente
importante para que el reconocimiento sea robusto. La cara propia basada en el análisis
de componentes principales (PCA) y la cara del pescador basada en el análisis
discriminante lineal (LDA) son dos de los enfoques holísticos más conocidos. (Chao,
2017)
Se realizó la revisión literaria de varios artículos de bases de datos tanto Scopus, Web
Of Science, etc., los cuales 45 corresponden a los 5 últimos años, y el resto a años
menores a 2015, además se investigaron tesis doctorales relacionados con el tema de
nuestro trabajo, para esta revisión se valió de algunas bases de datos indexadas muy
importantes como: Scopus, Science Direct, Elsevier, IEEE, etc.
Esta revisión además se enfocó a las bases de datos de rostros, tales como: FERET,
ORL, MUCT, CMU, YALE, TEXAS3DFRD, BU-3DFE, etc. La revisón estuvo
enfocada en el siguiente término: “Reconocimiento de rostros”, ó “Face recognition”.
76
OTROS
26%
ELSEVIER
49%
IES
14%
TESIS
11%
Figura 2. 31 Resumen de trabajos que involucran al algoritmo SVM según la base de datos
registrada
19
10
Figura 2. 32 Resumen de trabajos revisados que involucran al algoritmo SVM según el año de
publicación.
77
KDCV_RBF 97,65%
IDCV_SVM 98,92%
Kong y
Zhang FLS_SVM 97,50% ORL 400 28 x 28
(2011) (ICA)
Devi et al., R-KDA - SVM 30% UMIST 564 220 x
(2015) 220
Olivares et LFDE - SVM 97,92% AR 9360 ---
al., (2016)
Luo et al., PCA+LBP+S 96,25% PERSONAL 50 24 x 24
(2013) VM
Lin et al., SVM 97% ORL 509 ---
(2016)
Kim et al., 8,5% (error mínimo) FERET 1702 56 x 46
(2010) 8,6% (error mínimo) AR 1680 56 x 46
9,5% (error mínimo) CMU-PIE 1840 56 x 46
SVM-DA
Gumus et al., Wavelet-SVM 89,38% ORL 400 ---
(2010)
Li et al., YALE 165
(2011) MOUD-SVM 96,67% CAS-PEAL-R1 100 ---
La validación cruzada es una técnica que se usa para evaluar los resultados de un
análisis realizado. Esta técnica radica en dividir el conglomerado de datos de
entrenamiento en k subconjuntos, y entrenar k-1 de esos subconjuntos de
comprobación luego con el último subconjunto que no se ha entrenado (Ruiz, 2018),
obteniendo un error de validación por cada proceso, el resultado final será el promedio
de todos los errores, que representa el error promedio de validación. Finalmente este
promedio se resta de la unidad y se multiplicaría por 100, obteniendo el porcentaje de
eficiencia del modelo. Este proceso se indica en la tabla 2.7
79
De acuerdo a (Corso & Lorena, 2009), la validación cruzada consiste en: dado un
número n se divide los datos en n partes y, por cada parte, se construye el clasificador
con las n−1 partes restantes y se prueba con esa. Este proceso se lo realiza para cada
una de las “n” particiones.
De acuerdo a esta definición, esta investigación nos permite trabajar con los resultados
obtenidos para posteriormente, en base a la estadística, poder validar la eficiencia del
entrenamiento como de la prueba del proceso de reconocimiento facial. La
investigación experimental es la alteración de una variable experimental o varias al
mismo tiempo, en un ambiente estrictamente vigilado por la persona que realiza el
experimento.
Cabe notar la selección de estas bases de datos por la calidad de imágenes, han sido
utilizadas por investigaciones de alta calidad, son de libre acceso, no tienen costo si
son utilizadas para temas de investigación, a diferencia de otras que requieren un pago.
Fuente: Extraído de (Sadhya & Kumar, 2019), (Milborrow, S., Morkel, J., & Nicolls, 2010)
Para la segunda parte de la investigación se trabaja igual con dos datasets en 3D siendo
TEXAS3DFRD (Gupta et al., 2010b) con 183 rostros reprocesados en 3D
correspondientes a 50 personas, y la base de datos BU-3DFE (X. Li, Ruan, Jin, et al.,
2015), quien cuenta con 500 modelos de imágenes, que corresponden a 50 personas,
las cuales se muestran en las figuras 3.3 y 3.4 respectivamente.
Como se indicó en la Sección 2.6, existen una gran cantidad de estas bases de datos,
lo que facilita este tipo de investigaciones.
a color estan realizadas en formato ppm, con una resolución de 256×384 pixeles. Esta
base de datos es de libre acceso.
La validación del modelo obtenido sea para 2D y 3D, se realiza aplicando la técnica
de la validación cruzada, su definición y proceso fue explicado en el capítulo II de la
investigación, el comando CROSSVAL corresponde a la validación cruzada en
Matlab, se trabajó con una partición del conjunto de datos de entrenamiento por
defecto en 10 subconjntos. Cada subconjunto se va probando con cada uno de los
subconjuntos restantes (en este caso nueve subconjuntos), este proceso se repite por
10 veces en este caso. Cada subconjunto representa imágenes seleccionadas para el
entrenamiento. Parte de este proceso se indica en la figura 3.6
87
Figura 3. 6 Esquema Validación cruzada del modelo obtenido aplicado al conjunto de datos de
entrenamiento
88
normalmente se presentan en la cara, entre estas se encuentramos los ojos, las cejas y
la boca, y a disparidad de las primeras siempre están ahi en las expresiones del rostro
humano. Es así que la modificacion de Gabor se la aplica en forma localizada, usando
la función ventana gaussiana, con la que obtenemos un cambio muy parecido a la
transformada wavelet; sin embargo, para el caso de las figuras se utiliza una función
base que es una exponencial compleja y una función ventana gaussiana en 2D
multiplicadas, para lograr un conjunto de funciones en base a la transformada y
podemos variar las frecuencias centrales de la exponencial compleja, se podrían variar
el ancho de la ventana con la desviación estándar de la gaussiana y se puede
transformar la orientación de la función final. (Castrillon et al., 2008)
Por lo que, este filtro trabaja exclusivamente con tres parámetros importantes como la
frecuencia central, el escalado y la orientación, los mismos que se definen en 2.8.1 y
2.9.1 del capítulo II.
Es así que, como se indica en la tabla 2.6 del capítulo II; se ha seleccionado este
clasificador SVM para la realización del estudio.
1) Base de datos de rostros.- Se cuenta con la data FERET y MUCT, las mismas que
contienen un conjunto de imágenes 2D, FERET es un estándar dataset usado para
la evaluación del sistema de reconocimiento facial. El programa Face Recognition
Technology (FERET) es manejado por Defense Advanced Research Projects
Agency (DARPA) y el Instituto Nacional de Estándares y Tecnología (NIST). La
base de datos MUCT se creó para proporcionar una mayor diversidad de
iluminación, edad y etnia que las bases de datos de caras 2D
marcadas actualmente disponibles
92
4) Clasificación.- Es un proceso que trata de asignar las diferentes partes del vector
de características a grupos o clases, basándose en las características extraídas
anteriormente, para ello se utiliza el clasificador SVM.
1. Base de datos de rostros. - Las BDD utilizados son dos: FERET (Sadhya &
Kumar, 2019) y MUCT (Sadhya & Kumar, 2019), (Milborrow, S., Morkel, J.,
& Nicolls, 2010), la primera consta de 200 imágenes de tamaño 480 x 640
pixeles correspondientes a 20 individuos. Esta dataset está conformada por
imágenes que presentan diferentes edades, género, etnias, poses y expresiones.
Una parte de esta dataset se indica en la figura 4.4
La segunda dataset utilizada llamada MUCT está compuesta por 1515 rostros
correspondientes a 101 personas y un tamaño de 480x640 pixeles. Esta dataset
está conformada por imágenes que presentan diferentes edades, género, etnias,
poses, expresiones e iluminación. Una parte de esta dataset se indica en la
figura 4.5
4. Clasificación. - Proceso que trata de asignar las diversas partes del vector de
caracteres a grupos o clases, que se basan en las características sacadas
anteriormente, el proceso se realiza para las imágenes de entrenamiento
(aprender).
En cuanto a la validación del modelo bdd Feret Kernel lineal se pudo obtener como
resultado el 100%, a su vez se puede observar que de todas las pruebas 6 fueron de 1.0
de probabilidad, mientras que la mínima de probabilidad fue la de 0,9166 y el resto de
aciertos fue de 0,98 en adelante lo cual determina un 100% de eficacia para todas las
pruebas realizadas.
98
Cómo se observa en la gráfica, los aciertos que se dieron en este caso fueron de
100/100, es decir que todos llegaron o se aproximaron al 100% de eficacia, no obstante
7 de las pruebas tuvieron una probabilidad excelentes sin errores mientras que la
prueba que tuvo menos probabilidad fue la de 0,9220; seguida de pruebas de más de
0,99; por lo cual estas pruebas se elevaron al inmediato Superior y tenemos que todas
las pruebas tuvieron una probabilidad excelente el 100% y una eficacia de 1.000000
100
Cómo se observa en la figura 4.11, para la validación del modelo bdd Muct Kernel
Lineal, se obtuvo aciertos de 1350/1515 es decir que no fue totalmente acertado, por
lo que obtuvo una eficacia de 0,891089; debido a que existieron pruebas inferiores y
no cumplieron con las expectativas, es así que la que obtuvo menos probabilidad fue
la de predicción p09 con una probabilidad de 0,0272 seguida de la predicción p04 con
una probabilidad de 0,5065 sin embargo las siguientes pruebas tuvieron un valor
superior a 0, 8139 con lo cual justifica el resultado que se obtuvo de aciertos y eficacia.
101
En cuanto a la realización de este modelo según la figura 4.12, podemos observar que
de los aciertos según esta imagen fueron de 1353/1515 con una eficacia de 0,893069;
lo cual se justifica debido a que no todas las pruebas tuvieron el puntaje máximo en
probabilidad. Por lo cual la menos puntuada para probabilidad fue la p92 con un valor
de 0,8641 seguida de p07 con valor de 0,9971; sin embargo el resto de aciertos, se
obtuvieron 1,0000; lo cual justifica el valor final de la eficacia que como ya se expuso
fue de 0,893069.
102
Finalmente en esta última figura 4.13, podemos observar que se obtuvieron aciertos de
1347/1515 con una eficacia de 0,88 9109; debido a que sólo dos de las pruebas tuvieron
un puntaje máximo que es de 1,0000; seguido de valores inferiores como el que se
obtuvo en p09 con un valor de 0,0316 que fue la prueba con menos puntuada para la
probabilidad seguida de la prueba P04 con un valor de 0,5685; por lo que es de
mencionarse que el resto de pruebas tuvieron valores superiores a 0,8460 pero
inferiores a 1,0000; lo cual justifica que se haya obtenido una eficacia de 0,889109
100%, con la base de datos FERET, superando totalmente al trabajo realizado con
MUCT, posiblemente se deba a la mejor resolución de las figuras de la primera data.
Kernel_Lineal 25 50 72 95
Kernel_Cúbico 23 46 68 92
Kernel_Gaussiano 25 50 72 96
Kernel_Lineal
(%) 100,0 100,0 96,0 95,0
Kernel_Cúbico
(%) 92,0 92,0 90,7 92,0
Kernel_Gaussiano
(%) 100,0 100,0 96,0 96,0
% DE RECONOCIMIENTO SEGUN
KERNEL APLICADO - BDD FERET
102.0
100.0
98.0
Porcentaje de reconocimiento
96.0
Kernel_Lineal (%)
94.0
Kernel_Cúbico (%)
90.0
88.0
86.0
25 50 75 100
Imágenes Imágenes Imágenes Imágenes
En la figura 4.14 nos permite visualizar la tendencia de la trayectoria de las curvas, sea
variable o constante en función del porcentaje de acierto. De acuerdo a los resultados,
en el intervalo de 50-75 los tres kernels: Lineal, cúbico y gaussiano sufren una baja en
cuanto a los aciertos, a partir de la prueba 76 el kernel gaussiano mantiene una
trayectoria constante por el orden del 96% hasta el final, mientras el lineal mantiene
una tendencia de bajada, mientras el kernel cúbico a partir de la prueba 76 tiene una
tendencia de subida hasta el final.
Kernel_Lineal
(%) 100,0 98,0 93,3 91,0 90,4 89,4
Kernel_Cúbico
(%) 100,0 95,0 94,0 94,0 93,2 93,7
Kernel_Gaussiano
(%) 100,0 99,0 94,0 92,5 91,6 90,4
% DE RECONOCIMIENTO SEGUN
KERNEL APLICADO - BDD MUCT
102.0
100.0
98.0
Porcentaje de reconocimiento
96.0
94.0
Kernel_Lineal (%)
92.0
Kernel_Cúbico (%)
90.0
Kernel_Gausiano (%)
88.0
86.0
84.0
En la figura 4.15 nos permite visualizar la tendencia de la trayectoria de las curvas, sea
variable o constante en función del porcentaje de acierto. De acuerdo a los resultados,
los kernels: Lineal y gaussiano mantienen una trayectoria con tendencia a la baja
durante todo el proceso de las pruebas, mientras el kernel cúbico presenta una
trayectoria con tendencia a seguir subiendo con respecto de los aciertos a partir de la
prueba No. 250.
De acuerdo al modelo presentado en la figura 4.3 se procede con los experimentos para
la fase de entrenamiento y pruebas. Para el mismo se utilizan las bases de datos FERET
y MUCT. En las tablas 4.2 y 4.4 se muestran los resultados realizados para cada una
de las bases de datos por cada kernel utilizado dentro del SVM. Es decir que para el
presente estudio, se procedio a realizar experimentos con los modelos propuestos para
el desarrollo del estudio; con lo que al finalizar la fase de pruebas, se pudo obtener
buenos resultados; pues como se muestra en la tabla 4.1, se obtuvo un puntaje de 100%
con la base de datos de Ferret, en sus validaciones de Kernel Lineal, Kernel Cúbico y
Kernel Gaussiano; lo que no ocurrió con la base de datos de MUCT, puesto que aquí
se otuvieron ciertas diferencias como 89,1% para Kernel Lineal; 89,3% para Kernel
Cúbico, y 88,9 para Kernel Gaussiano.
Por otro lado, lo contrario ocurrió con la base de datos MUCT, pues se obtiene un
mayor acierto de reconocimiento con un 93,7% para el kernel cúbico, en donde, la
109
prueba se realizó con 303 imágenes correspondientes a 101 personas, con total de 909
pruebas con los 3 kernels; por lo cual, es claro que para esta ocación, se utilizó una
mayor cntidad de imágenes; con lo que se pudo determinar que obtuvo mejor
porcentaje fue la de kernels cúbico con 303 imágenes; miemtras que la menor puntuada
en las mismas catacteristicas fue la de Kernel Lineal, por lo que, al analizar los
resultados se puede determinar que mientras mayor cantidad de imágenes se
integraban en la prueba, mejores resultados obtenia el kernel cúbico; y mientras menos
imágenes se integran, fue el Kernel Gaussiano que tenia mejor puntuación con 99 para
100 imágenes, seguido por kernel lineal con 98 en las mismas características con 100
imágenes; por lo que los resultados varian según el número de imágenes como se
indica en la tabla 4.4.
LBP+SVM (Sun,
Zhao, & Jin, 2018) RAFD-FRONT 86,50%
Gabor+SVM (Sun et
al., 2018) RAFD-FRONT 83,10%
LPQ+SVM (Sun et
al., 2018) RAFD-FRONT 84,80%
La presente
FERET 96,00%
investigación
La presente
MUCT 93,70%
investigación
110
Figura 5. 1 Puntos fiduciales antropométricos (a) en una imagen en color, y (b) en una imagen de
rango
Fuente: Extraído de (Castleman, Markey, & Bovik, 2010)
112
Teniendo en cuenta que, a pesar de que, los humanos usan las expresiones
faciales con éxito para transmitir sus estados emocionales; replicar tal éxito en
el dominio de interacción humano-computadora es un problema de
investigación activa. (Oyedotun, Demisse, El, & Shabayek, 2017)
En lo que respecta a la selección de las bases de datos 3D, se trabaja con dos muy
importantes como TEXAS3DFRD (Gupta et al., 2010b) y BU-3DFE (X. Li, Ruan, Jin,
et al., 2015), (L. Yin, X. Wei, Y. Sun, J. Wang, 2006), (Yin,et al, 2010).
Figura 5. 3 Imágenes preprocesadas (a) de color y (b) de rango de la Base de datos Texas 3DFRD
Fuente: Extraído de (Castleman et al., 2010)
115
La segunda base de datos es BU-3DFE (Yin,et al, 2010), se da debido a que, las
mismas contienen una amplia variedad de datos con características propias de diversas
etnias, lo cual es imprescindible, ya que con ello asegura una mejor probabilidad de
aciertos, a lo cual los creadores de estas base de datos mencionan que la misma
contiene actualmente 100 sujetos, de los cuales por razones de estudio se optó en
trabajar con 50 personas, correspondiendo 25 modelos de caras por cada persona en
formato *.wrl con un total de 1250 modelos con características de expresión y género.
Una parte de estas bases se indica en las Figuras 5.4 y 5.5 respectivamente.
Etapa de entrenamiento
Etapa de prueba
Base de datos.- Se cuenta con la base de rostros TEXAS3DFRD (Gupta et al., 2010b),
(Dow, Shishir, & Loannis, 2017), la misma que contiene un conjunto de imágenes
reprocesadas. El reprocesado de imágenes consiste en preparar una imagen en 3D, para
convertirlo en una forma útil para el reconocimiento facial, eliminando pequeñas
regiones extrañas que no estan unidas a la región de la cara, por ejemplo, puede ser
unos collares, para ello se procede a normalizar y detectar la región frontal como la
más grande, seguidamente se elimina las pequeñas cantidades de ruido de impulso
presentes en el rango de imágenes.
Clasificación.- Proceso que trata de asignar las diversas partes del vector de
características a grupos o clases, basándose en las propiedades extraídas anteriormente.
121
En esta etapa se tiene como objetivo desarrollar técnicas que permitan a las
computadoras aprender. Para nuestro caso se trabajó con el clasificador Máquina de
vectores soporte (SVM), a través de kernels o funciones: Lineal, cúbico y gaussiano.
Finalmente viene la etapa de reconocimiento, ya en la fase de pruebas, que consiste en
identificar la imagen ingresada a que clase corresponde, donde se valida sí la
identificación es correcta o incorrecta.
Etapa de entrenamiento
Gabor, una vez obtenido los vectores características se procede con la clasificación
utilizando máquina de vectores soporte o svm a través de los kernels lineal, cúbico y
gaussiano, para proceder con la validación el modelo generado a través de la validación
cruzada.
Etapa de prueba
Para la etapa de pruebas se inicia con el component del filtrado de rostros y extracción
de características por wavelets de Gabor, seguido de una clasificación de estos vectores
características para finalmente dar una identificación de reconocimiento de lo cual se
determinará si la clase identificada es correcta o nó
En cuanto al segundo caso de reconocimiento 3D, se trabaja con la base de datos BU-
3DFE, utilizando una interfaz semejante, pero con un algoritmo para leer modelos de
rostros en 3D con formato vmrl (*.wrl), estos modelos son proyectados a los planos x-
z, y-z y z-y respectivos, una parte de este proceso se indica en la figura 5.8 y parte de
su código en el Anexo 15.
Una vez proyectado en los planos, estos son procesados como una imagen en 2D, por
tanto, el proceso a continuación es similar al experimento anterior con
TEXAS3DFRD, es decir las áreas resultantes de la proyección son filtrados, extraído
123
En la figura 5.9 se observa una eficiencia de validación del 89,5%, este valor
corresponde al promedio de los valores que acreditados como “ok”, es decir que las
clases se corresponden y multiplicado por 100 para ser expresado como un porcentaje
de eficiencia.
125
De igual manera, en la figura 5.10 se observa una eficiencia de validación del 99,5%,
es decir logro acertar en reconocimiento 904 imágenes de 908. Este valor de eficiencia
se obtiene al promediar los valores acreditados como “ok”, es decir que las clases se
corresponden y luego multiplicado por 100 para ser expresado como un porcentaje de
eficiencia.
126
En cuanto a la validación del modelo, está realizado por validación cruzada, parte de
los resultados obtenidos con las dos bases de datos y sus respectivos kernels se indican
en las figuras: 5.12, 5.13 y 5.14
En la figura 5.12 se observa una eficiencia de validación del 87,3%, es decir logró un
acierto de 917 imágenes de 1050. Este valor de eficiencia se obtiene al promediar los
valores acreditados como “ok”, es decir que las clases se corresponden y luego
multiplicado por 100 para ser expresado como un porcentaje de eficiencia.
128
En la figura 5.13 se observa una eficiencia de validación del 98,0 %, es decir logró un
acierto de 1029 imágenes de 1050. Este valor de eficiencia se obtiene al promediar los
valores acreditados como “ok”, es decir que las clases se corresponden y luego
multiplicado por 100 para ser expresado como un porcentaje de eficiencia.
En la figura 5.14 se observa una eficiencia de validación del 94,3 %, es decir logró un
acierto de 990 imágenes de 1050. Este valor de eficiencia se obtiene al promediar los
valores acreditados como “ok”, es decir que las clases se corresponden y luego
multiplicado por 100 para ser expresado como un porcentaje de eficiencia.
Los resultados obtenidos sobre la validación del modelo se resumen en la tabla 5.1
KERNEL GAUSSIANO
BASES DE DATOS KERNEL LINEAL (%) KERNEL CUBICO (%)
(%)
TEXAS3DFRD 89,5 99,6 87,4
BU-3DFE 87,3 98,0 94,3
De los datos presentados en la tabla 5.1, se concluye que bajo la base de datos BU-
3DFE, se obtienen en general mejores resultados, sin embargo el valor máximo
obtenido de la validación cruzada en el entrenamiento con el kernel cúbico se llega a
un 99,6% trabajando con la base de datos TEXAS3DFRD. Finalmente algo muy
importante, observar que el kernel cúbico resulta muy eficaz en los ambos casos, por
los resultados altos obtenidos.
En la tabla 5.2 se muestra el resultado obtenido en cuanto a la fase de prueba para cada
kernel utilizado por el algoritmo SVM. De acuerdo a las pruebas realizadas con la
aplicación diseñada, y analizando los resultados obtenidos, se observa que con el
kernelk cúbico, se obtiene un mayor acierto de reconocimiento.
los resultados presentados están divididos en 4 rangos o intervalos, tales como: (1-50,
51-100, 101-150, 151-183) imágenes con el fin de ir visualizando como va variando
el número de aciertos.
100.0
80.0
Kernel_Lineal (%)
60.0
Kernel_Cúbico (%)
40.0
Kernel_Gausiano (%)
20.0
0.0
50 Imágenes 100 150 183
Imágenes Imágenes Imágenes
Respecto a la etapa de pruebas, sus resultados fueron registrados en una tabla de Excel
(ver anexos 17, 18 y 19), mientras que un resumen se indica en la tabla 5.4, la base de
datos fue probada con 150 modelos por cada kernel, teniendo un acierto de 130 y 20
deshaciertos con el kernel lineal, además un total de 146 aciertos, 4 deshaciertos con
el kernel Cúbico y finalmente un total de 135 aciertos, 15 deshaciertos con el kernel
Gaussiano, concluyendo con esto que el kernel cúbico resulta el mejor.
La tabla 5.4 muestra los rangos con los que se clasificaron previo al reconocimiento
en la base de datos utilizada, en donde se puede observar que el número de imágenes
de 1-25 se tienen 15 aciertos lineales, 21 aciertos cúbicos y 17 aciertos gaussianos. En
el rango 26-50 se identifican 38 aciertos lineales, 46 aciertos cúbicos y 39 aciertos
gaussianos. En el rango 51-75 se observan 63 aciertos lineales, 71 aciertos cúbicos y
134
Kernel_Lineal
(%) 60,0 76,0 84,0 84,0 84,0 86,7
Kernel_Cúbico
(%) 84,0 92,0 94,7 96,0 96,8 97,3
Kernel_Gaussiano
(%) 68,0 78,0 85,3 86,0 88,0 90,0
Imágenes
Imágenes
Imágenes
Imágenes
Imágenes
Imágenes
100
125
150
25
50
75
Figura 5.18 Porcentaje de reconocimiento de clases con bdd BU-3DFE
Con los modelos planteados en la figura 5.6 y 5.7 se realizan los experimentos para la
fase de entrenamiento y pruebas con las bases de datos TEXAS3DFRD y BU-3DFE
antes anotados. En las tablas 5.2 y 5.3 se muestran los resultados obtenidos con cada
base de datos por cada uno de los kernels: lineal, cúbico y gaussiano propios del
clasificador SVM.
Los resultados obtenidos del experimento realizado se comparan con otros trabajos
relacionados con reconocimiento facial 3D que utilizan la misma base de datos
TEXAS3DFRD. Un resumen de la comparación realizada se indica en la tabla 5.6
Porcentaje de
Métodos Base de datos
reconocimiento
Anthroface3D (Song, TEXAS3DFRD 96,8
Luo, Zi, & Tian, 2016)
Curveletface3D (Song et TEXAS3DFRD 97,1
al., 2016)
ACFFR (Song et al.,
2016) TEXAS3DFRD 97,0
Trabajo de Investigación
TEXAS3DFRD 98,4
propuesto
De igual manera, respecto del segundo experimento con la base de datos BU-3DFE,
se obtiene un mayor acierto del 97,3% con el kernel cúbico y el mínimo con el kernel
lineal con un 86,7% de acierto, la prueba se realizó con 150 imágenes correspondientes
a 50 personas, con total de 450 pruebas con los 3 kernels, como se ilustra en la tabla
5.3
Porcentaje de
Métodos Base de datos
reconocimiento
Derkach, Sukno
(Derkach & Sukno, BU-3DFE 81.5%
2018)
Savran, Sankur
BOSPHORUS 96.8%
(Savran, 2017)
Savran, Sankur
BU-3DFE 96.1%
(Savran, 2017)
Trabajo de
Investigación BU-3DFE 97.3%
propuesto
5.7 Conclusiones
Dentro de este capítulo tratado sobre imágenes 3D, es necesario destacar que los
rostros 3D ya no dependen de la iluminación y en especial las imágenes de la base de
datos TEXAS3DFRD pasaron en el laboratorio por un proceso de mejora como la
eliminación del ruido, eliminación de algunas regiones sin importancia, y el rellenado
de algunas regiones profundas. Estas operaciones sin lugar a dudas fueron importantes
que influyeron para los resultados obtenidos.
139
6.1 Conclusiones
Los resultados obtenidos con las dos bases de datos FERET y MUCT son
aceptables, dando la mejor eficiencia del 96% con el kernel Gaussiano y base
de datos FERET. Es así que se puede indicar que la metodología empleada es
acertada con la presencia de Gabor y Máquina de vectores soporte.
Los resultados obtenidos con las dos bases de datos TEXAS3DFRD y BU-
3DFE son muy aceptables, dando una mejor eficiencia del 97,3% con BU-
3DFE y 98,4% con TEXAS3DFRD. Esto indica que el proceso empleado es
muy acertado con la presencia de Gabor y Máquina de vectores soporte, sin
dejar un lado el proceso de proyectar un modelo de imágen 3D hacia los planos.
Es necesario destacar que los rostros 3D ya no dependen de la iluminación y
por otro lado estas imágenes pasan por un proceso de mejora como: la
eliminación del ruido, eliminación de algunas regiones sin importancia, y el
rellenado de algunas regiones profundas. Estas operaciones sin lugar a dudas
fueron importantes que influyeron para los resultados obtenidos.
Finalmente, se concluye que el reconocimiento facial sigue siendo un problema
complicado, a pesar de la presencia de muchos trabajos de investigación
actuales, hay muchas condiciones reales, difíciles de modelar y prever, los
mismos que limitan el rendimiento de los sistemas de la actualidad en términos
de tiempo y confianza.
BIBLIOGRAFIA
Acosta, A. N., Pablo, J., & Gonz, N. (2014). Detecci ´ on y Diagn ´ ostico de Fallas
para la Din ´ amica Lateral de un Autom ´ ovil utilizando M ´ aquinas de
Soporte Vectorial Multiclase, 73, 167–179.
Bah, S. M., & Ming, F. (2020). An improved face recognition algorithm and its
application in attendance management system. Array, 5(February 2019),
100014. https://doi.org/10.1016/j.array.2019.100014
Ballantyne, M., Boyer, R. S., & Hines, L. (1996). Woody Bledsoe—His Life and
Legacy, 17(1), 7–20.
Bartlett, M.-S. (1999). Face image analysis by unsupervised learning and redundancy
reduction. Dissertation-Abstracts-International:-Section-b:-The-Sciences-and-
Engineering.
http://live.ece.utexas.edu/research/%0Atexas3dfr
Belén, A., Díaz, M., & Físicas, C. C. (2004). Reconocimiento Facial Automático
mediante Técnicas de Visión Tridimensional Tesis Doctoral Reconocimiento
Facial Automático mediante Técnicas de Visión Tridimensional Tesis Doctoral.
Benini, S., Khan, K., Leonardi, R., Mauro, M., & Migliorati, P. (2019). Face analysis
through semantic face segmentation. Signal Processing: Image Communication,
74(November 2018), 21–31. https://doi.org/10.1016/j.image.2019.01.005
Blanco Oliver, A., Pino Mejías, R., & Lara Rubio, J. (2014). Modeling the Financial
Distress of Microenterprise Start-ups Using Support Vector Machines: a case
study. Innovar: Revista de Ciencias Administrativas y Sociales, 24(54), 153–
168. Retrieved from
https://dialnet.unirioja.es/servlet/articulo?codigo=4932773&orden=1&info=link
%5Cnhttps://dialnet.unirioja.es/servlet/extart?codigo=4932773
Cadena, J., Montaluisa, R., Flores, G., Chancúsig, J., & Guaypatín, O. (2017).
Reconocimiento facial con base en imágenes.
Cai, Y., Lei, Y., Yang, M., You, Z., & Shan, S. (2019). A fast and robust 3D face
recognition approach based on deeply learned face representation, 363, 375–
143
397. https://doi.org/10.1016/j.neucom.2019.07.047
Chan, C. H., & Tahir, M. A. (2013). Multiscale Local Phase Quantization for Robust
Component-Based Face Recognition Using Kernel Fusion of Multiple
Descriptors, 35(5), 1164–1177.
Chang, C., & Lin, C. (2013). LIBSVM : A Library for Support Vector Machines.
ACM Transactions on Intelligent Systems and Technology (TIST), 2, 1–39.
https://doi.org/10.1145/1961189.1961199
Cutipa, R. A., Cesar, J., Huanca, L., Posgrado, E. De, & Universitaria, C. (2017).
Técnicas de procesamiento digital de imágenes aplicados al reconocimiento
automático de rostros digital processing techniques of images applied to
automatic face recognition, (051), 287–296.
Derkach, D., & Sukno, F. M. (2018). Automatic Local Shape Spectrum Analysis for
3D Facial Expression Recognition. Image and Vision Computing, #pagerange#.
https://doi.org/10.1016/j.imavis.2018.09.007
Devi, H. S., Laishram, R., & Thounaojam, D. M. (2015). Face Recognition using R-
KDA with Non-Linear SVM for Multi-View Database. Procedia Computer
Science, 54, 532–541. https://doi.org/10.1016/j.procs.2015.06.061
Dou, P., & Kakadiaris, I. A. (2017). End-to-end 3D face reconstruction with deep
neural networks, (May).
Fadaifard, H., Wolberg, G., & Haralick, R. (2013). Multiscale 3D feature extraction
and matching with an application to 3D face recognition. Graphical Models,
75(4), 157–176. https://doi.org/10.1016/j.gmod.2013.01.002
Gao, W., Cao, B., Shan, S., Chen, X., Zhou, D., Zhan, X. (2008). The CAS-PEAL
large-scale Chinese face database and baseline evaluations, 149–161.
Gao, Y., Ma, J., Zhao, M., & Y. (2017). Semi-Supervised Sparse Representation
Based Classification for Face Recognition with Insufficient Labeled Samples,
1–16.
Graham, D. B., & Mallinson, N. (1998). for General Purpose Face Recognition.
Gumus, E., Kilic, N., Sertbas, A., & Ucan, O. N. (2010). Evaluation of face
recognition techniques using PCA, wavelets and SVM. Expert Systems with
Applications, 37(9), 6404–6408. https://doi.org/10.1016/j.eswa.2010.02.079
Guo, G., Li, S. Z., & Chan, K. L. (2001). Support vector machines for face
recognition. Image and Vision Computing, 19, 631–638.
https://doi.org/10.1016/S0262-8856(01)00046-4
Gupta, S., Castleman, K. R., Markey, M. K., & Bovik, A. C. (2010a). Texas 3D Face
Recognition Database. Proceedings of the IEEE Southwest Symposium on
Image Analysis and Interpretation, (June), 97–100.
https://doi.org/10.1109/SSIAI.2010.5483908
Gupta, S., Castleman, K. R., Markey, M. K., & Bovik, A. C. (2010b). Texas 3D Face
Recognition Database. Proceedings of the IEEE Southwest Symposium on
Image Analysis and Interpretation, (March 2018), 97–100.
https://doi.org/10.1109/SSIAI.2010.5483908
Hariri, W., Tabia, H., Farah, N., Benouareth, A., & Declercq, D. (2017). 3D facial
expression recognition using kernel methods on Riemannian manifold.
Engineering Applications of Artificial Intelligence, 64(May), 25–32.
https://doi.org/10.1016/j.engappai.2017.05.009
Kakadiaris, I. A., Toderici, G., Evangelopoulos, G., Passalis, G., Chu, D., Zhao, X.,
… Theoharis, T. (2017). 3D-2D face recognition with pose and illumination
normalization. Computer Vision and Image Understanding, 154, 137–151.
https://doi.org/10.1016/j.cviu.2016.04.012
Kamencay, P., Hudec, R., Benco, M., Sykora, P., & Radil, R. (2015). An efficient P-
KCCA algorithm for 2D-3D face recognition using SVM. Advances in
Electrical and Electronic Engineering, 13(4), 399–406.
https://doi.org/10.15598/aeee.v13i4.1473
Karthika, R., & Parameswaran, L. (2016). Study of Gabor Wavelet for Face
Recognition Invariant to Pose and Orientation. https://doi.org/10.1007/978-81-
146
322-2671-0
Kasar, M. M., Bhattacharyya, D., & Kim, T. (2016). Face Recognition Using Neural
Network : A Review, 10(3), 81–100.
Kerbaa, T. H., Mezache, A., & Oudira, H. (2019). Model Selection of Sea Clutter
Using Cross Validation Method a , b Method. Procedia Computer Science, 158,
394–400. https://doi.org/10.1016/j.procs.2019.09.067
Khan, N. M., Ksantini, R., Ahmad, I. S., & Boufama, B. (2012). A novel
SVM+NDA model for classification with an application to face recognition.
Pattern Recognition, 45(1), 66–79. https://doi.org/10.1016/j.patcog.2011.05.004
Kim, S.-K., Park, Y. J., Toh, K.-A., & Lee, S. (2010). SVM-based feature extraction
for face recognition. Pattern Recognition, 43(8), 2871–2881.
https://doi.org/10.1016/j.patcog.2010.03.008
Kong, R., & Zhang, B. (2011). A New Face Recognition Method Based on Fast
Least Squares Support Vector Machine. Physics Procedia, 22, 616–621.
https://doi.org/10.1016/j.phpro.2011.11.095
Laura, L., Waldo, H., César, E., Ronchetti, F., VillaMonte, A., Aquino, G., …
Santana, P. (2015). Redes Neuronales Artificiales plicaciones en Minería de
Datos y rocesamiento de Señales Temporales, 5.
teoría de la información.
Li, J., Perrine, K., Wu, L., & Walton, C. M. (2019). Cross-validating traffic speed
measurements from probe and stationary sensors through state reconstruction.
International Journal of Transportation Science and Technology, 8(3), 290–
303. https://doi.org/10.1016/j.ijtst.2019.04.002
Li, W., Liu, L., & Gong, W. (2011). Multi-objective uniform design as a SVM model
selection tool for face recognition. Expert Systems with Applications, 38(6),
6689–6695. https://doi.org/10.1016/j.eswa.2010.11.066
Li, X., Ruan, Q., An, G., Jin, Y., & Zhao, R. (2015). Multiple strategies to enhance
automatic 3D facial expression recognition. Neurocomputing, 161, 89–98.
https://doi.org/10.1016/j.neucom.2015.02.063
Li, X., Ruan, Q., Jin, Y., An, G., & Zhao, R. (2015). Fully automatic 3D facial
expression recognition using polytypic multi-block local binary patterns. Signal
Processing, 108, 297–308. https://doi.org/10.1016/j.sigpro.2014.09.033
Lin, W.-H., Wang, P., & Tsai, C.-F. (2016). Face recognition using support vector
model classifier for user authentication. Electronic Commerce Research and
Applications, 18(February), 1–12. https://doi.org/10.1016/j.elerap.2016.01.005
Luo, Y., Wu, C. M., & Zhang, Y. (2013). Facial expression recognition based on
fusion feature of PCA and LBP with SVM. Optik, 124(17), 2767–2770.
https://doi.org/10.1016/j.ijleo.2012.08.040
Manju, D., & Radha, V. (2020). A Novel Approach for Pose Invariant Face
Recognition in Surveillance Videos. Procedia Computer Science, 167(2019),
890–899. https://doi.org/10.1016/j.procs.2020.03.428
clasificación y regresión.
Milborrow, S., Morkel, J., & Nicolls, F. (2010). The MUCT Landmarked Face
Database.
Moreno, A., & Sanchez, a. (2005). Face recognition using 3D local geometrical
features: PCA vs. SVM. Image and Signal …, (1), 185–190.
https://doi.org/10.1109/ispa.2005.195407
Oyedotun, O. K., Demisse, G., El, A., & Shabayek, R. (2017). Facial Expression
Recognition via Joint Deep Learning of RGB-Depth Map Latent
Representations Facial Expression Recognition via Joint Deep Learning of
RGB-Depth Map Latent Representations, (December).
https://doi.org/10.1109/ICCVW.2017.374
Passalis, G., Kakadiaris, I. A., Theoharis, T., Toderici, G., & Murtuza, N. (2014).
Evaluation of the UR3D algorithm using the FRGC v2 data set Evaluation of
the UR3D algorithm using the FRGC v2 data set, (June).
149
R, J. V. C. I., Shi, B., Zang, H., Zheng, R., & Zhan, S. (2019). An efficient 3D face
recognition approach using Frenet feature of iso-geodesic curves. Journal of
Visual Communication and Image Representation, 59, 455–460.
https://doi.org/10.1016/j.jvcir.2019.02.002
Samaria, F., & Harter, A. (1994). Parameterisation of a stchastic model for human
face identification.
Sandbach, G., Zafeiriou, S., Pantic, M., & Yin, L. (2012). Static and dynamic 3D
facial expression recognition: A comprehensive survey. Image and Vision
Computing, 30(10), 683–697. https://doi.org/10.1016/j.imavis.2012.06.005
Sandoval, M. M., Rubio, J., & Eds, L. (2019). Avances en Ciencias en Ingeniería y
Tecnologías Computacionales.
Shao, Y. H., Chen, W. J., Wang, Z., Li, C. N., & Deng, N. Y. (2014). Weighted
linear loss twin support vector machine for large-scale classification.
Knowledge-Based Systems, 73(1), 276–288.
https://doi.org/10.1016/j.knosys.2014.10.011
Shen, L., & Bai, Æ. L. (2006). A review on Gabor wavelets for face recognition,
273–292. https://doi.org/10.1007/s10044-006-0033-y
Sim, T., Baker, S., & Bsat, M. (2003). The {CMU} pose, illuminlation, and
expression database. Pami, 25(12), 1615–1618.
https://doi.org/10.1109/AFGR.2002.1004130
Song, D., Luo, J., Zi, C., & Tian, H. (2016). 3D Face Recognition Using
Anthropometric and Curvelet Features Fusion, 2016.
Sun, W., Zhao, H., & Jin, Z. (2018). PT • The learned ROIs are partly consistent with
the emotion specific Action. Neurocomputing.
https://doi.org/10.1016/j.neucom.2018.03.034
Torkhani, G., Ladgham, A., Sakly, A., & Mansouri, M. N. (2017). A 3D–2D face
recognition method based on extended Gabor wavelet combining curvature and
edge detection. Signal, Image and Video Processing, 11(5), 969–976.
https://doi.org/10.1007/s11760-016-1046-7
Valverde, G., Criollo, R., Plua, D., Quinche, P., & Quiroz, M. (2014). Aplicación del
paradigma semiótico en una implementación de reconocimiento facial – Estado
del.
Weyrauch, B., Heisele, B., & Blanz, V. (2004). Component-based Face Recognition
with 3D Morphable Models 2 . Generation of 3D Face Models, 0–4.
X. Peng. (2010). An efficient twin support vector machine for regression, 365–372.
Xu, Y., Fang, X., Li, X., Yang, J., You, J., Liu, H., & Teng, S. (2014). Data
Uncertainty in Face Recognition, 1950–1961.
Yang, P. Y., Hui, C. J., Tien, D. J., Snowden, A. W., Derfus, G. E., Opel, C. F., &
Carlo, M. (2019). Accurate definition of control strategies using cross validated
stepwise regression and Monte Carlo simulation. Journal of Biotechnology: X,
2(April), 100006. https://doi.org/10.1016/j.btecx.2019.100006
Z. Qi, Y. Tian, Y. S. (2013). Robust twin support vector machine for pattern
classification, 305–316.
Zhan, Y., & Shen, D. (2005). Design efficient support vector machine for fast
classification. Pattern Recognition, 38(1), 157–161.
https://doi.org/10.1016/j.patcog.2004.06.001
Zhao, M., Fu, C., Ji, L., Tang, K., & Zhou, M. (2011). Feature selection and
parameter optimization for support vector machines: A new approach based on
genetic algorithm with feature chromosomes. Expert Systems with Applications,
38(5), 5197–5204. https://doi.org/10.1016/j.eswa.2010.10.041
152
ANEXOS
153
and Artificial
Intelligence
Cárdenas, J. P.,
Automatic text classification using
Olivares, G., &
words networks
Alfaro, R. Scielo 2014
Çarıkçı, M. üg., & A Face Recognition System Based
Özen, F. on Eigenfaces Method Elsevier 2012
Eye detection using discriminatory
Chen, S., & Liu, C. Haar features and a new efficient
SVM Elsevier 2015
Face recognition by generalized
Chowdhury, S., Sing,
two-dimensional FLD method and
J. K., Basu, D. K., &
multi-class support vector
Nasipuri, M.
machines Elsevier 2011
Recognizing facial action units
Chuang, C.-F., & using independent component
Shih, F. Y. analysis and support vector
machine Elsevier 2006
Hybrid Support Vector Machines Journal of
Concha, M. F. to Classify Traffic Accidents in the Technological
Región Metropolitana de Santiago Possibilism 2012
Face recognition using independent
Déniz, O., Castrillón,
component analysis and support
M., & Hernández, M.
vector machines Elsevier 2003
Face Recognition using R-KDA
Devi, H. S.,
with Non – Linear, Machines
Laishram, R., &
vectors support for Multi-View
Thounaojam, D. M.
Database Elsevier 2015
155
The Journal of
The Southern
Peak particle velocity prediction
African
Dindarloo, S. R. using support vector machines : a
Institute of
surface blasting case study
Mining and
Metallurgy 2015
Support vector machines
Emre, G., Haklı, H., classification based on particle
& Harun, U. swarm optimization for bone age
determination Elsevier 2014
Evaluación de sistemas de U. Politécnica
Espinosa, V
reconocimiento biométrico Madrid 2000
Improved support vector
Fortuna, J., &
classification using PCA and ICA
Capson, D.
feature space modification Elsevier 2004
Universidad
Reconocimiento de rostros
Garc, M. V. Católica de
combinando técnicas 2D y 3D
Cataluña. Tesis 2007
Universidad de
Procesamiento de Caras Humanas
García, G. Murcia. Tesis
Mediante Integrales Proyectivas
doctoral 2007
Implementación de algoritmos
basados en máquinas de soporte U. Distrital
Giral, D.
vectorial (SVM) para sistemas Francisco José
eléctricos: revisión de tema de Caldas 2016
Classification of Power Quality
Góes, A. R. T.,
Considering Voltage Sags in Journal
Steiner, M. T. A., &
Distribution Systems Using Kdd Pesquisa
Peniche, R. A.
Process Operacional 2015
Gumus, E., Kilic, N., Evaluation of face recognition
Sertbas, A., & Ucan, techniques using PCA, wavelets
O. N. and SVM Elsevier 2010
156
Guo, G., Li, S. Z., & Support vector machine for facial
Chan, K. L. recognition Elsevier 2001
Universidad
Clasificación de imágenes usando
Gutiérrez, J. D. Nacional de
Máquinas de Soporte Vectorial
Colombia 2007
Hayat, M., An RGB-D based image set
Bennamoun, M., & classification for robust face
El-Sallam, A. A. recognition from Kinect data Elsevier 2016
Heisele, B., Ho, P., Face recognition: component-
Wu, J., & Poggio, T. based versus global approaches Elsevier 2003
Hjelmås, E., & Low,
Face Detection: A Survey
B. K. Idealibrary 2001
Instituto
Diseño e implementación de una Politécnico
García, Inés
herramienta de detección facial Nacional
México 2009
Using self-organizing fuzzy
Juang, C.-F., & Shiu, network with support vector
S.-J. learning for face detection in color
images Elsevier 2008
Khan, N. M., A novel SVM+NDA model for
Ksantini, R., Ahmad, classification with an application to
I. S., & Boufama, B face recognition Elsevier 2012
Kim, S.-K., Park, Y.
SVM-based feature extraction for
J., Toh, K.-A., &
face recognition
Lee, S Elsevier 2010
A New Facial Recognition Method
Kong, R., & Zhang,
Based on Fast Least Squares
B
Support Vector Machine Elsevier 2011
a problemas de clasificación y
regresión
Eleceng.
Proceedings
Milborrow, S.,
The MUCT Landmarked Face Pattern
Morkel, J., &
Database Recognition
Nicolls, F.
Association of
South Africa 2010
Identificación de patrones sísmicos
Montoya, J. F. en registros 2D mediante máquinas
de soporte vectorial ( SVM ) Grupo Solsytec 2015
Face recognition using 3D local
Moreno, A., &
geometrical features: PCA vs.
Sanchez, a.
SVM. Researchgate 2005
Universidad del
Salas, Rodrigo Redes neuronales artificiales
Valparaiso 2009
Nasiri, J. A., Least squares twin multi-class
Moghadam Charkari, classification support vector
N., & Jalili, S. machine Elsevier 2015
Computer
Face Recognition System based on Engineering
Nayef, M. Z.
Wavelet, PCA-LDA and SVM and Intelligent
Systems 2013
Olivares-Mercado,
Modifications to the Eigenphases
J., Toscano-Medina,
Method for Facial Recognition
K., Sánchez-Pérez,
Based on Machine vectors support.
G., Nakano- Ingeniería
Ingeniería, Investigación Y
Miyatake, M., & Investigación y
Tecnología
Pérez-Meana, H. Tecnología 2016
159
Reconocimiento de rostros
utilizando análisis de componentes Universidad
Quezada, V.
principales : limitaciones del Iberoamericana.
algoritmo Tesis Doctoral 2005
Instituto
Las maquinas de vectores de Politécnico
Resendiz Trejo, J.
soporte para identificación en línea Nacional
México. Tesis 2006
Reconocimiento de Localizaciones U. Carlos III
Riobó Otero, V. mediante Máquinas de Soporte Madrid. Tesis
Vectorial doctoral 2012
Rodríguez-vázquez, Clasificación de células cervicales Revista Cubana
S., & Martínez- con Máquinas de Soporte Vectorial de Ciencias
borges, A. V. empleando rasgos del núcleo Informáticas 2015
Segmentación de la región de la
Saint-exupery, A.
boca en imágenes faciales : Universidad
De, & Cedex, V.
Revisión bibliográfica Antoquia 2009
Schwaninger, A., &
Schwaninger, A., & Yang, J.
Yang, J. Elsevier 2011
Shao, Y. H., Chen, Weighted linear loss twin support
W. J., Wang, Z., Li, vector machine for large-scale
C. N., & Deng, N. Y. classification Elsevier 2015
Face detection using discriminating
Shih, P., & Liu, C. feature analysis and support vector
machine Elsevier 2006
SEGUIMIENTO DE PATRONES Universidad de
Sistemes, I. D. E. FACIALES POR Barcelona.
DESCRIPTORES DE FORMA Tesis 2008
International
SOHAIL, A. S. M., Classifying Facial Expressions
Journal of
& Using Level Set Method Based Lip
Pattern
BHATTACHARYA, Contour Detection and Multi-Class
Recognition
P. Support Vector Machines
and Artificial 2011
160
Intelligence.
World Cientific
Song, F., Yang, J., & Large margin linear projection and
Liu, S. face recognition Elsevier 2004
DISEÑO E IMPLEMENTACIÓN
DE UNA PLATAFORMA DE
Villalón, Dario SOFTWARE PARA
RECONOCIMIENTO FACIAL Universidad de
EN VIDEO Chile 2012
Métodos y técnicas de
Valvert, J. reconocimiento de rostros en U. San Carlos
imágenes digitales bidimensionales de Gatemala 2006
by John Wiley
Vapnik, V. N. Statistical Learning Theory
& Sons 1998
AdaBoost for Feature Selection,
Wang, R. Classification and Its Relation with
SVM, A Review Elsevier 2012
Wang, X. H., Liu, A., New facial expression recognition
& Zhang, S. Q. based on FSVM and KNN Elsevier 2015
Wang, X., & Wang, Enhanced algorithm for high-
S. dimensional data classification Elsevier 2015
Face recognition method based on
Wei, J., Jian-Qi, Z.,
support vector machine and
& Xiang, Z.
particle swarm optimization Elsevier 2011
An improved discriminative
common vectors and support
Wen, Y.
vector machine based face
recognition approach Elsevier 2012
161
Paola Rondón y
Sistema de reconocimiento facial
Henry Arguello, B.
basado en imágenes con color
P. P. UIS Ingenierías 2011
Design efficient support vector
Zhan, Y., & Shen, D.
machine for fast classification Elsevier 2005
Locality-sensitive kernel sparse
Zhang, S., & Zhao,
representation classification for
X.
face recognition Elsevier 2014
Zhang, X., Mahoor,
Facial expression recognition using
M. H., & Mavadati,
lp-norm MKL multiclass-SVM
S. M Springer 2015
Face recognition across pose: A
Zhang, X., & Gao, Y.
review Elsevier 2009
Feature selection and parameter
Zhao, M., Fu, C., Ji, optimization for support vector
L., Tang, K., & Zhou, machines: A new approach based
M on genetic algorithm with feature
chromosomes Elsevier 2011
Face recognition based on extreme
Zong, W., & Huang, learning machine
G.-B
Elsevier 2011
162
35 P7 CORRECTA
31 P7 CORRECTA
98 P20 CORRECTA
94 P19 CORRECTA
46 P10 CORRECTA
1 P1 CORRECTA
72 P15 CORRECTA
59 P12 CORRECTA
36 P8 CORRECTA
40 P8 CORRECTA
71 P15 CORRECTA
17 P4 CORRECTA correcta incorrecta
70 P14 CORRECTA 50 0
86 P18 CORRECTA
48 P10 CORRECTA
51 P11 CORRECTA
89 P18 CORRECTA
68 P14 CORRECTA
62 P13 CORRECTA
42 P9 CORRECTA
57 P12 CORRECTA
61 P13 CORRECTA
16 P19 INCORRECTA
83 P17 CORRECTA
11 P3 CORRECTA
80 P16 CORRECTA
99 P20 CORRECTA
43 P9 CORRECTA
91 P19 CORRECTA
9 P2 CORRECTA
19 P11 INCORRECTA
49 P10 CORRECTA
2 P1 CORRECTA
60 P12 CORRECTA
52 P11 CORRECTA
56 P12 CORRECTA
18 P11 INCORRECTA correcta incorrecta
93 P19 CORRECTA 72 3
22 P5 CORRECTA
24 P5 CORRECTA
100 P20 CORRECTA
15 P3 CORRECTA
78 P16 CORRECTA
63 P13 CORRECTA
169
53 P11 CORRECTA
32 P7 CORRECTA
69 P14 CORRECTA
27 P6 CORRECTA
44 P9 CORRECTA
92 P19 CORRECTA
76 P16 CORRECTA
50 P10 CORRECTA
39 P8 CORRECTA
20 P19 INCORRECTA
26 P6 CORRECTA
38 P7 INCORRECTA
81 P17 CORRECTA
29 P6 CORRECTA
4 P1 CORRECTA
82 P17 CORRECTA
96 P20 CORRECTA
58 P12 CORRECTA correcta incorrecta
65 P13 CORRECTA 95 2
TOTAL ACIERTOS 95
TOTAL DESHACIERTOS 5
TOTAL IMÁGENES DE PRUEBA: 100
Correcta: Cuando SI identificó la clases correcta a la que pertenece
Incorrecta: Cuando NO identificó la clases correcta a la que pertenece
170
75 P15 CORRECTA
14 P3 CORRECTA
8 P8 CORRECTA correcta incorrecta
74 P15 CORRECTA 23 2
7 P2 CORRECTA
55 P11 CORRECTA
INCORRECT
3 P5
A
30 P6 CORRECTA
45 P9 CORRECTA
66 P14 CORRECTA
54 P11 CORRECTA
21 P5 CORRECTA
87 P18 CORRECTA
28 P6 CORRECTA
97 P20 CORRECTA
34 P7 CORRECTA
35 P7 CORRECTA
31 P7 CORRECTA
98 P20 CORRECTA
94 P19 CORRECTA
46 P10 CORRECTA
1 P1 CORRECTA
72 P15 CORRECTA
59 P12 CORRECTA
36 P8 CORRECTA
INCORRECT
40 P18
A
71 P15 CORRECTA
17 P4 CORRECTA correcta incorrecta
70 P14 CORRECTA 46 2
86 P18 CORRECTA
172
48 P10 CORRECTA
51 P11 CORRECTA
89 P18 CORRECTA
68 P14 CORRECTA
62 P13 CORRECTA
42 P9 CORRECTA
57 P12 CORRECTA
61 P13 CORRECTA
INCORRECT
16 P11
A
83 P17 CORRECTA
11 P3 CORRECTA
80 P16 CORRECTA
99 P20 CORRECTA
43 P9 CORRECTA
91 P19 CORRECTA
9 P2 CORRECTA
INCORRECT
19 P11
A
49 P10 CORRECTA
2 P1 CORRECTA
60 P12 CORRECTA
52 P11 CORRECTA
56 P12 CORRECTA
INCORRECT
18 P11 correcta incorrecta
A
93 P19 CORRECTA 68 3
22 P5 CORRECTA
24 P5 CORRECTA
100 P20 CORRECTA
15 P3 CORRECTA
78 P16 CORRECTA
173
63 P13 CORRECTA
53 P11 CORRECTA
32 P7 CORRECTA
69 P14 CORRECTA
27 P6 CORRECTA
44 P9 CORRECTA
92 P19 CORRECTA
76 P16 CORRECTA
50 P10 CORRECTA
39 P8 CORRECTA
INCORRECT
20 P11
A
26 P6 CORRECTA
38 P8 CORRECTA
81 P17 CORRECTA
29 P6 CORRECTA
4 P1 CORRECTA
82 P17 CORRECTA
96 P20 CORRECTA
58 P12 CORRECTA correcta incorrecta
65 P13 CORRECTA 92 1
TOTAL, ACIERTOS 92
TOTAL, DESHACIERTOS 8
TOTAL, IMÁGENES DE
PRUEBA: 100
Correcta: Cuando SI identificó la clase correcta a la que pertenece
Incorrecta: Cuando NO identificó la clase correcta a la que pertenece
174
74 P15 CORRECTA 25 0
7 P2 CORRECTA
55 P11 CORRECTA
3 P1 CORRECTA
30 P6 CORRECTA
45 P9 CORRECTA
66 P14 CORRECTA
54 P11 CORRECTA
21 P5 CORRECTA
87 P18 CORRECTA
28 P6 CORRECTA
97 P20 CORRECTA
34 P7 CORRECTA
35 P7 CORRECTA
31 P7 CORRECTA
98 P20 CORRECTA
94 P19 CORRECTA
46 P10 CORRECTA
1 P1 CORRECTA
72 P15 CORRECTA
59 P12 CORRECTA
36 P8 CORRECTA
40 P8 CORRECTA
71 P15 CORRECTA
17 P4 CORRECTA correcta incorrecta
70 P14 CORRECTA 50 0
86 P18 CORRECTA
48 P10 CORRECTA
51 P11 CORRECTA
89 P18 CORRECTA
68 P14 CORRECTA
62 P13 CORRECTA
176
42 P9 CORRECTA
57 P12 CORRECTA
61 P13 CORRECTA
INCORRECT
16 P11
A
83 P17 CORRECTA
11 P3 CORRECTA
80 P16 CORRECTA
99 P20 CORRECTA
43 P9 CORRECTA
91 P19 CORRECTA
9 P2 CORRECTA
INCORRECT
19 P11
A
49 P10 CORRECTA
2 P1 CORRECTA
60 P12 CORRECTA
52 P11 CORRECTA
56 P12 CORRECTA
INCORRECT
18 P11 correcta incorrecta
A
93 P19 CORRECTA 72 3
22 P5 CORRECTA
24 P5 CORRECTA
100 P20 CORRECTA
15 P3 CORRECTA
78 P16 CORRECTA
63 P13 CORRECTA
53 P11 CORRECTA
32 P7 CORRECTA
69 P14 CORRECTA
27 P6 CORRECTA
177
44 P9 CORRECTA
92 P19 CORRECTA
76 P16 CORRECTA
50 P10 CORRECTA
39 P8 CORRECTA
INCORRECT
20 P19
A
26 P6 CORRECTA
38 P8 CORRECTA
81 P17 CORRECTA
29 P6 CORRECTA
4 P1 CORRECTA
82 P17 CORRECTA
96 P20 CORRECTA
58 P12 CORRECTA correcta incorrecta
65 P13 CORRECTA 96 1
TOTAL ACIERTOS 96
TOTAL DESHACIERTOS 4
TOTAL IMÁGENES DE
PRUEBA: 100
Correcta: Cuando SI identificó la clases correcta a la que pertenece
Incorrecta: Cuando NO identificó la clases correcta a la que pertenece
178
1 P0 CORRECTA
286 P7 INCORRECTA
158 P52 CORRECTA
240 P79 CORRECTA
7 P2 CORRECTA
43 P14 CORRECTA
66 P21 CORRECTA
185 P61 CORRECTA
268 P54 INCORRECTA
171 P56 CORRECTA
181 P60 CORRECTA
104 P34 CORRECTA
139 P46 CORRECTA
166 P55 CORRECTA
63 P20 CORRECTA
292 P97 CORRECTA
3 P0 CORRECTA
191 P63 CORRECTA
247 P82 CORRECTA
215 P71 CORRECTA
31 P100 CORRECTA
15 P4 CORRECTA
117 P38 CORRECTA
82 P27 CORRECTA
29 P9 CORRECTA
219 P72 CORRECTA
175 P58 CORRECTA
97 P32 CORRECTA
285 P94 CORRECTA
217 P72 CORRECTA
163 P54 CORRECTA
214 P71 CORRECTA
181
65 P21 CORRECTA
50 P16 CORRECTA
255 P84 CORRECTA
210 P69 CORRECTA
211 P70 CORRECTA
25 P8 CORRECTA
167 P55 CORRECTA
291 P96 CORRECTA
101 P33 CORRECTA
216 P71 CORRECTA
190 P63 CORRECTA
196 P65 CORRECTA
CORRECTA INCORRECTA
280 P93 CORRECTA
S S
243 P80 CORRECTA 98 2
24 P7 CORRECTA
68 P22 CORRECTA
39 P12 CORRECTA
69 P22 CORRECTA
225 P74 CORRECTA
2 P0 CORRECTA
260 P86 CORRECTA
178 P59 CORRECTA
224 P61 INCORRECTA
296 P98 CORRECTA
98 P77 INCORRECTA
184 P61 CORRECTA
35 P9 INCORRECTA
198 P65 CORRECTA
169 P56 CORRECTA
231 P76 CORRECTA
294 P97 CORRECTA
182
CORRECTA INCORRECTA
279 P92 CORRECTA
S S
147 P48 CORRECTA 140 10
127 P29 INCORRECTA
136 P45 CORRECTA
58 P19 CORRECTA
199 P66 CORRECTA
202 P67 CORRECTA
267 P46 INCORRECTA
41 P13 CORRECTA
11 P3 CORRECTA
230 P76 CORRECTA
176 P58 CORRECTA
16 P5 CORRECTA
49 P16 CORRECTA
155 P98 INCORRECTA
187 P54 INCORRECTA
102 P33 CORRECTA
144 P47 CORRECTA
195 P64 CORRECTA
53 P17 CORRECTA
135 P44 CORRECTA
18 P5 CORRECTA
19 P6 CORRECTA
168 P55 CORRECTA
74 P24 CORRECTA
180 P59 CORRECTA
37 P12 CORRECTA
194 P64 CORRECTA
205 P68 CORRECTA
109 P36 CORRECTA
200 P66 CORRECTA
184
55 P34 INCORRECTA
57 P94 INCORRECTA
6 P1 CORRECTA
137 P45 CORRECTA
107 P35 CORRECTA
261 P86 CORRECTA
237 P78 CORRECTA
9 P2 CORRECTA
94 P9 INCORRECTA
265 P88 CORRECTA
209 P69 CORRECTA
42 P13 CORRECTA
212 P70 CORRECTA
62 P20 CORRECTA
197 P65 CORRECTA
113 P37 CORRECTA
256 P85 CORRECTA
186 P61 CORRECTA
141 P46 CORRECTA
CORRECTA INCORRECTA
100 P32 INCORRECTA
S S
27 P8 CORRECTA 182 18
236 P78 CORRECTA
75 P24 CORRECTA
207 P68 CORRECTA
152 P85 INCORRECTA
182 P60 CORRECTA
32 P10 CORRECTA
232 P10 INCORRECTA
12 P3 CORRECTA
38 P12 CORRECTA
188 P9 INCORRECTA
185
77 P25 CORRECTA
161 P53 CORRECTA
241 P80 CORRECTA
22 P7 CORRECTA
52 P17 CORRECTA
164 P54 CORRECTA
159 P52 CORRECTA
151 P50 CORRECTA
60 P19 CORRECTA
125 P41 CORRECTA
56 P18 CORRECTA
251 P83 CORRECTA
242 P80 CORRECTA
264 P87 CORRECTA
131 P43 CORRECTA
201 P66 CORRECTA
78 P25 CORRECTA
33 P10 CORRECTA
138 P45 CORRECTA
105 P34 CORRECTA
132 P43 CORRECTA CORRECTAS INCORRECTAS
76 P25 CORRECTA 284 19
29 P9 CORRECTA
219 P72 CORRECTA
175 P58 CORRECTA
97 P32 CORRECTA
285 P94 CORRECTA
217 P72 CORRECTA
163 P54 CORRECTA
214 P71 CORRECTA
65 P21 CORRECTA
50 P16 CORRECTA
255 P84 CORRECTA
210 P69 CORRECTA
211 P70 CORRECTA
25 P8 CORRECTA
167 P55 CORRECTA
291 P96 CORRECTA
101 P33 CORRECTA
216 P71 CORRECTA
190 P63 CORRECTA
196 P65 CORRECTA
CORRECTA INCORRECTA
280 P93 CORRECTA
S S
243 P80 CORRECTA 99 1
24 P7 CORRECTA
68 P22 CORRECTA
39 P12 CORRECTA
69 P22 CORRECTA
225 P74 CORRECTA
2 P0 CORRECTA
260 P86 CORRECTA
178 P59 CORRECTA
224 P61 INCORRECTA
296 P98 CORRECTA
98 P77 INCORRECTA
184 P95 INCORRECTA
35 P11 CORRECTA
198 P65 CORRECTA
169 P56 CORRECTA
231 P76 CORRECTA
294 P97 CORRECTA
234 P77 CORRECTA
123 P40 CORRECTA
273 P90 CORRECTA
20 P46 INCORRECTA
202
12 P3 CORRECTA
38 P12 CORRECTA
188 P9 INCORRECTA
177 P58 CORRECTA
249 P82 CORRECTA
282 P93 CORRECTA
67 P22 CORRECTA
287 P26 INCORRECTA
252 P83 CORRECTA
81 P70 INCORRECTA
227 P75 CORRECTA
148 P49 CORRECTA
293 P97 CORRECTA
112 P37 CORRECTA
173 P57 CORRECTA
271 P90 CORRECTA
46 P15 CORRECTA
91 P30 CORRECTA
116 P38 CORRECTA
254 P84 CORRECTA
297 P98 CORRECTA
54 P17 CORRECTA
288 P95 CORRECTA
96 P26 INCORRECTA
266 P88 CORRECTA
40 P13 CORRECTA
229 P76 CORRECTA
170 P56 CORRECTA
103 P34 CORRECTA
145 P48 CORRECTA
128 P42 CORRECTA
99 P32 CORRECTA
270 P89 CORRECTA
263 P87 CORRECTA
79 P26 CORRECTA
115 P38 CORRECTA
143 P47 CORRECTA
192 P63 CORRECTA
121 P40 CORRECTA
111 P36 CORRECTA
299 P99 CORRECTA
CORRECTA INCORRECTA
258 P85 CORRECTA
S S
73 P24 CORRECTA 229 21
205
44 P11 NO
2 P19 SI
91 P3 SI
51 P43 SI
84 P2 SI
83 P2 SI
169 P12 SI
158 P14 SI
32 P34 SI
152 P13 SI
109 P1 NO
45 P11 NO
90 P3 SI
35 P36 SI CORRECTA INCORRECTO
65 P50 SI 42 8
3 P6 NO
153 P13 SI
151 P13 SI
52 P17 NO
178 P18 SI
73 P1 SI
112 P7 SI
67 P1 SI
26 P31 SI
164 P15 SI
61 P48 SI
155 P18 SI
167 P15 NO
36 P36 SI
1 P19 SI
143 P12 SI
120 P8 SI
180 P18 SI
105 P5 SI
31 P34 SI
22 P29 SI
135 P48 NO
117 P7 SI
59 P47 SI
24 P30 SI
147 P12 SI
87 P2 SI
78 P2 SI
10 P13 NO
210
96 P11 SI
43 P39 SI
29 P33 SI
115 P7 SI
66 P1 SI
100 P5 SI
132 P10 SI
92 P3 SI
4 P16 NO
99 P4 SI
9 P2 NO
140 P11 SI
68 P1 SI
11 P24 SI
58 P47 SI
145 P12 SI
69 P1 SI
75 P1 SI
63 P49 SI
28 P32 SI CORRECTA INCORRECTO
182 P18 SI 85 15
179 p18 SI
41 p38 SI
80 P2 SI
170 P16 SI
12 P24 SI
136 P11 SI
77 P2 SI
141 P11 SI
128 P9 SI
64 P50 SI
23 P30 SI
150 P13 SI
146 P12 SI
94 P3 SI
156 P17 SI
81 P2 SI
165 P15 SI
85 P2 SI
98 P4 SI
21 P29 SI
76 P5 NO
102 P5 SI
89 P3 SI
211
138 P11 SI
97 P4 SI
101 P5 SI
160 P15 SI
106 P6 SI
37 P37 SI
93 P3 SI
159 P14 SI
131 P10 SI
56 P18 NO
125 P9 SI
18 P27 SI
121 P8 SI
49 P42 SI
161 P15 SI
72 P1 SI
48 P42 SI
71 P1 SI
54 P45 SI
39 P37 SI
5 P8 NO
14 P25 SI
163 P15 SI
148 P13 SI
62 P49 SI
40 P38 SI CORRECTA INCORRECTO
174 P17 SI 132 18
166 P16 SI
55 P45 SI
142 P12 SI
19 P28 SI
34 P35 SI
183 P18 SI
154 P14 SI
134 P18 NO
173 P17 SI
95 P4 SI
130 P10 SI
60 P48 SI
6 P8 NO
8 P22 SI
162 P15 SI
168 P11 NO
57 P46 SI
212
70 P1 SI
177 P17 SI
74 P1 SI
119 P8 SI
139 P11 SI
42 P39 SI
38 P37 SI
149 P13 SI
172 P17 SI
13 P25 SI
116 P7 SI
111 P6 SI
46 P41 SI
122 P8 SI
103 P5 SI CORRECTA INCORRECTO
124 P9 SI 162 21
ROSTROS CLASE O
DE PERSONA VALIDACION
PRUEBA IDENTIFICADA
53 P44 SI
157 P14 SI
171 P16 SI
133 P10 SI
110 P6 SI
144 P12 SI
176 P17 SI
82 P1 SI
79 P2 SI
175 P17 SI
114 P7 SI
126 P9 SI
86 P2 SI
118 P8 SI
137 P11 SI
25 P31 SI
15 P26 SI
50 P43 SI
127 P9 SI
113 P7 SI
16 P26 SI
108 P6 SI
123 P8 SI
104 P5 SI
47 P41 SI
7 P22 SI
88 P2 SI
27 P32 SI
17 P27 SI
129 P10 SI
107 P6 SI
30 P33 SI
20 P28 SI
33 P35 SI
181 P18 SI
44 P40 SI
2 P19 SI
91 P3 SI
51 P43 SI
214
84 P2 SI
83 P2 SI
169 P12 SI
158 P14 SI
32 P34 SI
152 P13 SI
109 P6 SI
45 P40 SI
90 P3 SI
35 P36 SI CORRECTA INCORRECTO
65 P50 SI 50 0
3 P12 NO
153 P13 SI
151 P13 SI
52 P44 SI
178 P18 SI
73 P1 SI
112 P7 SI
67 P1 SI
26 P31 SI
164 P15 SI
61 P48 SI
155 P18 SI
167 P15 NO
36 P36 SI
1 P19 SI
143 P12 SI
120 P8 SI
180 P18 SI
105 P5 SI
31 P34 SI
22 P29 SI
135 P10 SI
117 P7 SI
59 P47 SI
24 P30 SI
147 P12 SI
87 P2 SI
78 P2 SI
10 P23 SI
96 P11 SI
43 P39 SI
29 P33 SI
115 P7 SI
215
66 P1 SI
100 P5 SI
132 P10 SI
92 P3 SI
4 P16 NO
99 P4 SI
9 P23 SI
140 P11 SI
68 P1 SI
11 P24 SI
58 P47 SI
145 P12 SI
69 P1 SI
75 P1 SI
63 P49 SI
28 P32 SI CORRECTA INCORRECTO
182 P18 SI 97 3
179 P18 SI
41 P38 SI
80 P2 SI
170 P16 SI
12 P24 SI
136 P11 SI
77 P2 SI
141 P11 SI
128 P9 SI
64 P50 SI
23 P30 SI
150 P13 SI
146 P12 SI
94 P3 SI
156 P17 SI
81 P2 SI
165 P15 SI
85 P2 SI
98 P4 SI
21 P29 SI
76 P1 SI
102 P5 SI
89 P3 SI
138 P11 SI
97 P4 SI
101 P5 SI
160 P15 SI
216
106 P6 SI
37 P37 SI
93 P3 SI
159 P14 SI
131 P10 SI
56 P46 SI
125 P9 SI
18 P27 SI
121 P8 SI
49 P42 SI
161 P15 SI
72 P1 SI
48 P42 SI
71 P1 SI
54 P45 SI
39 P37 SI
5 P21 SI
14 P25 SI
163 P15 SI
148 P13 SI
62 P49 SI
40 P38 SI CORRECTA INCORRECTO
174 P17 SI 147 3
166 P16 SI
55 P45 SI
142 P12 SI
19 P28 SI
34 P35 SI
183 P18 SI
154 P14 SI
134 P10 SI
173 P17 SI
95 P4 SI
130 P10 SI
60 P48 SI
6 P8 SI
8 P22 SI
162 P15 SI
168 P16 SI
57 P46 SI
70 P1 SI
177 P17 SI
74 P1 SI
119 P8 SI
217
139 P11 SI
42 P39 SI
38 P37 SI
149 P13 SI
172 P17 SI
13 P25 SI
116 P7 SI
111 P6 SI
46 P41 SI
122 P8 SI
103 P5 SI CORRECTA INCORRECTO
124 P9 SI 180 3
2 P19 SI
91 P3 SI
51 P43 SI
84 P2 SI
83 P2 SI
169 P12 SI
158 P14 SI
32 P34 SI
152 P13 SI
109 P1 NO
45 P5 NO
90 P3 SI
35 P36 SI CORRECTA INCORRECTO
65 P50 SI 40 10
3 P6 NO
153 P13 SI
151 P13 SI
52 P44 SI
178 P18 SI
73 P1 SI
112 P7 SI
67 P1 SI
26 P31 SI
164 P15 SI
61 P48 SI
155 P14 NO
167 P15 NO
36 P36 SI
1 P19 SI
143 P12 SI
120 P8 SI
180 P18 SI
105 P5 SI
31 P34 SI
22 P29 SI
135 P10 SI
117 P7 SI
59 P47 SI
24 P30 SI
147 P12 SI
87 P2 SI
78 P2 SI
10 P13 NO
96 P11 SI
220
43 P15 NO
29 P33 SI
115 P7 SI
66 P1 SI
P5 SI
132 P10 SI
92 P3 SI
4 P18 NO
99 P4 SI
9 P2 NO
140 P11 SI
68 P1 SI
11 P24 SI
58 P47 SI
145 P12 SI
69 P1 SI
75 P1 SI
63 P49 SI
28 P17 NO CORRECTA INCORRECTO
182 P18 SI 82 18
179 P18 SI
41 P38 SI
80 P2 SI
170 P18 NO
12 P24 SI
136 P11 SI
77 P5 NO
141 P11 SI
128 P9 SI
64 P50 SI
23 P30 SI
150 P2 NO
146 P12 SI
94 P3 SI
156 P17 SI
81 P2 SI
165 P11 NO
85 P2 SI
98 P4 SI
21 P29 SI
76 P5 NO
102 P18 NO
89 P3 SI
138 P11 SI
221
97 P4 SI
101 P5 SI
160 P15 SI
106 P6 SI
37 P37 SI
93 P3 SI
159 P14 SI
131 P10 SI
56 P46 SI
125 P9 SI
18 P27 SI
121 P17 NO
49 P42 SI
161 P15 SI
72 P1 SI
48 P42 SI
71 P1 SI
54 P45 SI
39 P37 SI
5 P8 NO
14 P25 SI
163 P15 SI
148 P13 SI
62 P49 SI
40 P38 SI CORRECTA INCORRECTO
174 P17 SI 124 26
166 P5 NO
55 P11 NO
142 P12 SI
19 P28 SI
34 P11 NO
183 P18 SI
154 P12 NO
134 P15 NO
173 P17 SI
95 P4 SI
130 P10 SI
60 P48 SI
6 P8 SI
8 P22 SI
162 P15 SI
168 P5 NO
57 P46 SI
70 P1 SI
222
177 P17 SI
74 P1 SI
119 P8 SI
139 P11 SI
42 P39 SI
38 P37 SI
149 P13 SI
172 P17 SI
13 P25 SI
116 P7 SI
111 P6 SI
46 P41 SI
122 P12 NO
103 P5 SI CORRECTA INCORRECTO
124 P9 SI 150 33
37 p13 si
38 p13 si
39 p13 si
40 p47, p14, p14 si
41 p14, p14, p47 si
42 p14 si
43 p15 si
44 p15 si
45 p15, p21, p15 si
46 p16, p29,30 no
47 p16, p47, p16 si
48 p16, p47p26 no
49 p17 si
50 p17 si
51 p17, p17, p11 si
52 p18 si
53 p18 si
54 p18 si
55 p19 si
56 p19 si
57 p19 si
58 p20 si
59 p20 si
60 p20 si
61 p21 si
62 p21 si
63 p21 si
64 p22 si
65 p22 si
66 p22 si
67 p23 si
68 p23 si
69 p23 si
70 p24 si
71 p24 si
72 p24 si
73 p25 si
74 p25, p25, p3 si
75 p25 si
76 p26 si
77 p26 si
78 p26 si
79 p27 si
80 p27 si
227
81 p27 si
82 p23, p44, p45 no
83 p47, p30, p11 no
84 p19, p44, p24 no
85 p29 si
86 p29 si
87 p29 si
88 p30 si
89 p30 si
90 p30 si
91 p31, p31, p30 si
92 p31 si
93 p31 si
94 p45, p32, p32 si
95 p32, p32, p21 si
96 p32, p32, p45 si
97 p26, p33, p33 si
98 p33 si
99 p33 si
100 p21, p29, p21 no
101 p50, p29, p34 no
102 p44, p10, p34 no
103 p35 si
104 p35 si
105 p35 si
106 p36 si
107 p11, p36, p43 no
108 p36 si
109 p37 si
110 p37 si
111 p37 si
112 p38 si
113 p38 si
114 p38 si
115 p39 si
116 p39 si
117 p39 si
118 p40 si
119 p40, p29, p40 si
120 p40 si
121 p41, p44, p24 no
122 p29, p41, p41 si
123 p41 si
124 p42 si
228
125 p42 si
126 p42 si
127 p43 si
128 p43 si
129 p43 si
130 p44 si
131 p44 si
132 p44 si
133 p45 si
134 p45 si
135 p45 si
136 p46 si
137 p46 si
138 p46 si
139 p47 si
140 p47 si
141 p47 si
142 p48 si
143 p48 si
144 p48 si
145 p49 si
146 p49 si
147 p49 si
148 p50, p44, p50 si
149 p50 si
150 p50 si
TOTAL, ACIERTOS 130
TOTAL, DESHACIERTOS 20
TOTAL, IMÁGENES DE
PRUEBA: 150
Cuando SI identificó la clase correcta a la que
Correcta: pertenece
Cuando NO identificó la clase correcta a la que
Incorrecta: pertenece
229
37 p13 si
38 p13 si
39 p13 si
40 p14 si
41 p14 si
42 p14 si
43 p15 si
44 p15 si
45 p15 si
46 p16 si
47 p16 si
48 p16 si
49 p17 si
50 p17 si
51 p17 si
52 p18 si
53 p18 si
54 p18 si
55 p19 si
56 p19 si
57 p19 si
58 p20 si
59 p20 si
60 p20 si
61 p21 si
62 p21 si
63 p21 si
64 p22 si
65 p22 si
66 p22 si
67 p23 si
68 p23 si
69 p23 si
70 p24 si
71 p24 si
72 p24 si
73 p25 si
74 p25 si
75 p25 si
76 p26 si
77 p26 si
78 p26 si
79 p27 si
80 p27 si
231
81 p27 si
82 p28 si
83 p28 si
84 p28 si
85 p29 si
86 p29 si
87 p29 si
88 p30 si
89 p30 si
90 p30 si
91 p31 si
92 p31 si
93 p31 si
94 p32 si
95 p32 si
96 p32 si
97 p33 si
98 p33 si
99 p33 si
100 p34 si
101 p34 si
102 p34 si
103 p35 si
104 p35 si
105 p35 si
106 p36 si
107 p36 si
108 p36 si
109 p37 si
110 p37 si
111 p37 si
112 p38 si
113 p38 si
114 p38 si
115 p39 si
116 p39 si
117 p39 si
118 p40 si
119 p40 si
120 p40 si
121 p41 si
122 p41 si
123 p41 si
124 p42 si
232
125 p42 si
126 p42 si
127 p43 si
128 p43 si
129 p43 si
130 p44 si
131 p44 si
132 p44 si
133 p45 si
134 p45 si
135 p45 si
136 p46 si
137 p46 si
138 p46 si
139 p47 si
140 p47 si
141 p47 si
142 p48 si
143 p48 si
144 p48 si
145 p49 si
146 p49 si
147 p49 si
148 p50 si
149 p50 si
150 p50 si
TOTAL, ACIERTOS 146
TOTAL, DESHACIERTOS 4
TOTAL, IMÁGENES DE
PRUEBA: 150
Cuando SI identificó la clase correcta a la que
Correcta: pertenece
Cuando NO identificó la clase correcta a la que
Incorrecta: pertenece
233
37 p13 si
38 p13 si
39 p13 si
40 p14 si
41 p14 si
42 p14 si
43 p15 si
44 p15 si
45 p15 si
46 p16 no
47 p16 no
48 p16 no
49 p17 si
50 p17 si
51 p17 si
52 p18 si
53 p18 si
54 p18 si
55 p19 si
56 p19 si
57 p19 si
58 p20 si
59 p20 si
60 p20 si
61 p21 si
62 p21 si
63 p21 si
64 p22 si
65 p22 si
66 p22 si
67 p23 si
68 p23 si
69 p23 si
70 p24 si
71 p24 si
72 p24 si
73 p25 si
74 p25 si
75 p25 si
76 p26 si
77 p26 si
78 p26 si
79 p27 si
80 p27 si
235
81 p27 si
82 p28 no
83 p28 no
84 p28 no
85 p29 si
86 p29 si
87 p29 si
88 p30 si
89 p30 si
90 p30 si
91 p31 si
92 p31 si
93 p31 si
94 p32 si
95 p32 si
96 p32 si
97 p33 si
98 p33 si
99 p33 si
100 p34 si
101 p34 si
102 p34 si
103 p35 si
104 p35 si
105 p35 si
106 p36 si
107 p36 no
108 p36 si
109 p37 si
110 p37 si
111 p37 si
112 p38 si
113 p38 si
114 p38 si
115 p39 si
116 p39 si
117 p39 si
118 p40 si
119 p40 si
120 p40 si
121 p41 si
122 p41 si
123 p41 si
124 p42 si
236
125 p42 si
126 p42 si
127 p43 si
128 p43 si
129 p43 si
130 p44 si
131 p44 si
132 p44 si
133 p45 si
134 p45 si
135 p45 si
136 p46 si
137 p46 si
138 p46 si
139 p47 si
140 p47 si
141 p47 si
142 p48 si
143 p48 si
144 p48 si
145 p49 si
146 p49 si
147 p49 si
148 p50 si
149 p50 si
150 p50 si
TOTAL, ACIERTOS 135
TOTAL, DESHACIERTOS 15
TOTAL, IMÁGENES DE
PRUEBA: 150
Cuando SI identificó la clase correcta a la que
Correcta: pertenece
Cuando NO identificó la clase correcta a la que
Incorrecta: pertenece
237