Deteccion de Seguridad
Deteccion de Seguridad
Deteccion de Seguridad
PRÁCTICA DE LABORATORIO
LABORATORIO DE RESISTENCIA DE MATERIALES
CARRERA DE INGENIERÍA ELECTROMECÁNICA
NOMBRE DE LA
CARRERA CÓDIGO DE LA ASIGNATURA
ASIGNATURA
INGENIERIA 33_MUTC_CIYA_IELM_MPROMCTRL_6_M3_01 MICROPROCESADORES Y
ELECTROMECÁNICA MICROCONTROLADORES
MICROPROCESADORES Y DURACIÓN
PRÁCTICA N° LABORATORIO:
MICROCONTROLADORES (HORAS)
NOMBRE DE LA
04 Detección en vehículos para las personas 2
PRÁCTICA:
que utilizan cinturón de seguridad
1 OBJETIVO
- El objetivo principal del proyecto es el desarrollo de un software basado en visión que sea capaz de
identificar y detectar correctamente el cinturón de seguridad para que, en trabajos futuros, se
puedan calcular las trayectorias necesarias para manipular dicha situación dentro de un vehículo.
2 FUNDAMENTACIÓN TEÓRICA
En la actualidad, los sistemas de visión artificial o visión por computador están ganando cada
vez más importancia en los últimos años. Esta disciplina científica que permite adquirir,
procesar y analizar imágenes del mundo real, ha dejado de ser un paradigma, debido a que
se cuenta con disposición de diferentes lenguajes de programación de código abierto y
propietario. Uno de los que destaca es OpenCV, una herramienta informática que ha
facilitado gratuitamente el acceso a todo el mundo al campo de la visión artificial. La
implementación de estos sistemas de ayuda, no son por un simple tema de comodidad, sino
más bien por la alta capacidad de respuesta frente algún evento. Estos sistemas inteligentes
se están desarrollando con más auge en las diferentes industrias a nivel mundial. A su vez en
el presente proyecto de investigación se ha decidido utilizar los sistemas de visión artificial
1
para desarrollar un prototipo que sea capaz de detectar posiciones y movimientos de
Detección de cinturón de seguridad en los vehículos, con la finalidad de alertar algún suceso
al personal de servicio a través de una notificación vía mensaje de texto. Los sistemas
automáticos de asistencia a usuarios que cumplen una función muy importante dentro del
ámbito de la detección de cinturón seguridad en los vehículos, es por ello que el sistema
SEAPULP pretende aportar a la mejora programación de Python de esta manera también
contribuye a la disminución del número de muertes o lecciones provocados principalmente
por falta de atención en la vías y descontrol de vehículo.
INFORME DE PRÁCTICA
e-mail: [email protected]
e-mail: [email protected]
TEMA: DETECCIÓN EN VEHÍCULOS PARA LAS PERSONAS QUE UTILIZAN CINTURÓN DE SEGURIDAD
NÚMERO DE PRÁCTICA: 04
FECHA: 12/09/2020
ANÁLISIS DE RESULTADOS
5 La visión artificial y la robótica han abierto un sinfín de nuevas oportunidades en la sociedad en las
últimas décadas. La era de la inteligencia artificial, aunque aún le queda un tiempo, cada vez está más
cerca de ser una realidad, dejando atrás la época donde solo se veía en las obras de ciencia ficción.
Esta tecnología ha llegado a nuestra sociedad casi sin enterarnos, permitiendo realizar acciones
complejas que hace unos años no se podían ni imaginar. Algunos ejemplos actuales de la visión
artificial puede ser la conducción autónoma en los vehículos o drones, como utiliza Amazon para
entregar paquetes en zonas difíciles de acceder por coche, o el reconocimiento y manipulación de
objetos por los brazos industriales o los robots humanoides.
La visión artificial y la robótica actualmente tienen un gran papel social a través de los robots sociales.
Impacto que con el paso de los años va a ir creciendo de manera exponencial con la normalización del
2
uso de los robots y el abaratamiento en la producción de estos. Estos robots, utilizando la visión
artificial, permiten interactuar con el ser humano o con otros robots y se centran en ayudar a los
humanos ya sea porque necesitan algún servicio o para ofrecerles ayuda para poder vivir mejor en el
día a día. Un ejemplo puede ser los robots que se encuentran en algunos hoteles en Japón, donde
realizan la función de recepcionistas, llevando a las personas hasta su habitación, tomando nota de las
reservas de la gente e incluso puede regular la temperatura de la habitación a través de comandos de
voz [ CITATION Agu10 \l 12298 ]
Sin irnos tan lejos, en España ya hay varios robots utilizándose para ayudar en la rehabilitación de
personas y para asistir a las personas dependientes. En la Unidad de Geriatría del Complejo
Hospitalario de Cáceres y Hospital de Día se utiliza diariamente un robot desarrollado para
interaccionar con pacientes con la enfermedad de Parkinson [ CITATION Are04 \l 12298 ]
Prácticamente en la mayoría de los sectores laborables se puede utilizar la visión artificial para
mejorar la eficiencia e incluso para sustituir la mano de obra humana por una máquina. Las ventajas
de este cambio son numerosas, por ejemplo, las máquinas no se ponen enferma ni piden vacaciones,
y si hay que arreglar o modificar el robot no lleva tanto tiempo como el tiempo de aprendizaje de una
persona o la búsqueda de nuevo personal. Además, esta tecnología puede trabajar las 24 horas al día
y sin desconcentrarse debido a algún agente externo.
No obstante, la inclusión de la visión artificial y la robótica en la sociedad tiene una parte negativa, la
reducción de puestos de trabajo en donde esta tecnología se empieza a incluir. El 100% de los puestos
no se sustituyen por las nuevas tecnologías ya que debe haber personal que coordine, apoye y
supervisen sus labores, pero si podría provocar que en un futuro mucha gente fuera despedida o
recolocadas en otros puestos. Sin embargo, esto no sería de golpe, sino que primero veremos a
robots trabajando juntos a otros humanos en vez de reemplazándolos [ CITATION Asu18 \l 12298 ].
La gran consultora internacional PwC estima que para el 2030 el 34% de los trabajos podrían estar
automatizados. Otra consultora, Accenture, determinó en 2017 que 17000 puestos de trabajo
actuales de su empresa, en un futuro cercano iban a ser ocupados por maquinas. A pesar de ello,
Accenture afirmó que todos los trabajadores que perderían sus puestos debido a las máquinas serían
recolocados en otro puesto dentro de la empresa, evitando perder el trabajo [ CITATION Ber18 \l
12298 ]
Es importante aclarar que, aunque cada día haya más empleos que puedan realizar robots, no
significa que el número de empleos para los humanos disminuya. Cada poco tiempo surgen nuevos
trabajos relacionados con la visión artificial y la robótica que necesitan ser realizados por seres
humanos.
Por esto último, la capacidad de adaptación de la sociedad y la educación para adaptarse a esta nueva
forma de vida donde los robots estarán presentes en nuestros día a día es fundamental. Si la
educación y mentalidad de todos los países no consigue adaptarse tan rápido como avanza la
investigación y desarrollo de los robots, es probable que en el futuro puedan existir problemas de
trabajo o rechazo a estas nuevas tecnologías.
Para finalizar, la inclusión de la robótica en nuestra sociedad es realmente útil e importante que se
realice debido a que mejora la calidad de vida. Es una tecnología que va a mejorar enormemente la
sociedad donde vivimos, pero debe de ir acompañada de una evolución en la educación y mentalidad
de los humanos para que no existan posibles problemas en el futuro.
MARCO TEÓRICO
Actualmente no existe ningún tipo de normativa que regule el uso de la visión artificial en nuestro
país. Es cierto que existe la ley de Protección de Datos de Carácter Personal (Ley Orgánica 15/1999, de
13 de diciembre) pero en el caso del proyecto no se aplica debido al uso de la visión artificial de
manera no invasiva. Los objetos a identificar son cajas, no se busca en ningún momento información
sobre personas.
Además, el proyecto se realiza sobre el robot humanoide de la universidad de Carlos III, TEO, el cual
3
solo tiene fines de educación e investigación para los propios estudiantes de la universidad, sin fines
comerciales, por lo que no se aplicaría ninguna regulación al realizarse todas las pruebas dentro del
laboratorio.
Sin embargo, es obvio que cuanto mayor sea la inteligencia y visión artificial en los robots, mayor será
su autonomía y en consecuencia tendrán menos dependencia de los usuarios. Por eso, es un hecho
que la legislación debe adaptarse para los posibles problemas que surgirán y que las normas actuales
no dan respuesta [ CITATION Asu18 \l 12298 ]
El primer paso para la realización de la regulación sobre la robótica a nivel europeo ha sido la
elaboración el 31 de mayo de 2016, de un informe que recoge distintas recomendaciones sobre
normas de Derecho civil acerca de la robótica con el fin de “asegurar que los robots estén y sigan
estando al servicio de los seres humanos[ CITATION Ber02 \l 12298 ]
Entre las recomendaciones incluidas en el informe se destacan las siguientes:
- Reglas de responsabilidad por los daños causados por los robots.
- Creación de un estatuto de persona electrónica.
- Creación de una Agencia Europea de Robótica e inteligencia artificial que ayude a las autoridades
públicas asesorando con sus conocimientos
- Creación de un Registro Europeo de robots autónomos.
Todas estas recomendaciones están realizadas con el fin de que la regulación siga construyendo una
sociedad centrada en los seres humanos y no en los robots, los cuales carecen de sentimientos y
consciencia. Deben establecer unos límites en el diseño y aplicaciones para que la seguridad de las
personas no se vea afectadas por la inclusión de la robótica.
VISIÓN HUMANA
Los seres humanos percibimos las imágenes del mundo exterior a través del ojo, concretamente a
través de la retina, que es por donde la luz es capaz de entrar para posteriormente, con esa luz,
obtener la información del entorno. La visión humana funciona con un sistema de visión binocular y
estereoscópico debido a que implica la intervención simultánea 16
de los dos ojos obteniendo dos imágenes de un objeto , que, al fundirse en una, producen una
sensación de relieve por estar tomadas con un ángulo diferente para cada ojo [ CITATION Cho \l
12298 ]
4
Para realizar esta acción, la retina posee dos tipos de células que actúan como minúsculos receptores:
los bastones y los conos. Los bastones son sensibles a la intensidad lumínica mientras que los conos
son los encargados de detectar el color. Hay tres tipos de células conos, que se diferencian porque
cada una puede recibir la intensidad de un único color: el rojo, el verde y el azul. Gracias a este
descubrimiento se estableció la teoría tricromática de la percepción del color, según la cual se indica
que todo color es una mezcla de estos tres colores primarios. De este descubrimiento también surgió
el campo de visión RGB tan utilizado en la visión por ordenador, entre otros campos [ CITATION Cho \l
12298 ]
Una vez que los receptores del ojo han recibido toda la información del entorno, se transforma en
impulsos nerviosos y se envía al cerebro a través del nervio óptico donde será procesada en el córtex
visual [ CITATION Are04 \l 12298 ]
En el córtex visual la información es analizada por capas de neuronas altamente especializadas,
teniendo cada capa diferentes funciones. La primera capa se especializa en detectar los bordes de los
objetos en las imágenes, los límites, donde existe una diferencia de contraste o iluminación muy
grande. Las demás capas son las encargadas de detectar contornos o características de la imagen
como puede ser la profundidad, el movimiento o el color (Alberich, Gomez F., & Ferrer F, 2011).
La visión artificial se basa principalmente en este último concepto de capas. No se realizan acciones
muy complejas que intenten detectar toda la información del objeto a detectar 17
a la primera, sino que se intenta ir sacando la información del objeto poco a poco, debido a que
actualmente no es muy accesible una tecnología capaz de realizar todo ese procesamiento (Ullman,
1996). Pero esta idea de visión artificial se fue modificando a lo largo de la historia hasta llegar a la
actualidad.
5
por Arturo de la Escalera (2001).
Las primeras investigaciones relacionadas con la visión artificial surgieron en la década de los años 50.
La facilidad con la que los seres humanos podemos conocer todo lo que contiene nuestro entorno
hizo creer que un ordenador podría interpretar las imágenes que recibe del exterior de una manera
relativamente fácil (Sucar & Gómez, 2011).
Con esta idea, se consiguieron buenos resultados en algunas investigaciones, como una de Roberts
(1963) en la que creó un programa que consiguió demostrar la posibilidad de obtener la descripción
matemática de la posición y orientación de los objetos de una escena y reproducirla desde otra
perspectiva, confirmando que lo que se había procesado a través de la cámara era correcto; o la de
Wichman (1967) que con un equipo de una cámara de televisión conectada a un ordenador pudo
identificar las posiciones de algunos objetos al momento. Sin embargo, en ambos casos se trataban de
experimentos en un entorno muy controlado y con fuertes restricciones. Se basaban en proyectos
simples, con imágenes binarias que procesaban conjuntos de píxeles sueltos (Shun, 2015; Mendieta,
2003).
A pesar de estos resultados y del entusiasmo inicial, la visión artificial no resultó tan fácil como se
esperaba, y se acabó demostrando que es un problema muy complejo. En los años siguientes lo único
que se consiguieron en las investigaciones fueron fracasos y frustraciones por no obtener buenos
resultados. Esto se debía principalmente a que no existía una tecnología tan avanzada como para
poder realizar procesamientos mejores. Sin embargo, en estos años se desarrollaron algoritmos muy
importantes como los detectores de bordes de Roberts (1965), Prewitt (1970) o Sobel (1970) que se
siguen utilizando hoy en día. Por aquel entonces, estos algoritmos eran aplicables solo para unos
casos muy concretos, estaban muy limitados. Por todo esto, en los años 70 se puede apreciar una
disminución en las investigaciones y desarrollos sobre 18
la visión artificial, fallando las predicciones que se hicieron a mediados de siglo y comenzando lo que
se conoce como el “Invierno de la Inteligencia Artificial” (Ferro, 2018).
Toda esta dejación en la visión artificial se debió principalmente a que, al intentar entender objetos
tridimensionales en una proyección 2D, mucha información se pierde, pudiendo haber infinidad de
posibles soluciones. Otro motivo del abandono fueron las altas expectativas del principio debido a
que en un ser humano todo el proceso de obtener las características del entorno se hace de manera
inconsciente en el cerebro, mientras que en los ordenadores no es posible, ejecutando acciones que
los humanos no realizamos (Ullman, 1996).
6
de congresos. A su vez, esto fue posible debido a la mejora de procesamiento por parte de los
ordenadores al ser cada vez más potentes y sofisticados e incluso con hardware específico para el
procesamiento y tratamiento de imágenes.
MEDICINA
Dentro de la medicina hay varias ramas de investigación que introducen la visión artificial, algunas
intentan “curar” la ceguera convirtiendo lo que se ve a través de una cámara en impulsos eléctricos
que se enviarían al córtex visual, permitiendo así la visión a personas que no pueden ver (Dobelle,
Quest, Antunes, Roberts, & Girvin, 1979).
Luego hay otras donde la visión artificial ayuda a los especialistas acondicionando las imágenes para
una mejor interpretación, extrayendo la información necesaria o que detecta automáticamente
enfermedades sin ayuda de intervención humana. Uno de los campos donde la visión artificial más se
utiliza es en el análisis del sistema motor humano. (Villa Moreno, Gutiérrez Gutiérrez, & Pérez
Moreno, 2008; Cho, Chao, Lin, & Chen, 2009)
VIGILANCIA/SEGURIDAD
El aumento de las cámaras de seguridad en nuestro día a día para la vigilancia o seguridad de
edificios, calles o zonas concretas hace que sea imposible que todas ellas sean controladas por
operarios. De aquí nace la necesidad de utilizar la visión artificial en la seguridad y vigilancia.
Entre las diferentes funciones que puede realizar la visión artificial en la seguridad se puede destacar
las de detección y seguimiento de una persona, identificación de personas o coches en un acceso y
ver si dicha persona o coche puede ingresar o descubrir actividades o situaciones peligrosas. (Draghici,
1997; Cañas, Valencia, Restrepo, & Holguín, 2007; Lam, Cheung, & Liu, 2011)
INDUSTRIA
Es el campo donde la visión artificial es más usada hoy en día. Tradicionalmente se utilizaba la
intervención humana para la realización de este tipo de trabajo, pero el desarrollo tecnológico y la
posibilidad de tener un entorno con la iluminación, las sombras y las piezas controladas, permite que
se sustituyeran por máquinas capaces de ver, ofreciendo como mínimo la misma calidad a un precio
menor. (Villán, y otros, 2011) 20
Aunque tiene una gran cantidad de aplicaciones posibles, donde más se utiliza es en el control de
calidad, siendo la iluminación la parte más crítica ya que métodos diferentes de iluminación pueden
tener efectos visuales muy diferentes. (Herrero, 2005)
Según el tipo de luz utilizada se puede extraer con mayor facilidad los datos que se buscan, como
grietas, bordes, cambios de altura, entre otros. Para obtener esta información se puede utilizar tipos
de iluminación como campo oscuro, iluminación coaxial, láseres o profundidad. (Secretaría de Estado
de Educación y Formación profesional, 2012; Druzella, 2010).
7
Imagen3.- Ilustración Luz ambiental vs campo oscuro
Aunque se obtienen muy buenos resultados, son resultados que se consiguen debido a que la luz está
controlada. Las cámaras, de momento, son mucho menos sensibles que la visión humana y por eso las
condiciones de iluminación deben de estar optimizadas al máximo. Este inconveniente es uno de los
problemas que debe solucionar la visión artificial en el futuro para seguir avanzando.
AUTOMOCIÓN
La visión artificial, junto a otros tipos de sensores, es imprescindible para la conducción autónoma, la
cual se está llevando a cabo ya actualmente y que se seguirá utilizando en el futuro.
Se utiliza principalmente para la detección de carriles, la detección de objetos y para la detección de
seres humanos. De esta forma se actuaría según lo que detecta del entorno el coche ([ CITATION
Ber02 \l 12298 ]Sin embargo, debido a las dificultades que tiene la conducción, la visión artificial en
los vehículos aún no se ha desarrollado lo suficiente por lo que debe seguir mejorando con el futuro
hasta conseguir vehículos 100% autónomos que no necesiten de acciones humanas para conducir
[ CITATION Ber02 \l 12298 ]
Aun así, actualmente la visión artificial no es el único sistema de percepción en los vehículos,
funcionando a la vez que otros sensores como ultrasonidos o láser (fusión sensorial). Esto es
necesario porque un vehículo que conduce a tales velocidades y que puede poner en peligro las vidas
tanto dentro como fuera del vehículo, no puede únicamente fiarse de un solo tipo de sensores
[ CITATION Cho \l 12298 ]
ROBÓTICA
Antiguamente los robots eran meros manipuladores, los cuales solo realizaban acciones rápidas,
precisas y repetitivas. Eran sistemas totalmente planificados (de forma previa), incapaces de tomar
ninguna decisión. Pero se llegó a una época donde la gente empezó a diseñar robots que hicieran más
acciones de manera autónoma, necesitando obtener información del entorno para utilizarla y poder
actuar consecuentemente en base a estos datos obtenidos [ CITATION Cho \l 12298 ]
Para dar a los robots una autonomía real y poder realizar dichas acciones había que proveer a los
8
robots con herramientas y sistemas de percepción y procesamiento. Además de los sensores, la
percepción visual tiene un papel privilegiado en el análisis del mundo exterior siendo el que mejor se
ha desempeñado en esa tarea ya que permite obtener más características del entorno ( [ CITATION
Aya91 \l 12298 ]
Las aplicaciones de visión artificial, así como los sistemas de visión por ordenador tienen funciones
diferentes dependiendo del tipo de plataforma, o robot, en el cual se encuentran colocados. Como
consecuencia de ello, existen multitud de aplicaciones y sistemas para cada tipo de función
[ CITATION Aya91 \l 12298 ]
Sin embargo, la visión artificial en los robots depende mucho de las condiciones lumínicas para
funcionar correctamente. Los resultados pueden cambiar mucho dependiendo de la hora del día a la
que se encuentre, y más con los robots móviles que se van desplazando en el exterior. Este problema
es menor en los demás campos debido a que las labores se realizan en espacios controlados, menos
en el de conducción autónoma, donde existe el mismo inconveniente que con los robots móviles.
Aun así, es un problema que ya está en vías de solucionarse y no evita que la visión artificial en la
robótica no pueda utilizarse en alguna aplicación actualmente. Las más comunes son las encargadas
de detectar obstáculos para poder después esquivarlos y seguir con una ruta, la de detectar humanos
para poder interactuar con ellas, ya sea hablando o pausando una acción para que no exista peligro
alguno, o la de identificación de objetos para posteriormente poder realizar alguna acción de
manipulación sobre dicho objeto.
Sobre esta última aplicación, la de identificar objetos y la obtención de sus características, se
profundizará más en el siguiente apartado debido a que es el tipo de aplicación que se ha utilizado y
desarrollado en esta investigación.
RECONOCIMIENTO DE OBJETOS
Los seres humanos, así como la mayoría de las especies vivas del planeta Tierra, somos capaces de
reconocer objetos en la vida real o en imágenes relativamente fácil en un periodo de tiempo y
procesamiento cerebral relativamente corto. No importa como estén colocados dichos objetos, ni el
tamaño ni la escala o si el objeto está obstruido por alguna vista. Esta labor que los seres humanos
realizamos de forma tan fácil y sin pensar es una acción que a los sistemas de visión por ordenador se
les ha complicado bastante desde el inicio de la visión artificial [ CITATION Are04 \l 12298 ].
Al igual que con la visión artificial, ocurre lo mismo con el tacto. Si a un ser humano se le coloca en la
mano un llavero, seguramente desde el principio ya sabe qué es, y si no podría identificar bastantes
características del objeto. Por otro lado, si a un robot humanoide le colocas en su mano un llavero lo
único que detectará sería una variación del momento en algunas de sus articulaciones.
En la visión artificial, lo único que se recibe es una matriz de puntos (la equivalencia al ser humano es
como si estuviéramos recibiendo esas señales eléctricas del ojo, pero el cerebro
no supiera que hacer con ellas o a que corresponden). Y en dicha matriz se tienen que realizar las
operaciones necesarias para poder detectar en ellas los objetos.
Habitualmente, las plataformas elegidas para realizar esas operaciones son las basadas en programas
secuenciales, sin embargo, han surgido en las últimas décadas otros métodos que “facilitaban” el
trabajo, son las basadas en inteligencia artificial. Computacionalmente estas últimas técnicas son muy
costosas de realizar, necesitando una gran cantidad de procesamiento, pero los resultados obtenidos
son mejores que con los algoritmos secuenciales.
A continuación, se explicarán por separado los dos métodos utilizados para la detección de objetos
que actualmente se utilizan además de las diferentes variantes que pueden tener cada uno.
ALGORITMOS SECUENCIALES
Este tipo de operaciones se basan en el principio de que es imposible obtener de primeras toda la
información que se busca en una imagen sin antes acondicionándola. Se realizan operaciones
9
primarias previas para después, ya con las imágenes en las mejores condiciones, extraer las
características finales.
De esta forma, tal y como dicen Ratha (1996) y Hamid (1994), la mayoría de los sistemas de visión
actuales se pueden dividir en tres niveles diferentes, como se puede apreciar en la siguiente imagen.
Estos tres niveles se denominan como procesamiento de bajo nivel, procesamiento de nivel medio y
procesamiento de alto nivel, realizándose en cada nivel operaciones diferentes.
- En el nivel inferior, el de procesamiento de bajo nivel, se realizan las operaciones donde se tienen en
cuenta todos los píxeles de la imagen, utilizando operaciones sencillas como multiplicaciones, restas o
sumas. Entre las operaciones que se suelen usar en este nivel se encuentran detección de bordes o
filtrado de imágenes para acondicionarla y que sea más fácil extraer los datos de ella.
- El procesamiento de nivel medio se diferencia del nivel inferior, el de nivel bajo, por no utilizar todos
los pixeles de la imagen. Son operaciones más complejas pero que solo se realizan en bloques o
grupos de píxeles. Entre las operaciones que se pueden realizar en este nivel se encuentran a las
operaciones de segmentación o las de etiquetado de zonas en diferentes regiones.
- Finalmente, en el procesamiento de alto nivel, encontramos operaciones y algoritmos que cuentan
con una alta complejidad, siendo costosas de realizar. Algunos ejemplos de operaciones que se
realizan en este nivel pueden ser operaciones de matching, de correlación o incluso si se cuenta con
una cámara capaz de obtener profundidades, calcular la distancia a la que se encuentran varios
puntos.
En la siguiente tabla se aprecia el resumen de los tres niveles que tienen los softwares que utilizan un
formato secuencial.
INTELIGENCIA ARTIFICIAL
El reconocimiento de objetos pegó un gran salto cualitativo hace aproximadamente un lustro cuando
el Machine y Deep Learning se empezaron a utilizar diariamente. Estas tecnologías están basadas en
inteligencia artificial debido a que es el mismo programa el que va aprendiendo por sí mismo.
A diferencia del método anterior, donde todas las acciones que se realizaban eran para identificar uno
o varios objetos muy concretos, en este método se puede conseguir un clasificador capaz de
identificar varios objetos con diferencias entre ellos.
Sin embargo, la inteligencia artificial no solo está presente en los nuevos métodos de Machine y Deep
10
Learning, sino que también se puede utilizar para resolver los problemas o las variaciones de los
estados iniciales de los algoritmos secuenciales, acondicionando todas las posibles entradas a un
mismo formato con el que trabajar. Esto es debido a que las imágenes digitales presentan mucha
información difícil de analizar por una máquina y por eso se utilizan la inteligencia artificial para
mejorar la interpretación.[ CITATION Ber18 \l 12298 ].
Cada conexión tiene un valor, un peso, que se multiplica por los valores que le llegan y se transmite a
las demás capas. A estas operaciones, desde que entra un dato, hasta que sale, se le llama función de
activación. La salida se analiza para ver si se ha obtenido lo esperado y en caso negativo los valores de
los pesos de las neuronas se van actualizando de manera iterativa buscando reducir el error. Este
último proceso se llama back-propagation, debido a que los pesos se modifican desde los últimos a
los primeros, y es la manera en la que se realiza el aprendizaje automático.
Por lo tanto, para reconocer objetos lo único que habría que hacer es introducir en nuestro código
una gran cantidad de datos de los objetos que tiene que identificar, que aprenda y que
posteriormente cree un algoritmo (un clasificador) que sea capaz de detectar los objetos en el
entorno creando un cuadrado en la zona de la imagen que contenga el objeto [ CITATION Ber18 \l
12298 ]
OPENCV
La librería de código abierto OpenCV (OpenCV, 2018) proporciona un entorno de trabajo para el
desarrollo de aplicaciones de visión por ordenador en tiempo real. Se puede utilizar tanto con el
lenguaje de programación C como con C++ y Phyton. Es una librería multiplataforma capaz de
compilarse en diferentes sistemas operativos como Linux, Windows y Mac OS X. (Bradski & Kaehler,
2008; Arévalo, 2004)
OpenCV facilita enormemente el proceso de aprendizaje e implementación de distintos métodos de
visión por computación aislando al programador de las dificultades de estos. De esta forma, esta
librería pone a disposición una infraestructura de visión simple de usar que ayuda al usuario a crear
sofisticadas aplicaciones de visión de manera rápida [ CITATION Are04 \l 12298 ]
La librería de OpenCV contiene más de 500 diferentes funciones que abarca bastantes áreas dentro
de la visión, entre las que se incluyen las siguientes:
- Inspección de productos en una fábrica.
- Procesamiento para imágenes médicas.
12
- Seguridad.
- Robótica.
- Visión estéreo.
- Tratamiento de imágenes con profundidad.
- Machine Learning
Sin embargo, OpenCV tiene unos módulos extra llamadas OpenCV Contrib que incluye funciones más
avanzadas que necesitan mayor procesamiento y que no están en las versiones estables totalmente
probadas (OpenCV, 2018).
Dichas funciones pueden ser como reconocimiento de patrones, identificación de textos o nubes de
puntos para desarrollo de formas en tres dimensiones.
Aunque para el proyecto inicial no fue necesario, si se realizaron funciones adicionales que
necesitaron de estos módulos extra. Adicionalmente, se utilizaron unas librerías compatibles pero
externas a OpenCV para mejorar la solución final. Dichas librerías son Tesseract (Tesseract-OCR, 2018)
y Leptonica[ CITATION Cho \l 12298 ]
CONCLUSIONES
- Tras la finalización del proyecto se puede concluir que se ha sido capaz de diseñar un
algoritmo de visión artificial eficiente que cumpla con los objetivos propuestos al inicio del
proyecto, la detección de un cinturón de seguridad.
- Al principio del desarrollo se obtuvieron unos resultados que no se esperaban respecto a
los algoritmos, obteniendo muchísimas malas detecciones (falsos positivos) al probarlo.
7
- Una vez solucionado estos inconvenientes y finalizado el resto de la implementación, se
puso a prueba el algoritmo desarrollado, comprobando si cumplía los objetivos
propuestos.
- En términos generales, el software desarrollado realiza de forma satisfactoria los objetivos
del proyecto. Sin embargo, se han encontrado varias sorpresas que a priori no se
esperaban, destacando el mal funcionamiento experimentado
13
ANEXOS
Fig1. Simulación
Fig2. Simulación
Fig3. Simulación
BIBLIOGRAFÍA
14
[3] Asus, de Xtion Pro, 2018.
[4] Ayache, Artificial vision for mobile robots: stereo vision and multisensory perception., Londres,
1991.
[5] Berriam, Will robots steal our jobs? The potential impact of automation on the, 2018.
[6] B. F. Bertozzi, Vision-based intelligent vehicles: State of the art, 200.
[7] B. C. F. Bertozzi, Artificial vision in road vehicles, 2002.
[8] C. Cho, A vision-based analysis system for gait recognition in patients with.
15