TFG Galindo Blanco 2018-2
TFG Galindo Blanco 2018-2
TFG Galindo Blanco 2018-2
2018
2
UNIVERSIDAD DE ALCALÁ
Escuela Politécnica Superior
TRIBUNAL:
Presidente:
Vocal 1º:
Vocal 2º:
FECHA:
3
4
Agradecimientos
Quiero dar las gracias a mi familia, en especial a mis padres, hermano y abuela,
por todo el apoyo que me han dado, no solo en la realización de este proyecto,
si no a lo largo de estos años de estudios, y a los que espero devolverles todos
sus esfuerzos con la realización de este trabajo y la conclusión de esta carrera.
Agradecer también a mis compañeros, que considero ya grandes amigos, con
los que he compartido buenos y malos momentos, y que me han ayudado a
llegar hasta aquí.
Por último, dar las gracias a la Universidad de Alcalá y a su profesorado, en
especial a mi tutor, Manuel Sánchez Rubio, por toda la ayuda que me ha prestado
y darme la oportunidad de realizar este trabajo.
5
6
Índice
1. Sumario ............................................................................. 12
2. Summary ........................................................................... 12
3. Palabras clave .................................................................... 12
4. Resumen ............................................................................ 13
5. Introducción....................................................................... 14
5.1. Planteamiento ............................................................................... 14
5.2. Objetivos ....................................................................................... 15
6. Información en Internet ..................................................... 15
6.1. Huella digital.................................................................................. 17
7. Inteligencia en fuentes abiertas (OSINT) ............................. 19
7.1. Concepto ....................................................................................... 19
7.2. Importancia de OSINT.................................................................... 21
7.3. Fases de inteligencia ...................................................................... 22
7.4. Fuentes abiertas ............................................................................ 25
8. Herramientas ..................................................................... 26
8.1. Motores de búsqueda ................................................................... 27
8.1.1. Google/Bing Hacking .................................................................................. 28
8.1.2. Exploits DB................................................................................................... 36
8.1.3. Robots.txt .................................................................................................... 37
8.1.4. Crawlers....................................................................................................... 39
8.1.5. Deep Web .................................................................................................... 40
8.2. Redes sociales ............................................................................... 42
8.2.1. Detección de presencia en redes sociales ................................................... 43
8.2.2. Redes sociales de uso masivo ...................................................................... 47
8.2.2.1. Twitter ................................................................................................. 47
8.2.2.2. Facebook ............................................................................................. 53
8.2.2.3. Instagram............................................................................................. 57
7
8.2.2.4. LinkedIn ............................................................................................... 58
8.2.3. Redes sociales de uso reducido. .................................................................. 59
8.2.3.1. Páginas de citas o preguntas ............................................................... 60
8.2.3.2. Redes sociales de turismo. .................................................................. 61
8.2.3.3. Aplicaciones de deportes. ................................................................... 62
8.3. Herramientas de análisis de datos personales. .............................. 64
8.3.1. Metabuscadores .......................................................................................... 64
8.3.2. Teléfonos e Emails ....................................................................................... 67
8.3.3. Geolocalización ........................................................................................... 69
8.3.4. Imágenes ..................................................................................................... 71
8.4. Herramientas de análisis de datos corporativos. ........................... 73
8.4.1. Maltego ....................................................................................................... 73
8.4.2. TheHarvester ............................................................................................... 76
8.4.3. Hunter ......................................................................................................... 79
8.4.4. FOCA ............................................................................................................ 80
8.4.5. Shodan. ........................................................................................................ 83
9. Frameworks ....................................................................... 85
9.1. OSINT framework .......................................................................... 85
9.2. Intel Techniques ............................................................................ 86
10. Conclusión ....................................................................... 90
11. Trabajo futuro .................................................................. 91
12. Bibliografía ....................................................................... 92
8
Índice de figuras
Figura 1: Usuarios mensuales activos en redes sociales (2017) ......................... 16
Figura 2: La parte oculta de Internet .................................................................. 17
Figura 3: Huella digital ........................................................................................ 19
Figura 4: Ciclo de inteligencia ............................................................................. 23
Figura 5: Motores de búsqueda.......................................................................... 28
Figura 6: Directorios con ficheros y contraseñas ............................................... 30
Figura 7: Ficheros con usuarios y sus contraseñas ............................................. 31
Figura 8: Resultado búsqueda ficheros sql ......................................................... 32
Figura 9: Código sql con información sobre usuarios ......................................... 33
Figura 10: Búsqueda de formularios de acceso .................................................. 34
Figura 11: Ventana de acceso a SquirrelMail ..................................................... 35
Figura 12: Acceso a cámaras de vigilancia mediante Dorks. .............................. 36
Figura 13: Bases de datos de Google Hacking .................................................... 37
Figura 14: Ejemplo de archivo robot.txt ............................................................. 39
Figura 15: Ejemplo de araña con Scrapy............................................................. 40
Figura 16: The Onion Router (TOR) .................................................................... 41
Figura 17: Redes sociales .................................................................................... 42
Figura 18: Herramienta KnowEm........................................................................ 44
Figura 19: Resultado de una búsqueda en KnowEm .......................................... 45
Figura 20: Búsqueda de dominios registrados ................................................... 46
Figura 21: Búsqueda de usuarios con NameChk ................................................ 46
Figura 22: Ejemplo de cuenta de Twitter ........................................................... 48
Figura 23: Búsquedas avanzadas en Twitter ...................................................... 50
Figura 24: Ejemplo Tinfoleak .............................................................................. 51
Figura 25: Análisis de aplicaciones ..................................................................... 52
Figura 26: Análisis de geolocalización................................................................. 52
Figura 27: Análisis de menciones en Tweets ...................................................... 52
Figura 28: Ejemplo de perfil de Facebook .......................................................... 54
Figura 29: Netbootcamp ..................................................................................... 56
Figura 30: Búsqueda avanzada en Instagram ..................................................... 58
Figura 31: Perfil de LinkedIn ............................................................................... 59
9
Figura 32: Badoo, una red social de citas ........................................................... 60
Figura 33: Lugares visitados en TripAdvisor ....................................................... 61
Figura 34: Lugares favoritos en Foursquare ....................................................... 62
Figura 35: Rutas en Strava .................................................................................. 63
Figura 36: Bases militares en Strava ................................................................... 64
Figura 37: Búsqueda en Pipl ............................................................................... 65
Figura 38: Ejemplo ThatsThem ........................................................................... 66
Figura 39: Directorios de teléfono ...................................................................... 67
Figura 40: Bases de datos con cuentas robadas en la darknet (LinkedIn) ......... 68
Figura 41: He sido hackeado? ............................................................................. 68
Figura 42: Email comprometido ......................................................................... 68
Figura 43: Información sobre leaks. ................................................................... 69
Figura 44: GeoSocial FootPrint ........................................................................... 70
Figura 45: Aplicación Cree.py ............................................................................. 71
Figura 46: Ejemplo TinEye................................................................................... 72
Figura 47: Ejemplo de imagen ............................................................................ 72
Figura 48: Búsqueda por imagen en Google ...................................................... 73
Figura 49: Crear gráfico en Maltego ................................................................... 75
Figura 50: Grafo generado a partir del dominio uah.es ..................................... 75
Figura 51: Servidores DNS en uah.es .................................................................. 76
Figura 52: TheHarvester ..................................................................................... 77
Figura 53: Direcciones de correo en uah.es ....................................................... 78
Figura 54: Subdominios de uah.es ...................................................................... 78
Figura 55: Hosts virtuales en uah.es ................................................................... 79
Figura 56: Formatos de correo en uah.es ........................................................... 80
Figura 57: Creación de proyecto con FOCA ........................................................ 81
Figura 58: Búsqueda de archivos PDF ................................................................. 82
Figura 59: Metadatos del archivo ....................................................................... 82
Figura 60: Ejemplo de búsqueda en Shodan ...................................................... 85
Figura 61: OSINT Framework .............................................................................. 86
Figura 62: Intel Techniques ................................................................................. 87
Figura 63: Fuentes de información en Intel Techniques .................................... 87
Figura 64: Búsqueda por Email ........................................................................... 88
10
11
1. Sumario
En el mundo actual, Internet se ha convertido en la mayor fuente de información
existente. Toda la actividad que realizamos en la red genera una huella digital,
con todo tipo de información sobre nosotros o nuestro entorno, y que está
disponible de forma pública.
A lo largo de este documento, estudiaremos las distintas fuentes en las que
podremos localizar esta información, así como algunas de las principales
herramientas a la hora de realizar la extracción de estos datos, para su posterior
análisis y generación de inteligencia.
2. Summary
In today's world, the Internet has become the largest source of existing
information. All the activity that we do in the network generates a fingerprint, with
all kinds of information about us or our environment, and that is available openly.
Throughout this document, we will study the different sources in which we will be
able to locate this information, as well as some of the main tools at the time of
extracting these data, for their later analysis and generation of intelligence.
3. Palabras clave
Internet, información, inteligencia, redes sociales, privacidad, motores de
búsqueda.
12
4. Resumen
El concepto de OSINT (Inteligencia en fuentes abiertas) está cobrando cada vez
más importancia dentro del campo de la ciberseguridad. Se trata de un proceso
que consiste en generar inteligencia (entendiendo inteligencia como el análisis y
procesamiento de los datos para que puedan ser correctamente utilizados) a
partir de la información extraída de distintas fuentes públicas en Internet o en
otros medios tradicionales para la investigación de un objetivo.
Cuando hablamos de estas fuentes abiertas, nos referimos a aquellos puntos
clave dentro de Internet donde podemos encontrar información acerca de
personas, lugares o instituciones de forma pública, por lo que su acceso y
recolección se encuentra dentro del marco legal.
Entre las distintas fuentes disponibles, destacan los motores de búsqueda, ya
que son los encargados de indexar gran parte de la información disponible en la
red; las redes sociales, que debido al exceso de confianza de la gente a la hora
de publicar aspectos de su vida privada se han convertido en uno de los
principales puntos de acceso a datos críticos sobre los posibles objetivos; y los
distintos datos tanto de carácter personal como corporativo que podemos obtener
a través de diferentes medios, y a partir de los cuales podemos realizar diferentes
tipos de búsqueda para obtener aún más información.
Para cada una de estas fuentes, estudiaremos las herramientas más utilizadas y
las distintas formas de aprovechar sus recursos, que nos pueden ayudar a
extraer la mayor cantidad posible de datos, con el fin de realizar informes de
inteligencia más completos.
13
5. Introducción
5.1. Planteamiento
14
5.2. Objetivos
6. Información en Internet
Hoy en día, la proliferación del uso de Internet con cerca de 2.500 millones de
usuarios en todo el mundo y la facilidad que este ofrece para la publicación de
contenido a través del uso cada vez más extendido de redes sociales, webs,
blogs u otros medios, han favorecido a la existencia de una gran cantidad de
información online, ya sea de carácter personal, empresarial, etc.
Esto puede ser fácilmente demostrado analizando la cantidad de información que
maneja por ejemplo Google, con alrededor de 30 billones de páginas web, lo que
15
supone más de 1000 terabytes de información, u observando el crecimiento que
han tenido las redes sociales como Facebook que pasó de tener 1 millón de
usuarios en su nacimiento en 2004 a los más de 2 billones de usuarios con los
que cuenta en la actualidad.
Para proveer aún más contexto, el antiguo CEO de Google, Eric Schmidt, decía
estas palabras en el año 2010:
“Cada dos días, creamos tanta información como lo que hicimos desde los
inicios de la civilización hasta el año 2003 … Esto es algo así como cinco exabytes
de datos”.
Sin embargo, estos datos representan la superficie de la red. No podemos dejar
de mencionar también la cantidad de información que encontramos en la Deep
Web, ya que, aunque no existen cifras exactas, su volumen se estima incluso
más extenso. En ella encontramos toda aquella información que no ha sido
indexada por los motores de búsqueda o que solo puede ser accedida mediante
el uso de software especializado, metodologías o permisos especiales.
16
Figura 2: La parte oculta de Internet
18
Figura 3: Huella digital
7.1. Concepto
19
• Otras como ELINT (Electronic Intelligence), FININT (Financial
Intelligence), IMINT (Imagery Intelligence), COMINT (Communication
intelligence).
El concepto de OSINT, bajo un nombre u otro, ha estado a nuestro alrededor
cientos de años. A pesar de que con la llegada de las nuevas tecnologías de la
información y comunicación hayamos centrado en Internet las posibles fuentes
de recopilación de información, la extracción de datos puede ser realizada a partir
de cualquier material público disponible como:
• Medios de comunicación: periódicos, revistas, radio y televisión de
cualquier región del mundo.
• Internet, publicaciones online, blogs, grupos de discusión, medios
ciudadanos (por ejemplo, videos u otros contenidos creados por los
usuarios), Youtube y otras redes sociales (como Facebook, Twitter,
Instagram, etc.).
• Datos públicos del gobierno (como los Boletines Oficiales del Estado),
informes gubernamentales, presupuestos, audiencias, directorios de
teléfono, conferencias de prensa, sitios web o discursos. A pesar de
que estas fuentes provengan de fuentes oficiales, son de acceso
público, y pueden ser usadas abiertamente y gratuitamente.
• Publicaciones académicas y profesionales, información adquiridas de
revistas de artículos, simposios, conferencias, tesis, etc.
• Datos comerciales, imágenes comerciales, evaluaciones financieras e
industriales y bases de datos.
• Literatura gris, informes técnicos, preimpresiones, patentes,
documentos de trabajo, documentos comerciales, trabajos no
publicados y boletines informativos.
Sin embargo, lo más importante a tener en cuenta es que OSINT no consiste en
un trabajo de investigación en el que obtenemos diversos fragmentos de
información acerca de un objetivo, si no que consiste en un proceso de
20
inteligencia para crear un conocimiento personalizado para dicho objetivo, que
puede ser un individuo o grupo específico.
21
Para resumir, algunos de los ejemplos de la utilización de OSINT pueden ser
los siguientes:
• Conocer la reputación online de un usuario o empresa
• Realizar estudios sociológicos, psicológicos, lingüísticos, etc.
• Auditorías de empresas y otros tipos de organismos con el fin de
evaluar el nivel de privacidad y seguridad.
• Evaluación de las distintas tendencias de los mercados.
• Identificación y prevención de posibles amenazas en el ámbito militar
o la seguridad nacional.
• Por otro lado, también puede tener usos negativos, ya que puede ser
utilizado por ciberdelincuentes para lanzar distintos tipos de ataques
contra organizaciones o personas.
22
• Fiabilidad de las fuentes: es importante valorar previamente las
fuentes de las que se va a realizar la recopilación, ya que una
selección errónea de las mismas puede provocar desinformación o
resultados equivocados.
Por todo esto, se recomiendan una serie de fases o pasos a seguir para el
desarrollo de este proceso y que se basa en el denominado ciclo de
inteligencia.
Las fases de este ciclo son las siguientes:
23
contenido, definiendo y clasificando la disponibilidad y fiabilidad de
las fuentes y los flujos de la comunicación.
• Adquisición: Consiste en conseguir la información de las diversas
fuentes de información públicas que se han identificado en la fase
anterior, es decir, obtener la información en bruto. Cuanto mayor
cantidad de información consigamos mejor, pero siempre debemos
tener en cuenta los distintos atributos relacionados con esta
información como su contexto, fiabilidad de las fuentes, integridad,
fecha, etc. Estos atributos serán importantes en el desarrollo de las
siguientes fases. Además, la extracción de datos debe realizarse bajo
un marco legal, ya que de lo contrario se podría anular la eficacia de
los resultados. Para ello, nos serviremos de las distintas herramientas
disponibles y que veremos más adelante en este trabajo.
• Procesamiento: En esta fase se procesará la información
conseguida para proveerla de un formato de manera que
posteriormente pueda ser analizada.
• Análisis: Se genera inteligencia a partir de los datos recopilados y
procesados. En esta fase se analizará la información obtenida, y que,
tras depurarla, tratarla y procesarla, se eliminará aquella que sea
inservible debido a que carezca del suficiente valor, sea errónea, o
no sea lo suficientemente veraz para incluirla. Para ello, se necesita
de un equipo de personas que clasifiquen la información en función
de los atributos asociados a la fiabilidad de la fuente, fiabilidad de la
información, validez de los datos, pertinencia, relevancia y utilidad.
• Inteligencia: Presentar la información conseguida de una manera
eficaz, potencialmente útil y comprensible, gracias a informes
detallados con diagramas, tablas o figuras para que se puedan sacar
las conclusiones pertinentes sobre dicha información.
24
7.4. Fuentes abiertas
25
• Datos de carácter personal: Este tipo de datos que podemos
encontrar en la red incluyen información muy concreta y precisa
sobre nosotros mismos, tales como nombre, edad, lugar de
residencia, lugar de trabajo, teléfono, etc. Existen varios buscadores
especializados que con solo uno de estos datos pueden obtener toda
la información que existe en Internet sobre nuestra persona.
• Datos corporativos: También podemos encontrar datos generales
sobre las empresas como teléfonos, correos, información sobre
empleados u otros datos más avanzados como puede ser la propia
infraestructura de red y sistemas a través de aplicaciones como
Maltego.
8. Herramientas
Una vez que conocemos el proceso de generación de inteligencia, nos
centraremos en la fase de extracción de datos para analizar las herramientas
que tenemos a nuestra disposición para realizar esta función.
La lista de las herramientas que podemos encontrarnos es enorme, ya que
existen herramientas para buscar y analizar todo tipo de información. A esto le
podemos sumar el hecho de que cualquiera que cuente con los conocimientos
necesarios puede desarrollar scripts o aplicaciones para realizar búsquedas
avanzadas en cualquier fuente.
Por todo esto, y debido a la existencia de herramientas de pago, en este
trabajo nos centraremos en aquellas herramientas que se consideran más útiles
26
o importantes (y que sean libres de utilizar para cualquier persona) que nos
ayuden a extraer información de cada una de las fuentes que hemos estudiado
anteriormente y que estén disponibles para todo el mundo.
27
Figura 5: Motores de búsqueda
Este tipo de hacking es una técnica que utiliza operadores avanzados para
filtrar información en buscadores como Google, Bing o en otros motores de
búsqueda. Estos operadores son conocidos como dorks y existen una gran
cantidad de ellos en función de la información que queremos filtrar.
Estos parámetros especializados pueden dividirse en:
• Operadores booleanos: Consiste en el uso de operadores y
símbolos para realizar búsquedas combinadas. Algunos de estos son:
- “ “: El introducir una expresión entre comillas, nos permitirá buscar
esta expresión literalmente, mostrándote todos los resultados en
los que aparece exactamente la expresión introducida.
- -: El símbolo de “menos” nos permitirá excluir de los resultados
obtenidos aquellas páginas que incluyan el término o palabra
introducida justo después de este símbolo.
- +: Al contrario que con el símbolo -, el uso de este operador
permitirá realizar búsquedas que incluyan el término que se
encuentra después del símbolo.
28
- or y and: Busca páginas que contengan un término u otro, o un
término y el otro, buscando ambos al mismo tiempo.
- *: Actúa como comodín, pudiendo remplazar cualquier palabra.
- . : Al igual que es asterisco, actúa como comodín para una o
muchas palabras.
• Comandos: Una vez que conocemos estos operadores, podemos
combinarlos con los diferentes dorks o comandos que nos ofrecen
los motores de búsqueda para encontrar la información que
deseemos. Los principales dorks son:
- intitle, allintitle: Búsqueda por el título de la página.
- inurl, allinurl: Búsqueda por la URL.
- filetype: Este comando sirve para buscar archivos con la
extensión que se desee (docs, pdf, etc.)
- allintext: Búsqueda de una cadena dentro del contenido de una
página.
- site: Solo busca resultados que provengan del dominio
introducido.
- link: Busca páginas que tienen un link a determinada web.
- inanchor: Solo busca páginas que tienen en un texto de enlace el
término introducido.
- daterange: Búsqueda por rango de tiempo.
- cache: Muestra el resultado de la cache.
- info: Búsqueda de información de un dominio web.
- related: Devuelve resultados de sitios web relacionados.
- insubject: Búsqueda de páginas por tema.
- define: Búsqueda de definiciones.
29
- autor: Permite realizar búsquedas de obras o artículos por autor.
- group: Búsqueda de nombres de Google Groups.
Todos estos comandos pueden ser combinados para obtener resultados mucho
más precisos. Con estos dorks podemos obtener todo tipo de información que
ha sido indexada por los motores de búsqueda pero que resulta difícil de
localizar. Entre los distintos tipos de información que podemos obtener
encontramos:
• Ficheros con usuarios y contraseñas: Con el uso de estos
operadores avanzados podemos encontrar todo tipo de archivos de
distintas organizaciones que contienen datos sobre sus usuarios y
que en muchos casos incluyen contraseñas. Entre las búsquedas que
podemos realizar, por ejemplo, con solo introducir el comando intitle:
“index of” “Index of/” password.txt, podemos obtener enlaces a
directorios dentro de servidores en los que se guardan ficheros de
texto con las cuentas de los usuarios.
30
Una vez que hemos accedido al servidor podemos observar que contiene un
fichero de texto denominado password.txt en el que si entramos nos
encontraremos con varios usuarios junto a sus respectivas contraseñas.
31
Figura 8: Resultado búsqueda ficheros sql
32
Figura 9: Código sql con información sobre usuarios
33
Figura 10: Búsqueda de formularios de acceso
34
Una vez detectados, basta con buscar en alguna de las muchas
páginas que contienen bases de datos con distintos exploits, y
utilizarlos para entrar en el servidor.
35
Figura 12: Acceso a cámaras de vigilancia mediante Dorks.
8.1.2. Exploits DB
Todos estos dorks que nos permiten encontrar y acceder a páginas web con
información crítica debido a la falta de securización de dichas páginas pueden
ser encontrados en webs como Exploit-Database.
En este repositorio podemos encontrar todo tipo de exploits para aprovechar
las vulnerabilidades de servicios remotos, aplicaciones web o realizar ataques
de denegación de servicio. A su vez, incluye una base de datos de Google
Hacking, producto del trabajo realizado por el hacker profesional Johnny Long
en la pasada década, que, mediante el trabajo conjunto con la comunidad,
consiguió catalogar todas estas consultas en la llamada Google Hacking
Database. Tras el cierre de esta en 2010, Exploit-Database se encargó de su
mantenimiento, añadiéndola como extensión a su web.
36
En ella podemos encontrar todo tipo de búsquedas para motores como Google,
Bing y repositorios como GitHub, en los que podemos encontrar información
relativa a archivos, servidores o redes vulnerables, mensajes de error que
revelan demasiada información, archivos con contraseñas, portales de acceso y
otros tipos de información vistos anteriormente.
8.1.3. Robots.txt
37
web. En él, se suele especificar de manera sencilla, los directorios,
subdirectorios, URLs o archivos de nuestra web que no deseamos que se
muestren.
Para poder conseguir esto, existen una serie de comandos que se utilizan para
aplicar todas las restricciones que deseemos a los sitios web.
Algunos de estos comandos son:
• User-agent: Indica que tipo de robot debe cumplir con las directivas
que se indiquen a continuación.
• Disallow: Deniega el acceso a un directorio o página concreta.
• Allow: Funciona al contrario que la directiva Disallow, permitiendo el
acceso a determinados directorios o páginas. Se puede utilizar para
sobrescribir la directiva Disallow parcial o totalmente.
• Sitemap: Indica la ruta donde se encuentra el mapa del sitio en XML.
• Crawl-delay: Indica al robot el número de segundos que debe
esperar entre cada página. Puede ser útil en casos en los que se
necesita reducir la carga del servidor.
Sin embargo, estos archivos están disponibles de forma pública, y su contenido
puede ser visto por cualquier persona con un navegador web y conocimientos
avanzados. En muchos casos, el incluir un directorio en este archivo, indica la
existencia de este, lo que puede ser utilizado por posibles atacantes.
Podemos encontrar archivos robots.txt en muchas páginas web usando dorks
como site:”*” inurl:”robots.txt” para ello.
38
Figura 14: Ejemplo de archivo robot.txt
8.1.4. Crawlers
39
Estos crawlers pueden ser utilizados para extraer y recopilar información a
partir de la estructura de las páginas web. Una de las herramientas más
conocidas es Scrapy, que ofrece un framework para Python para hacer web
scraping (recopilar información de forma automática de una web). Mediante
Scrapy podemos desarrollar arañas simples para recorrer aquellas webs de las
que queramos obtener información.
En la siguiente figura, podemos ver un ejemplo del resultado por un crawler
realizado en Scrapy utilizado para buscar todas las ofertas de trabajo de
distintas empresas en la página Craig List.
40
ya que incluye toda información no indexada por los motores de búsqueda
tradicionales. En ella podemos encontrar todo tipo de documentos
gubernamentales, informes financieros, científicos o académicos y otro tipo de
información que podría considerarse ilegal.
A pesar de que estos datos sean de difícil acceso, podemos tratar de localizarlos
navegando por esta DeepWeb. Para ello debemos usar TOR, el cual nos ofrece
una red de comunicación distribuida de baja latencia y sobrepuesta sobre
Internet, en la que se garantiza nuestro anonimato debido a que el intercambio
de mensajes no revela nuestra dirección IP, y además mantiene la integridad y
el secreto de la información que viaja por ella.
El uso de TOR permite a los usuarios publicar un sitio web u otros servicios sin
necesidad de revelar desde donde se publica. Por ello, la búsqueda en TOR
mediante los distintos motores de búsqueda que este ofrece como DuckDuckGo
o Not Evil, supone una de las herramientas más importantes para obtener
información sobre delincuentes que utilizan la Deep Web para cometer sus
acciones.
41
8.2. Redes sociales
En general, cuando hablamos de una red social nos referimos a una estructura
social formada por personas o entidades conectadas y unidas entre sí por
algún tipo de relación social como amistad o parentesco, intereses comunes, o
que comparten conocimientos.
Aunque el concepto de red social pueda parecer algo nuevo, lo cierto es que
ya a finales del siglo pasado empezaron a originarse este tipo de sitios web. No
fue sin embargo hasta principios de la década de los 2000 cuando empezaron
a originarse las primeras redes sociales tal y como las conocemos hoy en día.
La gran revolución llegó en el año 2003 con la llegada de MySpace, que a
pesar de que con el paso del tiempo ha perdido bastante popularidad, fue la
primera red social que nos permitía crear un perfil completo sobre nosotros
mismos, donde podíamos publicar nuestros gustos, intereses o preferencias a
la hora de conocer gente, además de la posibilidad de compartir fotos o
música. Posteriormente, fueron surgiendo las grandes redes sociales con las
que estamos más familiarizados, como Facebook o Twitter, y que desde el
momento de su aparición han ido incrementando el número de usuarios
registrados de manera exponencial.
42
Todos estos usuarios generan una gran cantidad de datos. Debido a la
capacidad de interacción y difusión que poseen estas redes sociales, toda esta
información que publicamos puede estar disponibles para cualquier persona del
mundo de manera instantánea.
Estas características permiten que las redes sociales supongan hoy en día uno
de los medios más importantes de comunicación y transmisión de datos, lo que
las convierte en una de las más importantes y accesibles fuentes de
información. Dicha información puede ser utilizada posteriormente como
herramienta de marketing o para analizar corrientes de opinión, pero también
supone un peligro, ya que se pueden encontrar todo tipo de datos de carácter
personal y que quedan de manera pública en Internet.
Por estos motivos, las redes sociales suponen una herramienta de extracción
de datos en sí mismas, ya que navegando a través de ellas podemos obtener
todo tipo de información que hayan publicado sus usuarios sin tener en cuenta
que pueden poner en riesgo su privacidad. En este apartado, analizaremos las
herramientas disponibles para el análisis de estas redes sociales, que van
desde aquellas que nos permiten detectar la presencia de usuarios en ellas, a
las que nos ofrecen la posibilidad de realizar búsquedas avanzadas para
obtener resultados más concretos.
43
Para esto existen herramientas que, a partir de un usuario conocido, buscan en
un conjunto de redes sociales para detectar la existencia de usuarios con el
mismo nombre. Esta herramienta suele ser utilizada fuera del ámbito de
OSINT, para comprobar la disponibilidad de algún nombre de usuario en alguna
web y así poder registrarse con él, pero a su vez nos indica todos los sitios
web en los que sí existe un nombre usuario, que con una alta probabilidad
puede estar asociado a la misma persona.
Una de las herramientas más conocidas y completas que podemos encontrar
es KnowEm. Entre las distintas funciones disponibles, KnowEm ofrece un motor
de búsqueda de usuarios en redes sociales, un servicio de protección de
marcas, una plataforma de marketing, y una red social en sí misma.
Para utilizarla, solo debemos introducir el nombre de usuario que deseemos
encontrar, y nos indicará todas las redes sociales en las que detecta un usuario
con ese mismo nombre.
Una vez introducido el usuario, nos mostrará los resultados en algunas de las
redes sociales más populares, pero podremos elegir realizar la búsqueda en en
función de la temática de la web, la cuál puede ser:
• Blogging (como Blogger, WordPress o Tumblr)
• Bookmarking (Pinterest o Instapaper)
• Negocios (LinkedIn o eBay)
44
• Comunidades (Facebook o Steam)
• Diseño (como por ejemplo Behance)
• Entretenimiento
• Salud (por ejemplo, MyFitnessPal)
• Información (ask.fm o Wikipedia)
• Microblogging (Twitter o Foursquare)
• Música (SoundCloud, last.fm o Spotify)
• Noticias (BuzzFeed o Reddit)
• Fotos (Instagram, Imgur, Flickr, Giphy, …)
• Tecnología
• Viajes
• Video (siendo YouTube la más conocida)
45
Además, la aplicación nos permite realizar búsquedas de dominios en varios
países y regiones del mundo, y buscar marcas registradas.
46
8.2.2. Redes sociales de uso masivo
8.2.2.1. Twitter
47
El microblogging es una variante de los blogs (diarios personales online), que
se caracterizan por la brevedad de sus mensajes y la facilidad de publicación,
pudiéndose enviar desde diversas plataformas como móviles, aplicaciones de
escritorio o desde la página web.
La red de Twitter permite enviar mensajes de texto plano de corta longitud, con
un máximo de 280 caracteres (140 en sus orígenes), denominados tuits o
tweets, que por defecto se muestran a los demás usuarios de manera pública.
Además de la publicación de estos tweets, los usuarios pueden seguir a otros
usuarios para poder ver los tweets que estos publiquen en su página principal,
retweetear para compartir mensajes publicados en otra cuenta, u observar los
trending topics o temas más mencionados en ese momento.
El problema viene cuando utilizamos la aplicación para publicar información
sobre nosotros. Muchos son los usuarios que tienen la opción de
geolocalización activada, que nos indica la ubicación desde la que están
escribiendo, utilizan su nombre real, añaden sus gustos a sus biografías o
publican fotos y tweets que pueden darnos datos personales.
48
Como podemos observar en la Figura 22, solo con visitar la página principal de
un usuario podemos encontrar todo tipo de información. Entre los datos que
podemos extraer, encontramos su foto, su nombre real (Matt Kapko), su lugar
de residencia (Long Beach), su profesión (escritor senior en la página CIO.com)
o que está casado (Aparece la palabra “husband” en su biografía), todos datos
que podrían ser usados para realizar un perfil sobre su persona. Por otro lado,
el usuario cuenta con 3115 tweets y 40 fotos, además de sus listas de
seguidores, tweets favoritos y lista de cuentas a las que sigue, que podrían ser
analizados para obtener más información como opiniones, aficiones, o
personas relacionadas con el objetivo.
49
Figura 23: Búsquedas avanzadas en Twitter
50
Tinfoleak
Una de las herramientas más conocidas actualmente en el análisis de esta red
social es Tinfoleak. Desarrollada por Vicente Aguilera, consiste en una
herramienta de código abierto, que automatiza la extracción de datos de Twitter
y facilita su posterior análisis. Podemos encontrarla para su descarga en la
página personal del desarrollador, además de estar disponible en versión web.
Para su utilización, introducimos una cuenta de usuario, y recibiremos a la
dirección email que seleccionemos el análisis completo de toda la información
extraída sobre dicho usuario. Entre estos datos podemos encontrar:
• Información básica sobre el usuario como imagen de perfil, estado de
verificación, nombre de usuario, descripción de la cuenta, ID,
seguidores, usuarios a los que sigue, ubicación (si está activada),
zona horaria, idioma, etc.
52
8.2.2.2. Facebook
53
• Aplicaciones y juegos: A través del App Center, Facebook ofrece una
herramienta para desarrolladores con la que pueden añadir sus
juegos y aplicaciones a la página web.
Todos estos servicios derivan en una gran cantidad de información proveniente
de los usuarios, lo que ha supuesto para la compañía una constante cobertura
mediática sobre su privacidad, así como una intensa presión ante la cantidad
de noticias falsas, páginas de incitación al odio y representaciones de violencia
que prevalecen en estos servicios.
A pesar de que Facebook ha aumentado sus opciones de privacidad ante estas
situaciones y los recientes escándalos como el de la minería de datos de
Cambridge Analytica, donde se manipularon los datos de 50 millones de
usuarios para influir en las elecciones estadounidense, la información publicada
por los usuarios sigue siendo accesible si no se toman las medidas de
privacidad necesarias.
55
• Anuncios: Intereses, interacciones y relación con los anunciantes
que influyen en los anuncios mostrados en la página.
• Historial de búsqueda: Historial de palabras, frases o nombres
buscados.
Todos estos datos que podemos obtener de los usuarios son almacenados por
Facebook, y pueden ser fácilmente obtenidos realizando un análisis de la
página de perfil de un usuario si este no ha tomado las medidas de privacidad
necesarias.
Además, podemos encontrar en Internet distintos buscadores avanzados que
nos permitirán extraer la información que deseemos filtrando la búsqueda
mediante distintos campos como nombres, genero, idioma, religión, ideología
política, etc. Un ejemplo de este tipo de páginas puede ser Netbootcamp.
56
8.2.2.3. Instagram
57
más conocidas es WEBSTAGRAM donde, por ejemplo, podemos buscar por el
hashtag #trip con el que podemos visualizar todas las publicaciones que han
realizado los usuarios sobre los lugares en los que pasan las vacaciones.
8.2.2.4. LinkedIn
Esta red social fue creada en 2002 por Reid Hoffman y otros estudiantes, y
lanzada en mayo del siguiente año. Consiste en una comunidad social
orientada a las empresas, a los negocios y al empleo. En ella, los usuarios
revelan libremente su experiencia laboral y destrezas, poniendo en contacto así
a millones de empresas y empleados.
Entre la información que podemos encontrar en esta red social tenemos:
• Una red de contactos para los usuarios construida mediante las
conexiones de estos con otras personas.
• Los usuarios pueden subir su CV, mostrando así sus experiencias
laborales y habilidades profesionales, donde se puede indicar
también el lugar de trabajo actual.
58
• Información acerca de los puestos de trabajo que busca alguna
empresa.
• Fotos de perfil con las que poder identificar a los usuarios.
• Preferencias de los usuarios a la hora de buscar trabajo.
Para acceder a esta información solo hay que estar registrado en la red social,
ya que algunos usuarios pueden elegir la opción de visualizar quien está
visitando sus perfiles.
Como hemos visto con LinkedIn, tras el éxito que tuvieron las redes sociales en
sus primeros años, fueron surgiendo nuevas páginas que se segmentaron en
función de su temática. Podemos encontrar webs dedicadas a deportes,
música, fotografía, viajes, etc. Aunque la cantidad de información que podemos
encontrar en estos sitios pueda ser menor, nos pueden ser de gran utilidad
para identificar aficiones o intereses de los usuarios, lugares visitados u
opiniones del objetivo. Podemos llegar a saber cuál es el tipo de música que
59
alguien escucha a través de sus cuentas de Spotify o YouTube, si les gusta
viajar, hacer deporte, si son aficionados de algún equipo o descubrir otros
hobbies como la fotografía o la tecnología a través de cuentas en Pinterest o
GitHub.
60
8.2.3.2. Redes sociales de turismo.
61
recompensando al usuario cuando se descubren nuevos lugares. Se crean así
listas con los lugares favoritos o más visitados por el usuario, pudiendo
visualizarlos en un mapa.
Otras redes sociales que pueden darnos información sobre localizaciones son
las aplicaciones deportivas, como Strava o Endomondo. En ellas podemos ver
el recorrido que realizan los usuarios cuando salen a hacer ejercicio, lo que nos
puede mostrar entre otros datos el lugar de residencia del usuario.
62
Figura 35: Rutas en Strava
63
Figura 36: Bases militares en Strava
Todos estos datos que podemos extraer mediante las redes sociales pueden
servir de fuente para otras aplicaciones, que a partir de ellos permiten
completar o analizar en mayor profundidad la información obtenida.
8.3.1. Metabuscadores
Una de las herramientas más utilizadas para encontrar la huella digital de una
persona son los denominados metabuscadores. Un metabuscador es un
sistema que localiza información de diferentes motores de búsqueda, utilizando
las bases de datos de estos, y mostrando una combinación de las mejores
páginas que le devuelve cada uno, es decir, un metabuscador es un buscador
de buscadores.
64
Podemos encontrar varios de ellos en distintas páginas web, siendo Pipl uno de
los más utilizados. En esta página podremos buscar datos sobre cualquier
persona a partir de su nombre, usuario, email, localización o teléfono. Tras
buscar toda la información sobre la persona introducida en distintos
buscadores, creará un perfil completo con todos los datos recopilados, siendo
algunos como teléfonos o emails solo accesibles desde la versión Pro para la
que habrá que registrarse.
Entre los posibles datos que se nos mostrarán aparecerá la foto de perfil,
nombre completo, edad, género, carrera profesional, educación, nombre de
usuario, teléfonos, emails, localizaciones y personas relacionadas por
parentesco, así como enlaces a todas las redes sociales en las que el usuario
este registrado.
En la siguiente figura podemos observar un ejemplo del resultado obtenido en
Pipl tras pedirle toda la información que pueda encontrar sobre un objetivo
concreto.
65
Otra forma de extraer información personal es la plataforma Yasni. Esta página
busca a partir de un nombre todas las páginas web donde este aparece,
pudiendo así encontrar enlaces a redes sociales, noticias o artículos en los que
se menciona dicha persona, documentos, y todo tipo de enlaces relacionados.
Sin embargo, toda esta información necesitará de un posterior análisis para
determinar cuáles de estos enlaces se corresponden realmente con la persona
a la que estamos buscando y no otra distinta que puede llamarse igual.
También puede resultar interesante la aplicación ThatsThem. Su
funcionamiento es similar al de los otros sitios web comentados anteriormente,
pero añade información adicional interesante como direcciones IP o un test de
personalidad en la que puntúa el nivel de riqueza de la persona o si es
propenso a realizar donaciones, compras online, viajar, adquirir nuevas
tecnologías, o cuidar el medio ambiente.
66
8.3.2. Teléfonos y Emails
En el caso de los emails, existen varias herramientas web que nos permiten
conocer si alguna dirección de correo electrónico se ha visto comprometida en
algún leak conocido. Estos leaks se producen cuando un atacante obtiene
datos de un sistema el cual ha sido comprometido previamente, explotando
alguna vulnerabilidad de este. De estos ataques se suelen extraer datos,
normalmente de empleados o usuarios, que son vendidos o difundidos
públicamente, encontrándose muchos de ellos en la Deep Web. Uno de los
casos más conocidos ocurrió en 2012 con LinkedIn, cuando se vendieron más
de 167 millones de cuentas de sus usuarios con sus respectivas contraseñas.
67
Figura 40: Bases de datos con cuentas robadas en la darknet (LinkedIn)
68
Figura 43: Información sobre leaks.
8.3.3. Geolocalización
69
Figura 44: GeoSocial FootPrint
70
Figura 45: Aplicación Cree.py
8.3.4. Imágenes
71
Figura 46: Ejemplo TinEye
72
Figura 48: Búsqueda por imagen en Google
8.4.1. Maltego
73
abiertas, y visualizar esa información en formato de gráfico, adecuado para su
análisis y minería de datos.
La herramienta nos permite crear entidades personalizadas, para representar
cualquier tipo de información, además de los tipos de entidades básicas que
integran la aplicación. Las principales entidades con las que podemos trabajar
son:
• Personas (nombres o correos electrónicos)
• Redes sociales
• Compañías
• Organizaciones
• Sitios Web
• Infraestructura de Internet
• Documentos
El principal objetivo de la aplicación es analizar las relaciones existentes entre
la información relativa a estas entidades que se encuentra pública en Internet.
Entre sus fuentes de datos se encuentran registros de DNS, registros de
Whois, motores de búsqueda, redes sociales, varias APIs online y diversos
metadatos.
Podemos encontrar la aplicación de forma gratuita instalada en Kali Linux,
aunque puede ser descargada en otras plataformas a través del siguiente
enlace:
https://www.paterva.com/web7/downloads.php
74
Para ello añadiremos un nuevo proyecto, y crearemos dentro de este una
nueva entidad, que será el dominio que queremos analizar.
75
De la misma forma, podríamos seleccionar un solo tipo de transformación, para
poder visualizar con mayor claridad, por ejemplo, el nombre de los servidores
DNS utilizados.
8.4.2. TheHarvester
76
Cuando iniciemos la herramienta introduciendo el comando “theharvester” en la
consola, se nos desplegará un menú de ayuda con todas las opciones
disponibles.
77
Figura 53: Direcciones de correo en uah.es
78
Figura 55: Hosts virtuales en uah.es
8.4.3. Hunter
8.4.4. FOCA
80
La búsqueda se realiza utilizando los motores de búsqueda de Google, Bing y
DuckDuckGo, cuya unión permite que se consigan un mayor número de
documentos.
La herramienta extrae los metadatos de estos ficheros y los analiza para saber
quién los creó, modificó, el tipo de software que lo genera, que documentos
han sido creados desde cada equipo, que servidores y los clientes que se
pueden inferir de ellos.
Una vez instalada, podemos crear un nuevo proyecto a través del icono de la
esquina superior izquierda. Tras situarnos en la ventana del proyecto, debemos
introducir el nombre de dicho proyecto, el dominio que queremos analizar, y la
carpeta donde lo queremos guardar. En este ejemplo, utilizaremos el dominio
de la Escuela Politécnica de la Universidad de Alcalá.
Una vez creado el proyecto, elegimos la extensión del fichero que queramos
buscar (en este caso PDF) y comenzaremos la búsqueda.
A medida que va encontrando los archivos, estos se nos irán mostrando en la
pantalla, pudiendo parar la búsqueda en cualquier momento.
81
Figura 58: Búsqueda de archivos PDF
82
De esta forma podemos observar el propietario del fichero, las fechas de
creación y modificación del mismo o las aplicaciones utilizadas.
Además, descargando estos archivos podemos acceder a ciertos datos como
nombres de profesores con sus respectivas direcciones de correo u otros tipos
de datos que pueden resultar útiles.
8.4.5. Shodan
83
• City: Dispositivos ubicados en una determinada ciudad.
• Country: Terminales cuya localización coincida con el país buscado.
• Geo: Búsqueda de direcciones IP por coordenadas.
• Hostname: Búsqueda por nombre de dispositivo.
• OS: Buscar por sistema operativo.
• Port: Búsqueda por el número de puerto indicado.
• Net: Busca información vinculada a una IP dada. Puede realizarse de
dos formas:
- IP directa: por ejemplo, net:111.11.11.11
- Rango de subred: por ejemplo, net:111.11.11.0/24
• Before/After: Resultados en un rango de tiempo determinado
• Org: Búsqueda por nombre de organización
• Product: Búsqueda por producto, por ejemplo, MySQL.
El uso de Shodan por tanto, es muy parecido a lo que hemos visto con los
dorks en Google Hacking, y a partir de estos comando podemos acceder por
ejemplo, a servicios con contraseñas y usuarios por defecto a través de
country:ES “default password”
84
Figura 60: Ejemplo de búsqueda en Shodan
9. Frameworks
Los distintos frameworks dedicados a la inteligencia en fuentes abiertas que
podemos encontrar suponen una herramienta muy útil para la extracción de
datos en fuentes abiertas ya que agrupan las funcionalidades de varias
aplicaciones para facilitarnos el trabajo de investigación. En este apartado
analizaremos algunos de los frameworks más utilizados.
En la parte superior del árbol podemos encontrar herramientas que nos pueden
ayudar a la extracción de datos personales como nombres de usuarios,
direcciones de correo, análisis de recursos, direcciones IP, redes sociales,
motores de búsqueda de personas, números de teléfono, etc.
La parte inferior, sin embargo, clasifica fuentes de información orientadas a
contenido no personales. Aquí podemos encontrar fuentes y herramientas
dedicadas a la búsqueda de vulnerabilidades, análisis de código, análisis de
malware, metadatos, etc.
Sin embargo, lo que convierte a este framework en una herramienta tan útil, es
su facilidad de uso, y el hecho de que nos permite hacernos una idea de la
cantidad de información e investigaciones diferentes que podemos realizar
dentro del campo OSINT.
86
como hace OSINT Framework, si no que implementa una interfaz que recoge
todas estas herramientas para su uso directo a través del framework.
Como punto a tener en cuenta, todas las búsquedas realizadas con Intel
Techniques quedarán almacenadas en sus bases de datos, por lo que
deberemos tener cuidado a la hora de extraer información personal.
Todas estas herramientas pueden ser encontradas en la ventana de Tools en
la página web de la aplicación.
Una vez dentro podemos observar los distintos tipos de recursos y fuentes de
información a partir de los cuales podemos extraer información.
87
una gran cantidad de herramientas para cada una de las fuentes disponibles,
así como enlaces a los buscadores personalizados que ofrece este framework.
Estos buscadores personalizados, permiten buscar toda la información
disponible en fuentes públicas, a partir de los datos que aparecen en la Figura
64.
Por ejemplo, podemos elegir la opción de búsqueda por email, donde
introduciendo una dirección de correo electrónico, esta será buscada en todas
las herramientas de las que dispone la aplicación, y que podemos ver en la
siguiente figura.
88
En resumen, podemos decir que Intel Techniques es una de las herramientas
más completas que podemos encontrar para la extracción de datos en fuentes
abiertas, ya nos ofrece una gran cantidad de posibilidades para la búsqueda de
información a partir de diversas fuentes, reuniendo en una sola web las
aplicaciones OSINT más importantes, facilitando la investigación y el uso de
estas al ser directamente implementadas en sus buscadores personalizados.
89
10. Conclusión
Tras la realización del trabajo, y habiendo estudiado las distintas formas de
extraer datos de fuentes abiertas, podemos llegar a las siguientes conclusiones:
• No es de extrañar el crecimiento que está teniendo el campo de la
ciberinteligencia, especialmente las técnicas de OSINT, dentro del
ámbito de la ciberseguridad. La gran cantidad de información útil que
se puede obtener en fuentes públicas puede ser diferencial en todo
tipo de actividades de prevención de riesgos e investigaciones de
objetivos.
• Una vez que hemos estudiado algunas de las herramientas más
utilizadas, podemos concluir en que ninguna de ellas es perfecta. Si
bien cada una de ellas es muy útil para cada tipo de fuente, no todas
acaban de ofrecer resultados 100% fiables.
• En relación con el punto anterior, las distintas herramientas
disponibles pueden ofrecernos una gran cantidad de datos, pero lo
que es realmente importante es como procesamos toda esta
información y la inteligencia que le aportemos para saber que datos
debemos recoger y cuales excluir.
• La existencia de tantos tipos de fuentes abiertas de información y
herramientas disponibles para su explotación nos lleva a pensar la
falta de privacidad del mundo en el que vivimos, en muchos casos
debido a la poca concienciación o interés de la población, y que
podría suponer un riesgo importante si toda esta información que
publicamos cae en malas manos.
90
11. Trabajo a futuro
Con la creciente importancia de la inteligencia en fuentes abiertas, cada vez
son más los interesados en sacar provecho de la información que puede
conseguirse con OSINT, lo que impulsará la creación de nuevas fuentes de
información y herramientas dedicadas a la extracción de datos.
Sin embargo, la tarea pendiente que tendrán estas nuevas aplicaciones será la
de aumentar la fiabilidad de la información obtenida. A día de hoy existen
herramientas muy útiles para la búsqueda de información, pero muchas de
ellas son herramientas en desarrollo que son elaboradas en la mayoría de los
casos por una sola persona o por pequeños grupos de personas, motivos por
los que su funcionamiento no siempre es óptimo.
Con el apoyo de grandes organizaciones, se podrán crear herramientas cada
vez más precisas y que a su vez puedan abarcar mayores cantidades de datos.
Además, los avances en el campo de la inteligencia artificial podrían
combinarse con estas herramientas para poder automatizar el proceso de
extracción de datos, sobre todo a la hora la generación de inteligencia, para
que estas puedan encargarse de la correcta selección de la información
obtenida.
91
12. Bibliografía
[1] Asier Martínez (28 de mayo de 2014), “OSINT – La información es poder”, Blog
Instituto Nacional de Ciberseguridad de España. Online:
https://www.certsi.es/blog/osint-la-informacion-es-poder
[2] Selva Orejón (8 de febrero de 2018), “OSINT o como pescar en la red”, Blog Inesdi,
Digital Business School. Online:
https://www.inesdi.com/blog/osint-pescar-red/
[3] Travis Lishok (3 de abril de 2018), “Part I: An Introduction To OSINT Research For
Protective Intelligence Professionals”, Blog Instituto Nacional de Ciberseguridad de
España. Online:
https://www.protectiveintelligence.com/blog/
[4] Germán Realpe (11 de agosto de 2016), “Fuentes abiertas: Herramientas para hacer
inteligencia en la red”, Blog Enter.co. Online:
http://www.enter.co/chips-bits/seguridad/herramienta-inteligencia-internet/
[5] Álvaro Vállega y Jorge Alcaín (2018), “OSINT: Atacando con la información pública”,
Taller Prosegur Ciberseguridad, Jornadas de Seguridad y Ciberdefensa Ciberseg,
Universidad de Alcalá.
[6] Marco Varone, Daniel Mayer, Andrea Melegari (15 de marzo de 2016), “OSINT:
definition of Open Source INTelligence”, Blog Expert System. Online:
https://www.expertsystem.com/what-is-osint/
[7] Paula Rochina (18 de octubre de 2016), “Nuestra huella digital en Internet: ¿Hasta
dónde saben de mí?”, Blog Revista Digital INESEM. Online:
https://revistadigital.inesem.es/informatica-y-tics/huella-digital-internet/
[8] Marcos Polanco (21 de abril de 2016), “La ciberinteligencia como habilitador de la
ciberseguridad”, Blog Magazcitum. Online:
http://www.magazcitum.com.mx/?p=3205#.W0ZmQtIzbIV
92
[9] Curso de inteligencia (16 de marzo de 2016), “¿Qué es la Ciberinteligencia? La
inteligencia en materia de Ciberseguridad”, Blog ASINT 360º. Online:
http://www.asint360.com/que-es-la-ciberinteligencia-la-inteligencia-en-materia-de-
ciberseguridad/
[10] Gabriel Bergel (28 de marzo de 2016), “Las Fases de la Ciberinteligencia”, Blog
Eleven Path. Online:
http://blog.elevenpaths.com/2016/03/las-fases-de-la-ciberinteligencia.html
[11] Equipo InboundCycle (23 de marzo de 2014), “Indexación: primer paso para aparecer
en los buscadores”, Blog de Inbound Marketing. Online:
https://www.inboundcycle.com/blog-de-inbound-marketing/bid/194390/indexaci-n-
primer-paso-para-aparecer-en-los-buscadores
[12] Juan Antonio Calles (2014), “Open Source Intelligence y la unión de los mundos
virtual y físico”, Zink Security S.L. Online:
http://www.isaca.org/chapters7/Madrid/Events/Documents/Forms/AllItems.aspx?utm_ref
errer=direct%2Fnot%20provided
[13] Antonio González (2 de marzo 2012), “Google Hacking (46 ejemplos): cómo consigue
un hacker contraseñas usando Google. Google puede ser tu peor enemigo.”, Blog
personal de Antonio González. Online:
https://antoniogonzalezm.es/google-hacking-46-ejemplos-hacker-contrasenas-usando-
google-enemigo-peor/
[14] Daniel González, Jesús Alcalde (2018), “OSINT, la verdad está ahí fuera”, Blog
ZeroLynx. Online:
https://www.zerolynx.com/downloads/OSINT_RootedCON_2018.pdf
[15] Marie Perod (2018), “Pasado y presente de las redes sociales”, Artículo en
MuyInteresante Online:
https://www.muyinteresante.es/tecnologia/articulo/pasado-y-presente-de-las-redes-
sociales-711496244493
[16] Yolanda Corral (5 de septiembre 2016), “Qué es OSINT: fases, fuentes y
herramientas”, Blog de Yolanda Corral. Online:
https://www.yolandacorral.com/que-es-osint-fases-fuentes-herramientas/
[17] Enlaces a Herramientas OSINT, CiberPatrulla, Online:
93
https://ciberpatrulla.com/links/
[18] Páginas oficiales de las distintas herramientas analizadas.
94
Universidad de Alcalá
Escuela Politécnica Superior