Tecnologías de La Información
Tecnologías de La Información
Tecnologías de La Información
Tecnologías de la
Información
Índice
Presentación 5
Red de contenidos 7
Unidad de Aprendizaje 1
9
SISTEMAS COMPUTACIONALES
1.1. Tema 1 : Arquitectura del computador 11
1.1.1. : Arquitectura del computador 11
1.1.2. : Componentes del computador 11
1.1.3. : Criterios de selección de los componentes del computador 55
Unidad de Aprendizaje 2
133
NUEVAS TECNOLOGÍAS
2.1. Tema 8 : Nuevas Tecnologías 135
2.1.1. : IoT: Internet de las cosas 136
2.1.2. : Aplicaciones de IoT 140
2.1.3. : Realidad Virtual y Realidad Aumentada 143
2.1.4. : Impresoras 3D 146
2.1.5. : Bitcoins Y Blockchain 149
171
Bibliografía
Presentación
En la actualidad la tecnología se ha convertido en una necesidad de desarrollo, tener
conocimiento y dominio de estas permitirán un desenvolvimiento exitoso, es por ello que este
curso nos permitirá conocer las definiciones y características más importantes de las nuevas
tecnologías informáticas, tanto a nivel de software como a nivel de hardware. Asimismo, nos
permitirá conocer un extenso vocabulario basado en la terminología de computación e
informática.
Por supuesto que usted tendrá la magnífica oportunidad de investigar sobre temas relacionados
con las modernas tecnologías de la información que, por razones de tiempo, no se pueden cubrir
en las sesiones desarrolladas, pero si serán vistos en los cursos de ciclos más avanzados de su
carrera.
Red de contenidos
SISTEMAS COMPUTACIONALES
• Arquitectura del computador
• Arquitectura de la Placa Madre
• Microprocesadores
• Sistemas Operativos
• Desarrollo del Software
• Base de datos
• Servicios en la Nube
NUEVAS TECNOLOGÍAS
• Nuevas Tecnologías
• Inteligencia Artificial
• Robótica
• Ethical Hacking
• Ingeniería Social
UNIDAD
1
SISTEMAS COMPUTACIONALES
LOGRO DE LA UNIDAD DE APRENDIZAJE
Al término de la unidad, el alumno identifica y explica la función de los components de
hardware más importantes del computador, la clasificación y aplicaciones de los
sistemas operativos, la importancia del desarrollo de programas, la gestión de base de
datos, el manejo de grandes volúmenes de información y servicios de la nube, aplicando
fundamentos de funcionalidad, automatización, clasificación, evolución, y aplicaciones.
TEMARIO
1.1. Tema 1 : Arquitectura del computador
1.1.1. : Arquitectura del computador
1.1.2. : Componentes del computador
1.1.3. : Criterios de selección de los componentes del computador
ACTIVIDADES PROPUESTAS
El computador está conformado por una serie de componentes que van desde el
microprocesador hasta el mouse, que constituyen el hardware. Sin embargo, eso no es
suficiente, el computador debe tener una serie de programas, que permitirán al
microprocesador realizar las aplicaciones que necesita el usuario. Los programas están
constituidos por el sistema operativo y diversas aplicaciones a las cuales denominamos
software.
Componentes internos.
Dispositivos de entrada y salida.
Dispositivos de almacenamiento, interfaces de almacenamiento y sistemas de respaldo.
Puertos y cables externos.
Figura 2: Hardware de PC
Fuente. - Tomado de https://www.slideshare.net/richardyairbolivar/partes-de-un-computador-
a. Case o Gabinete
El CASE o gabinete, es una estructura de metal y plástico de forma rectangular, donde se alojan
los componentes internos del computador. Dentro de esta estructura, encontramos la fuente
de poder, discos duros, unidades ópticas, placa madre, procesador, memorias, tarjetas de video,
tarjeta de audio, etc. Es importante diferenciar los tipos de CASE, debido a que no cualquier
gabinete sirve para cualquier computadora, y esto es porque cada una de las placas madre y su
procesador necesitan de requerimientos específicos para un buen funcionamiento.
Las bahías de un case, sirven para alojar las unidades de almacenamiento como los
discos duros y reproductores de CD, DVD, en general. La cantidad de estás dependerán
del tamaño del gabinete.
Panel frontal, se encuentra los botones de encendido y reinicio, y los LED que indican el
estado de encendido de la máquina, el uso del disco duro y la actividad de la red de
computadoras.
Panel posterior, se ubica los conectores para los periféricos procedentes de la placa
madre y de las tarjetas de expansión.
Tipos de gabinete
Existen varios tipos de case por su forma, dentro de los cuales tenemos los siguientes: Tower,
Mid-Tower, Mini-Tower, Desktop, Mini-Desktop y Slim.
b. Fuente de Poder
La fuente de poder o Power supply en inglés, tiene la función de suministrar energía a todos los
componentes del computador, así mismo se encarga de convertir la corriente alterna (CA) en
corriente continua (CC), se debe de tener en claro que la corriente alterna es aquella que
proviene de la red eléctrica 220VAC a 60Hz la cual debe ser transformada por la fuente de poder,
para ello realiza las funciones de transformación, rectificación, filtrado y estabilización.
Los componentes del computador necesitan diferentes voltajes, los cuales varían entre 3.3, 5.0,
12.1 y -12.0 voltios, el componente que necesita de más voltios es la tarjeta gráfica; se
recomienda revisar los documentos de fábrica para verificar el voltaje correcto para cada
componente y así poder elegir una fuente de poder con el voltaje suficiente para poder proveer
energía a todos los componentes.
Las fuentes de poder han evolucionado con el tiempo, se describen las principales:
Tecnología Avanzada (AT). Son las primeras fuentes de poder, tenían 2 conectores de 6
contactos, en la actualidad se encuentran obsoletas.
EPS 12V. Originalmente fue diseñada para servidores de red, en la actualidad se utilizas
para PCS de alto rendimiento, está constituida por un conector de 8-pin para la
alimentación del procesador y otro conector de 4pin, su uso es para aquellas pacas que
tengan más de un procesador.
SFX. Estas son específicas para cajas ITX, ya hemos analizado varias en nuestra web.
Existen desde 300W hasta los 600W con certificaciones 80 PLUS Gold (Review, 2016)
Los tipos de fuentes que encontraremos en el mercado serán las genéricas y las certificadas son
las siguientes:
Fuentes genéricas. Son aquellas que normalmente son fabricadas sin considerar, en sus
procesos, ningún control de calidad y utilizan sistemas de protección mínimas.
Fuentes certificadas. Son fuentes desarrolladas por fabricantes que obligan a pasar un
control de calidad de sus productos, donde se exigen estándares de funcionamiento
óptimo, y se aplican sistemas de protección máximas.
A continuación, se muestra una comparación entre las fuentes genéricas y las certificadas:
c. Placa Madre
Estos dispositivos pueden ser por medio magnético, óptico, electrónico. Los discos duros y las
memorias USB son los dispositivos de almacenamiento más utilizados en los computadores. La
información puede ser almacenada y leída cuando sea preciso. Se conectan por medio de
diferentes tipos de interfaces o puertos, tales como el puerto USB o la interfaz SATA y eSATA.
Las unidades de disco duro son dispositivos de discos magnéticos, se consideran los más
antiguos en el mercado y todavía se utilizan a gran escala. Los fabricantes crean cada vez
dispositivos de mayor capacidad, las cuales van desde gigabytes (GB) a terabytes (TB).
En el disco duro, están los programas que van a ser ejecutados por el CPU. Sin embargo, para
que esto se lleve a cabo, cada programa debe pasar a la memoria RAM, es decir, no se ejecuta
directamente del disco duro, porque se necesita que trabaje a mayor velocidad y esto solo es
posible en la RAM.
En el disco duro, debe estar el sistema operativo, pero este debe ser instalado y no,
simplemente, copiado; de igual manera, cada una de las aplicaciones debe ser instalada. Por
ello, se dice que el disco es el principal dispositivo de almacenamiento.
Eje Central. Actúa como soporte, sobre el cual están montados y giran al mismo tiempo
los platos del disco. Actualmente, giran a 5400, 7200 y 10 000 rpm.
Platos. Convencionalmente, los discos duros están compuestos por varios platos;
algunos vienen con un solo plato; otros, con dos o tres; incluso, algunos, con cuatro
platos. Antiguamente, los discos tenían dimensiones mayores por lo que era posible que
tengan muchos más platos. Los platos disponen de dos superficies donde se graba la
información en forma magnética. Se debe notar que, a mayor cantidad de platos, mayor
será la capacidad de almacenamiento del disco duro.
Cabezas de Lectura / Escritura. Permiten leer y escribir los datos en el disco duro en
forma magnética. Son pequeñas pastillas que se van a comportar como pequeños
imanes cuando se les aplica una corriente eléctrica.
Impulsor de Cabezales. Es el sistema que mueve las cabezas de lectura y escritura sobre
la superficie de los platos. Su intención es mover a los cabezales en conjunto.
Principio de funcionamiento
En el gráfico anterior, se puede apreciar que el disco duro tiene dos platos; por lo tanto, tiene
cuatro caras y cuatro cabezales; cada uno de ellos está numerado. Se comienza por el cabezal
cero, y superficie o cara cero. Los cuatro cabezales son desplazados simultáneamente por el
impulsor, de tal forma que se pueda acceder a toda la superficie donde se va a leer y escribir.
Los dos platos están fijos al eje central y giran por acción de un motor, el cual funciona a alta
velocidad. Algunos discos duros vienen preparados para trabajar a 5400 RPM, como los que
están en los computadores portátiles; muchos, a 7200 RPM, como los que tienen los
computadores de escritorio; y otros, a 10000 y 15000 RPM, que se identifican como de 10K y
15K RPM respectivamente, como los que requieren los servidores.
En la imagen anterior, se aprecia un disco de tres platos y seis cabezales. Estos cabezales están
en dos posiciones importantes. Primero, en el lado izquierdo de la imagen, se ve que los
cabezales están junto al eje central, zona de parqueo, es decir, los cabezales descansan sobre la
superficie de los platos, lo cual es posible cuando el disco duro está apagado. Segundo, en el
lado derecho de la imagen, se aprecia que los cabezales están muy cerca del borde de los platos,
track cero o pista cero, es decir, los cabezales no hacen contacto con la superficie, porque están
flotando y los platos están girando a 7200 RPM; pero si hicieran contacto con la superficie, esta
se dañaría; inclusive, si un cabezal hiciera contacto en la pista cero, el disco duro quedaría
inservible.
Características adicionales
El disco está marcado en PISTAS las cuales están divididas en pequeñas secciones llamadas
SECTORES. El sector es la porción mínima de información que se puede leer o escribir y, en él,
se puede escribir como máximo 512 bytes.
El sistema operativo permite ver al disco de manera lógica. El SO muestra al disco como un solo
rectángulo o dividido en dos más, llamadas particiones. Cada partición consta de millones de
pequeñas celdas llamadas clústeres. Si se relaciona a los clústeres con los sectores, se puede
decir que en un clúster hay uno o más sectores. Un caso particular es que un clúster tiene 4
sectores cuando se usa un sistema de archivos FAT 32. Windows puede usar los sistemas de
archivos FAT32 o NTFS.
b. Discos Ópticos
CD ROM (CD, por las siglas en inglés de Compact Disc) es un soporte digital óptico
utilizado para almacenar cualquier tipo de información (audio, imágenes, vídeo,
documentos y otros datos). Un CD-ROM tiene una capacidad de entre 650 y 700 Mb
(dependiendo de la marca).
HD DVD (por las siglas de High Density Digital Versatile Disc), traducido al español como
disco digital versátil de alta densidad, fue un formato de almacenamiento óptico
desarrollado como un estándar para el DVD de alta definición por las empresas Toshiba,
Microsoft y NEC, así como por varias productoras de cine. Puede almacenar hasta 30
GB.
Blu-ray, también conocido como BD (en inglés: Blu-ray Disc), es un formato de disco
óptico de nueva generación desarrollado por la BDA (siglas en inglés de Blu-ray Disc
Association), empleado para vídeo de alta definición y con una capacidad de
almacenamiento de datos de alta densidad, mayor que la del DVD.
Los SSD basados en flash, también conocidos como discos flash, no requieren baterías, lo cual
permite a los fabricantes replicar tamaños estándar del disco duro (1.8 pulgadas, 2.5 pulgadas y
3.5 pulgadas). Además, los SSD mantienen su información cuando desaparece la energía, porque
no son volátiles. La capacidad de almacenamiento va desde gigabytes (GB) hasta terabytes (TB).
Otra característica importante es que estos dispositivos de almacenamiento son muy rápidos,
ya que no tiene partes móviles, lo cual reduce ostensiblemente el tiempo de búsqueda, latencia,
no hacen ruido, proporciona más ahorro de energía y producen menos calor que las HDD. En el
mercado local están siendo más utilizados que los HDD
Formato M2
Esta es una interfaz que permite conectar dispositivos que suelen ser de un tamaño muy
reducido es compatible con las siguientes tecnologías PCI Express 3.0, SATA 3 y USB 3.0.
SSD M2
La unidad de almacenamiento SSD M.2, es una nueva propuesta que se ajusta a las nuevas
exigencias de la industria informática orientada para tarjetas de expansión de almacenamiento
montadas internamente de un factor de forma pequeño, por tal motivo se denomina que son
los discos ideales, entre las grandes características que tiene es el rendimiento y potencialidad.
Los SSD M2 se conectan directamente a la placa base, esto quiere decir que no necesita de cable
de conexión o transferencia de datos, esta conexión se puede hacer con soporte M2 (verificar
datos del fabricante) caso contrario puede adquirir tarjetas de expansión PCIe donde conectar
las unidades SSD M2.
Ventajas:
Desventajas
Interfaz de conexión
Es una interfaz para almacenamiento que se nutre de la tecnología PCI-Express, lo que le permite
al disco duro ofrecer un ancho de banda mucho más amplio en comparación con la interfaz SATA
que usan los SSD estándar. El protocolo NVMe lleva esto al límite, con velocidades que llegan
hasta los 2500 MBs por segundo. Nada que ver comparado con los 560 aproximados que puede
alcanzar un SSD con SATA III.
Ventajas
Desventajas
Es una memoria no volátil que utiliza la nueva tecnología 3D Xpoint, esto quiere decir que puede
almacenar procesos sin necesidad que la PC este encendida. Funciona como una memoria caché
entre la CPU y el disco duro, acelerando los accesos al disco duro de una manera espectacular,
así mismo destaca por lograr una latencia súper baja.
Características:
Requisitos
Ventajas
Accede directamente a los datos más utilizados, esto gracias a su tecnología 3D Xpoint.
Permite acelerar procesos en Pc que tienen HDD.
Brinda mayor velocidad, memoria y es menos cotosa.
La unidad Hibrida o unidad hibrida de estado sólido (Solid Sate Hard Disc, SSHD), es una nueva
tecnología que consiste en combinar las características del SDD y el disco duro convencional
HDD, consiguiendo así una unidad intermedia. Consiste en unir la alta velocidad de los SDD y la
gran capacidad de almacenamiento de los HDD.
Esta unidad está compuesta por discos rotatorios y un SDD pequeño, lo cual permite tener un
mejor rendimiento y es más rápido que un HDD, consume menos energía y genera menos calor
debido a que mantienen al motor y a los platos en descanso, los datos utilizados con mayor
frecuencia son almacenados en el SDD como memoria cache por ende se ingresa más rápido a
esta información esto gracias a un firmware inteligente.
USB es un tipo de dispositivo de almacenamiento de datos que utiliza memoria flash para
guardar datos e información. Estas memorias se han convertido en el sistema de
almacenamiento y transporte personal de datos más utilizado, desplazando en este uso a los
tradicionales CD y DVD.
Se pueden encontrar en el mercado fácilmente memorias de 4, 8, 16, 32, 64, 128, 256, 512GB,
y hasta 1TB. Las memorias con capacidades más altas son todavía muy caras, además,
teóricamente pueden retener los datos durante unos 20 años y escribirse hasta un millón de
veces.
En las computadoras modernas y si el BIOS lo admite, pueden arrancar un sistema operativo sin
necesidad de disco duro y es más rápido que con un lector de DVD. Se pueden encontrar
distribuciones de Linux que están contenidas completamente en una memoria USB y pueden
arrancar desde ella (Live CD).
Conector IDE
Cada canal soporta dos unidades IDE por medio de un cable plano con 3 conectores, uno se
conecta en la tarjeta madre y dos para 2 dispositivos IDE, uno es denominado Master (Maestro)
que se conecta en el extremo del cable y el otro es denominado Slave (Esclavo), que se conecta
en el conector del medio. Estos conectores fueron un estándar de conexión hasta hace bien
poco, siendo últimamente desplazado por el interfaz SATA (Serial ATA).
Conectores SATA
Figura 31: Interfaz SATA
Es una interfaz de transferencia de datos entre la placa base y los distintos dispositivos de
almacenamiento como puede ser el disco duro, lectores y re grabadores de CD/DVD/BR,
Unidades de Estado Sólido u otros dispositivos de altas prestaciones que están siendo todavía
desarrollados.
Actualmente hay 3 versiones principales de SATA, estas físicamente son iguales, la diferencia
está entre las velocidades de transferencia.
Se utiliza esta interfaz para el tipo de conexión externa, esto quiere decir para la transmisión de
datos entre pc y dispositivos, tiene una forma distinta de los cables y conectores SATA, también
tiene la característica de velocidad en transmisión de archivos, pero fue superado por USB 3.1.
Conector USB
Tipos de USB
USB tipo A USB tipo B USB micro B USB mini B USB tipo C
Actualmente las empresas manejan grandes volúmenes de información esto hace que el sistema
de respaldo convencional mediante cintas sea más tedioso y costoso (hardware, software,
mantenimiento e infraestructura), es por ello que en estos últimos años la tendencia en sistemas
de respaldo es en la nube conocido también como Cloud Backup.
Funcionamiento
El activo más importante de la empresa es la información y como tal puede verse afectada por
factores como robos, incendios, fallas de disco, virus u otros. Por ello, uno de los problemas más
importantes que debe resolver la empresa es la protección permanente de su información
crítica.
La medida más eficiente para la protección de los datos es una política eficiente de copias de
seguridad que incluya copias de seguridad completa y copias de seguridad incrementales. Este
plan de respaldo debe ir en función del volumen de información generada y la cantidad de
equipos críticos.
Seguro. - Muchos softwares de respaldo incluyen encriptación de datos lo cual debe ser
hecho localmente en el equipo antes del envío de la información.
EL TAPE BACKUP
El Tape Backup es un sistema que se utiliza para respaldar la información de los discos duros. La
diferencia con los discos es que su sistema de grabación y lectura es secuencial y utiliza un medio
magnético similar a una cinta de grabación de audio o de video. Este sistema de respaldo de
información es usado para los casos donde se quiere guardar grandes cantidades de
información. Por ejemplo, se puede grabar en una sola cinta magnética desde 320 GB hasta 6250
GB o 6.25 TB.
El proceso de grabación más utilizado es el tipo DLT (Digital Linear Tape), específicamente es el
Súper DLT, donde la grabación es lineal, como lo muestra el siguiente gráfico.
Súper DLT
Permite grabar la información en una cinta con capacidades, por ejemplo 800 GB sin comprimir
y 1600 GB comprimido. Su velocidad de transferencia es 122 MB/s. Tiene un solo drive.
Autoloader
Posee más de un drive y dispone hasta 16 slots para las cintas magnéticas. Puede almacenar
hasta 25.6 TB.
Tape Library
Son librerías de cintas usadas en las empresas que necesitan almacenar y hacer backups. Son
escalables desde 700 hasta 13,884 slots y pueden llegar a tener hasta 324 drives. La capacidad
máxima es de 75PB o 75000 TB.
Se sabe que una partición es un disco lógico creado dentro de un disco físico, pero un arreglo es
un disco lógico creado con varios discos físicos.
RAID 0
RAID es un arreglo de discos sin tolerancia a fallas, usa la técnica “STRIPING”, que distribuye la
información entre los diferentes discos y aumenta la capacidad de almacenamiento. Para ello,
se requiere un mínimo de 2 discos duros. También, se logra menor tiempo en el acceso al
aumentar la velocidad de grabación, es decir, si se utiliza 5 discos, se multiplicará por 5 la
velocidad. En este tipo de arreglo, no hay redundancia de información, por lo que, si alguno de
los discos se malogra, se pierde toda la información.
ESCUELA DE TECNOLOGÍAS DE LA INFORMACIÓN IES PRIVADO CIBERTEC
RAID 1
RAID 1 es llamado arreglo espejo, aplica la técnica “MIRRORING” o espejo, que consiste en
duplicar la información de un disco en otro. Sin embargo, desperdicia el 50% de la capacidad.
Asimismo, evita pérdida de información e interrupciones del sistema, debido a fallas del disco,
pero esto no le hace ganar velocidad.
RAID 5
RAID 5 permite alta capacidad, alta velocidad y seguridad en un disco duro. Para la seguridad,
usa la paridad distribuida. Por ejemplo, si un disco se malogra, será reemplazado y recuperada
toda su información por parte del sistema operativo. Este tipo de arreglo es el más usado en
servidores de base de datos, web, correo electrónico, etc.
RAID 10
Puertos y cables de video: Estos cables son muy importantes para el funcionamiento
del ordenador debido de que se encarga del envió de señales analógicas, digital o
ambas, trabajan con la tarjeta gráfica, esto quiere decir que son los encargados de
mostrar la parte grafica del ordenador. La calidad de imágenes dependerá del tipo de
señal que tenga.
Descripción Image
Interfaz visual digital (DVI, Digital Visual Interface): En la
mayoría de casos se utiliza en la conexión de un monitor
pantalla plana LCD o plasma hacia la tarjeta de video.
Transmite señales digitales de alta definición también señales
analógicas.
Conector de DisplayPort:
Este conector esta estandarizado por VESA para la
transmisión de audio y video. Se utiliza en equipos de alta
gama, también se pueden conectar en equipos de cine.
Mini DisplayPort:
Es una versión reducida del conector DisplayPort, se utiliza en
las implementaciones de Thunderbolt 1 y Thunderbolt 2.
HDMI (High-Definition Multimedia Interface):
Es el conector más utilizado actualmente, debido a que
permite el uso de menos cables así mismo permite imágenes
de alta definición; en un primer momento se utilizaba para
televisores de alta gama pero por sus características también
se utiliza en otros dispositivos.
Descripción Image
Conector VGA (Conector VGA):
Este conector se encarga de trasmitir señales analógicas, fue
desarrollado por IBM fue reemplazado por el formato XGA.
Conectores RCA:
También conocido como cable cinch, se encarga de
enviar señales audio o video, son muy utilizados en el mercado
audio visual. Pueden enviar señal analógica como digital.
Puertos PS/2: Este conector redondo consta de 6 pines, se utiliza para la conexión del
mouse y teclado, pero en la actualidad ya no se utilizan, fueron reemplazados por el USB
– Standard.
Puerto de red Ethernet: Un puerto de red, es una interfaz para conectar los dispositivos
a través de una red, la velocidad de la conexión dependerá del tipo de conector que se
utiliza, en la PC se identifica esta conexión por el conector RJ-45, la longitud máxima del
cable de red Ethernet es de 100 m.
Puertos y cables USB (USB, Universal Serial Bus): En la actualidad es el puerto más
utilizado por dos características es intercambiable lo cual indica que puedo incluir
cualquier dispositivo externo a la PC sin necesidad de apagar o reiniciar, la otra
característica es la velocidad en la transmisión de datos.
a. Teclado
Antiguamente, los teclados eran del tipo PS/2. Actualmente, esos teclados han quedado
obsoletos siendo desplazados por los actuales teclados USB y los inalámbricos, con unos diseños
más ergonómicos orientados a minimizar las lesiones producidas por movimientos repetitivos y
prolongados. Con la irrupción de Internet en nuestro ámbito doméstico y de trabajo, aparecen
los teclados multimedia que incorporan teclas especiales con atajos y accesos directos a
programas, correo electrónico, canal de noticias, la calculadora o el reproductor multimedia,
entre otros.
La desaparición del cable y su sustitución por los sistemas inalámbricos fue un salto tecnológico
importante, no solo para el teclado, sino también para el mouse. La comunicación de los
periféricos con el computador se realiza mediante bluetooth.
El siguiente paso evolutivo del teclado se centra en el propio soporte, dando lugar al teclado
ultra fino del Apple o al primer teclado flexible fabricado en silicona con la posibilidad de
doblarse sobre sí mismo y adaptarse a cualquier superficie. Estos últimos son resistentes a los
líquidos, y son compatibles con dispositivos portátiles y teléfonos inteligentes. En función de la
tecnología de sus teclas, se pueden clasificar como teclados de membrana –capacitivos– y
teclados de contacto metálico.
Por último, llegamos a la completa desmaterialización del teclado con el primer teclado virtual,
comercializado por Siemens formado por un pequeño proyector conectado al dispositivo, que
permite proyectar un teclado virtual sobre cualquier superficie o a la digitalización del teclado
sobre la misma pantalla táctil del iPad o el Smartphone.
b. Mouse
El ratón o mouse es un dispositivo indicador que permite mover una pequeña flecha (el puntero)
en la pantalla para interactuar con un programa del computador de una manera alternativa al
teclado. El computador detecta su movimiento relativo en dos dimensiones, por la superficie
plana en la que se apoya, reflejándose habitualmente, a través de un puntero, en el monitor.
Existen diferentes tipos de mouse; una de las diferencias es por el mecanismo que usa.
Mouses mecánicos, tienen una esfera de plástico o goma, en su parte inferior para
mover dos ruedas que generan pulsos, en respuesta al movimiento de este sobre la
superficie. La circuitería interna cuenta los pulsos generados por la rueda y envía la
información al computador.
Mouse óptico, es una variante que carece de la bola de goma que evita el frecuente
problema de la acumulación de suciedad en el eje de transmisión, y por sus
características ópticas es menos propenso a sufrir un inconveniente similar. Puede
ofrecer como mínimo 800 ppp, (ppp o dpi indica puntos por pulgada), hay modelos de
1000 y 1600 dpi. Su funcionamiento se basa en un sensor óptico que fotografía la
superficie sobre la que se encuentra y detectando las variaciones entre sucesivas
fotografías, se determina si el ratón ha cambiado su posición. En superficies pulidas o
sobre determinados materiales brillantes, el mouse óptico genera movimiento nervioso
sobre la pantalla. Por eso, se hace necesario el uso de una superficie que no sea brillante
y mejor si carece de grabados multicolores que puedan "confundir" la información
luminosa censada.
Mouse láser, es más sensible y preciso, haciéndolo aconsejable especialmente para los
diseñadores gráficos y los jugadores de videojuegos. También, detecta el movimiento
deslizándose sobre una superficie horizontal, pero el haz de luz de tecnología óptica se
sustituye por un láser con resoluciones a partir de 2000 ppp, lo que se traduce en un
aumento significativo de la precisión y sensibilidad, algunos modelos alcanzan hasta
8200 dpi.
c. Tableta digitalizadora
Simplemente, haga clic con el bolígrafo en algunas de las teclas de acceso rápido programables
para acceder de forma instantánea a funciones de Office e Internet. El bolígrafo dispone de dos
botones y una sensibilidad de 1024 niveles de presión para el dibujo y la escritura.
d. Escáner
Tiempo atrás, se usaban escáneres de mano (se tenía que desplazar el aparato por la hoja), de
rodillo (se introduce la hoja por un lado y un motor la va desplazando, como un fax) y de mesa.
En la actualidad, estos últimos son los modelos más apreciados por su buena relación
precio/prestaciones.
Funcionamiento
El escáner tiene una misión de transformar una imagen en señales digitales que pueden ser
enviadas a un computador. Esto lo realiza dividiendo la imagen en una cuadrícula y
representando cada uno de estos cuadrados con un 0 o un 1 dependiendo si este está relleno.
Principio de funcionamiento
El escáner censa a lo largo del documento, línea por línea. Cada línea se divide en “puntos
básicos” que corresponden a píxeles. El capturador analiza el color de cada píxel; este color se
divide en 3 componentes (rojo, verde, azul). Cada componente de color se mide y se representa
mediante un valor. En el caso de una cuantificación de 8 bits, cada componente tendrá un valor
de entre 0 y 225.
El escáner plano dispone de una ranura iluminada con motor, la cual escanea el documento línea
por línea, bajo un panel de vidrio transparente sobre el cual se coloca el documento, con la cara
que se escaneará hacia abajo.
La luz de alta intensidad emitida se refleja en el documento y converge hacia una serie de
capturadores, mediante un sistema de lentes y espejos. Los capturadores convierten las
intensidades de luz recibidas en señales eléctricas, las cuales a su vez son convertidas en
información digital, gracias a un conversor analógico-digital.
Los capturadores CCD (Dispositivos de Carga Acoplados). Los escáneres que utilizan la
tecnología CCD son, por lo general, de un espesor mayor, ya que utilizan una luz de neón
fría. Sin embargo, la calidad de la imagen escaneada en conjunto resulta mejor, dado
que la proporción señal/ruido es menor.
La resolución se mide en dpi o ppp (dots per inch o puntos por pulgada). La resolución óptica
depende del número de detectores CCD de que disponga el escáner. Además, indica la máxima
resolución real que puede alcanzar.
La resolución interpolada, es el resultado de una serie de cálculos que permite obtener una
mayor resolución. La interpolación es una forma sencilla de mejorar la calidad de digitalización
mediante el software. La mayoría de las aplicaciones de escáner disponen de un método de
interpolación. De esta manera, el software crea artificialmente un punto suplementario entre
cada dos puntos, atribuyéndole como valor la media de los puntos a ambos lados. Con esto se
consigue suavizar la imagen aumentada la resolución aparente. Por ejemplo, un escáner Epson
Perfection tiene los siguientes datos:
Resolución Óptica : 600 dpi.
Resolución Interpolada : Máxima a 9600 dpi.
La mayoría de los escáneres alcanzan 600 dpi, pero modelos más caros pueden llegar a alcanzar
los 2400 y 4800 dpi, con lo que la fiel reproducción del original queda asegurada.
Evidentemente, no es lo mismo digitalizar una foto para ponerla de fondo de pantalla en el
Windows, que para que sea portada de una revista.
Profundidad de color
Este parámetro, expresado en bits, indica el número de tonalidades de color que un pixel puede
adoptar; lo normal en la actualidad es un valor de 24 bits por píxeles. Aunque hasta hace poco,
los escáneres de blanco y negro, tonos de grises o 256 colores eran muy populares, lo cierto es
que los 24 bits de color se han convertido en un estándar, lógico si se tiene en cuenta que en la
actualidad cualquier tarjeta gráfica es capaz de mostrar esta cantidad de colores. Sin embargo,
hay escáneres capaces de utilizar mayor cantidad de bits de color, pero la mayoría lo hacen a
nivel interno, para disminuir el intervalo entre una tonalidad y la siguiente; posteriormente, lo
que envían al PC son únicamente 24 bits.
Un factor a tener en cuenta es que, cuanta más resolución y profundidad de color se quiera, más
memoria RAM se necesitará, por lo que es recomendable disponer de la mayor cantidad de
memoria RAM en nuestro computador. Además, cuanta más calidad se quiera, más tardará el
escáner en recorrer la imagen, por lo que habrá que buscar el escáner que mejor relación
calidad-velocidad-precio ofrezca.
Para tener una referencia, veamos las características del siguiente escáner.
Escáner plano HP Scanjet N6350, resolución 2400 dpi, profundidad de color 48 bits, bandeja de
entrada: 50 hojas, conectividad USB 2.0 / Ethernet.
Características resaltantes:
Se selecciona tareas con facilidad usando la pantalla LCD de cuatro líneas y el teclado
numérico de 10 dígitos del escáner, luego se completa los trabajos más rápido con el
alimentador automático de documentos para 50 páginas. Además, escanea ambas caras
de una página sin usar manos, gracias al dispositivo de escaneo a doble cara integrado.
Para los aficionados a los juegos, se ofrecen una variedad de dispositivos que le hacen más fácil
convertir a su computador en un equipo de juego, dentro de los cuales hay variedades de
mandos, joysticks y volantes, cada uno de ellos apropiados para algún tipo de juego.
Un sistema de reconocimiento de voz está formado por un micrófono, como medio de entrada
de la voz, y un software especial que se ejecuta en el computador. Las palabras que “captura”
el micrófono son convertidas en un conjunto de números binarios. Cada número representa un
pequeño segmento del sonido. El computador compara el patrón producido por el sonido de la
palabra hablada, contra los patrones almacenados. El computador reconoce la palabra cuando
encuentra una igualdad entre el sonido captado y el patrón almacenado.
Usos y aplicaciones
Dictado automático. Este es, hasta hoy, el uso más común de las tecnologías de
reconocimiento de voz.
Control por comandos. Los sistemas de reconocimiento de habla diseñados para dar
órdenes a un computador ("Abrir Firefox", "cerrar ventana") se llaman Control por
Comandos. Estos sistemas reconocen un vocabulario muy reducido, lo que incrementa
su rendimiento.
g. Cámaras Web
Una cámara Web (en inglés: webcam) es una pequeña cámara digital conectada al computador,
la cual puede capturar imágenes y transmitirlas a través de Internet, ya sea a una página web o
a otra u otras computadoras de forma privada. Las cámaras web necesitan una computadora
para transmitir las imágenes. Sin embargo, existen otras cámaras autónomas que tan solo
necesitan acceso a la red, ya sea con cable o de manera inalámbrica. Para diferenciarlas de las
cámaras web, se las denomina cámaras de red.
Son dispositivos ópticos que digitalizan y almacenan imágenes en movimiento para ser
procesadas en el computador. Algunas de sus características son las siguientes:
Usan el puerto USB.
Pueden generar hasta 16.7 millones de colores.
Registran hasta 30 cuadros por segundo.
Algunas incorporan un micrófono de alta calidad para videoconferencias.
Una pantalla táctil (touchscreen en inglés) o pantalla sensible al tacto es una pantalla que
mediante un contacto directo sobre su superficie permite la entrada de datos y órdenes al
dispositivo. A su vez, actúa como periférico de salida, mostrando los resultados introducidos
previamente. Han llegado a ser comunes en laptops, en cajeros automáticos, tablets y en los
celulares, entre otros.
Resistivas: Son las más baratas y no les afectan el polvo ni el agua salada y, además de
ser más precisas, pueden ser usadas con un puntero o con el dedo. Sin embargo, tienen
hasta un 25% menos de brillo y son más gruesas.
Diferentes tecnologías pueden ser usadas para determinar en qué posición de la pantalla fue
hecho el toque. La posición es enviada al controlador para el procesamiento. La calidad de
imagen es mejor, tienen mejor respuesta y algunas permiten el uso de varios dedos a la vez
(multitouch).
a. Monitor
Las señales que se envían, tienen la información del color de cada uno de los píxeles, mediante
la combinación de tres colores básicos: rojo (R), verde (G) y azul (B).
El píxel es un punto de la pantalla, mediante el cual se forman las imágenes. Para que el monitor
pueda darle el color a cada píxel, hace uso de las triadas, la triada está formada por tres celdas
pintadas con color rojo, verde y azul.
Para determinar diferencias entre los monitores, es apropiado resaltar las siguientes
características:
Tamaño. El tamaño es medido en pulgadas y es medido diagonalmente, existen
diferentes tamaños, dentro de los cuales encontramos de 9, 14, 15, 17, 20, etc. Cada
uno de los tamaños diferentes es apropiado para alguna aplicación.
Cantidad de colores. Las imágenes son formadas por píxeles y la diferencia que existe
entre los diferentes píxeles de una imagen es el color.
Para guardar el color digitalmente dentro del computador, se le asigna una cantidad de
bits a cada píxel. Si se le asigna un bit a cada píxel, solo se podrá tener dos colores
posibles. Sin embargo, si se le asigna “n” bits, cada píxel puede tener un color elegido
de una variedad de 2 a la n.
Se puede apreciar una imagen, con cuatro configuraciones distintas, todas tienen la
misma resolución o cantidad de píxeles, pero se diferencias en la cantidad de bits que
tienen asignados sus píxeles, con lo cual, a mayor cantidad de bits, mayor es la cantidad
de colores diferentes para formar las imágenes.
La pantalla de un monitor a color debe ser capaz de reproducir los colores de una imagen por
medio de la mezcla aditiva de luces de 3 colores RGB (Red, Green y Blue). Para conseguir esto,
el interior de la pantalla debe estar recubierto por pequeñas celdas pintadas con fósforo rojo,
verde y azul.
Existen 3 haces electrónicos separados, cada uno de los cuales incidirá sobre un determinado
color de celda. Esto dará lugar a tripletas de luces puntuales de 3 colores que por su proximidad
se juntarán aditivamente en el ojo humano y permitirán reproducir casi toda la variedad de
colores posibles. Cada pixel está formado por una o más triadas RGB.
La iluminación se debe al impacto de los electrones sobre el fósforo de las triadas, para ello se
requiere de la generación de alta tensión (15000 voltios, por ejemplo) y se genera radiación.
Monitores LCD
Los monitores LCD están basados en el uso de cristales líquidos, los cuales pueden ser orientados
para controlar la cantidad de luz que sale externamente. El color lo consiguen en base a la
combinación de los tres colores básicos, para ello usan como triada, filtros de luz de color rojo,
verde y azul.
Los píxeles se iluminan con la luz blanca que atraviesa el cristal líquido e impacta los filtros RGB,
a la distancia se parecieran puntos de diferentes colores. Poseen radiación casi nula y un bajo
consumo eléctrico.
Monitores Plasma
En los monitores plasma, cada píxel está formado por tres celdas de fósforo RGB encapsuladas
con gas de xenón o neón.
La iluminación de los píxeles se debe a la reacción de la luz generada por el gas sobre la capa de
fósforo de las celdas.
Monitores LED
Los monitores LED funcionan con materiales orgánicos que generan luz. Poseen mayor rango de
colores y menor consumo de energía que los Plasma y LCD y permite la fabricación de monitores
ultra delgados.
b. Impresora
Una impresora es un dispositivo de salida que convierte las señales que el computador le envía
en texto y en gráficas sobre papel.
Tipos de impresoras
Son económicas en cuanto a sus insumos, pero el precio de la impresora es elevado y son
elegidas por las empresas para aplicaciones de planillas, facturación y actividades relacionadas
con la contabilidad.
Las impresoras de inyección de tinta, también conocidas como impresoras de chorro de tinta,
tienen un cabezal de impresión muy similar a la de las de matriz de puntos, pero en lugar de
tener diminutas agujas que forman puntos en el papel a base de golpes, tienen unas diminutas
toberas que inyectan gotas microscópicas de tinta contra el papel. Estas impresoras son muy
silenciosas debido a que no son de impacto y producen una alta calidad de impresión.
Impresora Láser
Las impresoras láser son muy similares a una fotocopiadora. Estas impresoras también son muy
silenciosas y producen una excelente calidad de impresión. Las impresiones pueden ser a color
y en blanco y negro, es poco común las de color, por su precio elevado, mientras que las que
usan solo tóner negro son de mayor uso.
Plotter
Plotter es un tipo de impresora que usa pluma o lapicero que se mueve (algunas veces también
se mueve el papel) y crea gráficos de alta calidad, como los utilizados en dibujos arquitectónicos.
Existen diseños de tambor giratorio o placa plana. Los trazadores modernos pueden elaborar
dibujos en varios colores.
En algunos plotters, el papel puede desplazarse verticalmente en los dos sentidos enrollándose
o desenrollándose. Por el contrario, el desplazamiento horizontal es tarea de la pluma (o
plumas) de escritura.
Los actuales plotters han cambiado la pluma por un cabezal de inyección de tinta y la impresión
es de gráficos de alta calidad y gran tamaño (gigantografía).
Impresora 3D
La impresora 3D permite imprimir diseños en 3D, para crear piezas o maquetas volumétricas a
partir de un diseño hecho desde un computador. Se utiliza para crear prototipos reales en 3D,
como el caso de la fabricación de prótesis médicas, ya que la impresión 3D permite adaptar cada
pieza fabricada a las características exactas de cada paciente.
Según el método empleado para la compactación del polvo, se pueden clasificar en lo siguiente:
o Impresoras 3D de tinta: Utilizan una tinta aglomerante para compactar el polvo. El uso
de la tinta permite la impresión en diferentes colores.
Componente Consideraciones
Placa Base Tipo de placa: Integral o pura.
Posibilidad de actualizaciones.
Formato de la placa.
Socket del procesador (determina la marca).
Conectores y posibilidad de ampliación.
Sistema de refrigeración.
Procesador Determinar la marca.
Determinar cantidad de núcleos.
Capacidad de la memoria cache.
Compatibilidad con la placa y componentes.
Tecnología y generación.
Tarjeta gráfica Compatibilidad con el equipo.
Tamaño y tipo de conexión.
Refrigeración, conectores, alimentación y salida de video.
Capacidad y ancho de banda.
Disco duro Tipo de disco duro: HDD, SSD o hibrido.
Capacidad de almacenamiento.
Velocidad.
Interfaz de conectividad.
Factor de forma.
Durabilidad.
Memoria RAM Compatibilidad con el resto de los componentes.
Tipo de memoria.
Priorizar velocidad y Latencia.
Doble o cuádruple de canales.
Monitor Tamaño según el uso.
Tecnología de la pantalla.
Resolución y densidad de pixeles.
Resumen
1. El disco duro es el dispositivo de almacenamiento más importante del computador.
3. Los discos de estado sólido SSD están basados en las memorias flash, por lo que también
se les llama discos flash.
4. El Tape Backup es un sistema que se utiliza para respaldar la información de los discos duros
en cintas magnéticas.
5. Un RAID es un disco lógico creado por varios discos físicos, que permite incrementar la
capacidad, la velocidad y la seguridad de los sistemas de almacenamiento
6. Existen varios tipos de RAID: Raid 0, Raid 1, Raid 5, Raid 10, etc.
Recursos
Pueden revisar los siguientes enlaces para ampliar los conceptos vistos en esta unidad:
La placa madre conocida también como motherboard (en inglés), llega hacer la tarjeta principal
del computador, es una parte elemental debido a que permite la conexión lógica y eléctrica de
los diversos componentes del computador así mismo es la pieza fundamental para que el
computador tenga una excelente velocidad de respuesta y buen rendimiento. Físicamente ha
evolucionado, antes estaba constituida por baquelita, pero se dejó de utilizar por ser de un
material más frágil; actualmente se utiliza en mayor escala del tipo fibra de vidrio, por brindar
mayor resistencia, aislamiento, ser económico y de mejor calidad, también se encuentra de tipo
teflón que son realmente buenas por su resistencia mecánica alta, no tiene tendencia a absorber
la humedad y es un buen aislante, pero su costo es elevado.
(Berral, 2014) Considera que: “La placa base o placa madre es el elemento más importante del
ordenador. Está pensada y diseñada para albergar distintos tipos de procesadores (o
microprocesadores como se les denominaba) de la misma gama, y, por tanto, existirán modelos
de distintos tipos y fabricante”.
De acuerdo con el requerimiento que tengan los usuarios, una mainboard puede ser pura o
integrada
Es aquella que no trae componentes integrados como sonido, red, video. Son conocidas también
como “no integradas”. ¿Cómo reconocerlas? La manera más fácil es verificando que no tengan
conectores de Audio, Video ni Red y, además, que tengan ranuras o slots de video (PCI Express
16x).
Sin embargo, ¿en estos días podemos encontrar placas puras en el mercado? Son muy raras,
exceptuando a las de alto rendimiento, diseñadas para usuarios exigentes, gamers, servidores,
etc. Son muy pocas las que no traigan sonido, red y hasta video integrado y con slots de
expansión.
En la actualidad, las mainboards puras ya no existen, y a las que podríamos considerar puras, no
integran el video.
La mainboard de la imagen no tiene puerto de video, pero tiene ranuras de expansión PCI exp
16x para instalar tarjetas controladoras de video. La ventaja de estas mainboards es que no
utilizan la memoria RAM para trabajar el sistema de video, razón por la cual tienen mejor
rendimiento.
Es aquella que tiene integrada la tarjeta de sonido, red y video en la placa madre. Es decir, todos
los chips controladores vienen integrados, lo que permite acceder a estos a menos costo, así
mismo evitar un sobrecalentamiento del computador.
La mainboard aloja varios componentes, entre los cuales se encuentran los más importantes del
computador. La siguiente lista muestra algunos de los componentes que comúnmente
encontramos en una mainboard:
Fabricante INTEL
Sockets INTEL
LGA 2011(775 pines) LGA 1150 (1155 pines)
Fabricante AMD
Sockets AMD
FM1 FM2+
AM3 + AM4
Los zócalos de memoria RAM permiten la instalación de los módulos de memoria RAM. Estos
zócalos inicialmente eran de tecnología single cannel, actualmente son dual, triple y cuádruple
canal.
Single channel. Los zócalos son de un solo color. Con esta tecnología, el
microprocesador solo se puede comunicar con un módulo de memoria a la vez.
Dual channel: Los zócalos son de dos colores. Con esta tecnología el microprocesador
puede comunicarse con dos módulos de memoria a la vez. Ello significa que el
microprocesador por cada vez que se comunica con las memorias RAM puede leer o
escribir 128 bits de datos (64 bits de cada módulo). Para utilizar esta tecnología, hay que
colocar los módulos de memoria en los zócalos del mismo color.
Triple channel: Los zócalos son también de dos colores, pero en total son seis ranuras
que se disponen en la mainboard. Con esta tecnología, el microprocesador puede
comunicarse con tres módulos de memoria a la vez. Ello significa que el
microprocesador por cada vez que se comunica con las memorias RAM puede leer o
escribir 192 bits de datos (64 bits de cada módulo). Para utilizar esta tecnología, hay que
colocar siempre los módulos de memoria en los zócalos del mismo color.
c. El Chipset
El chipset es un conjunto de dos chips instalados en la mainboard. Estos son conocidos como
North Bridge (puente norte) y South Bridge (puente sur). Estos permiten que el microprocesador
se pueda comunicar con todos los componentes del computador. El chipset norte y sur, de
acuerdo con las características que posean, definen el modelo y capacidad de la mainboard.
Intel ha desarrollado diversos chipsets, porque, cada vez que aparece un nuevo
microprocesador, debe desarrollarse un chipset que lo soporte y pueda ayudarlo en el
procesamiento. En cada nuevo chipset, se notan los cambios realizados. Ejemplos de estos
cambios son los siguientes, tomados de su página web: www.intel.com.
En el siguiente diagrama en bloques de una mainboard Intel con microprocesador Core i7, puede
verse al chipset norte controlando al sistema de video; y la RAM se comunica directamente con
el microprocesador.
En otros modelos, el puente norte ha sido integrado por el procesador; por ello, el CPU se
conecta directamente a la memoria RAM y la tarjeta de video.
El puente sur sigue comunicando los puertos, las interfaces de discos y las ranuras de expansión
con el microprocesador, además del BIOS.
d. ROM BIOS
La ROM BIOS es una memoria relativamente pequeña de solo lectura. Sus iniciales ROM indican
Read Only Memory (memoria de solo lectura) y BIOS indican Basic Input Output System (sistema
básico de entrada y salida).
Esta memoria es fundamental y contiene los tres primeros programas que el microprocesador
ejecuta: el SETUP, POST y BOOT. El SETUP es el programa que permite a los usuarios configurar
la mainboard; el POST es un programa de auto diagnóstico de los componentes del computador;
y el BOOT es el programa que gestiona la carga del sistema operativo.
Las ranuras o slots de expansión permiten la instalación de nuevas tarjetas controladoras. Estas
ranuras son del tipo PCI, AGP (antiguas) y PCI Express (actual).
En estas ranuras, se pueden instar todo tipo de tarjetas controladoras como de audio, de red,
de video, de tv, de expansión de puertos, de interfaces, etc.
f. Puertos
Los puertos son las vías de conexión que permiten adaptar todo tipo de dispositivos periféricos,
como el mouse, teclado, monitor, parlantes, memorias USB, discos duros externos, impresoras,
escáneres, etc.
RAM de video o VRAM: Las tarjetas de video necesitan usar memoria RAM, la cual se llama
VRAM (RAM de video). Esta se usa para almacenar los gráficos que se deben mostrar en el
monitor. La información de las imágenes está almacenada como un conjunto de bits, los cuales
corresponden a la imagen digitalizada, y el procesador de video es el que se encarga de convertir
los ceros y unos en señales para enviarlas al monitor, a través de un conector.
La RAM Principal: Esta es la memoria que, hasta ahora, se ha llamado, simplemente, RAM. Su
función es almacenar el sistema operativo y las aplicaciones, ya que, de acuerdo con el diseño
del computador, todos los programas a ser ejecutados deben ser cargados a la memoria RAM.
Esta memoria ha evolucionado mucho y se ha tratado de mejorar su capacidad de
almacenamiento como, también, su velocidad.
La Memoria caché: Es la memoria más rápida del sistema y se utiliza para acelerar el acceso a
memoria de nuestro procesador, tiene un almacén temporal de alta velocidad y de baja
capacidad que se encuentra dentro del procesador. Esta memoria permite que el CPU pueda
trabajar a su velocidad de proceso, ya que con la memoria RAM no lo puede conseguir. Como
se ha visto anteriormente, las velocidades de los módulos de RAM son inferiores a la velocidad
del CPU.
Memoria caché L1: Se encuentra dentro de los núcleos de los procesadores, se integra
en la CPU, se utiliza para los datos y las instrucciones. Es la más pequeña, rápida y cara.
Memoria caché L2: Esta memoria se integra a la CPU, se puede dar de las siguientes
formas: compartida por todos los núcleos o junto en cada núcleo del procesador, tiene
un costo menor que la L1.
Memoria caché L3: Se usan en algunas estaciones de trabajo, es la que tiene mayor
tamaño y la que comparten todos los núcleos del procesador.
La ROM BIOS: Es una memoria no volátil, en la cual se almacena el BIOS (Sistema Básico de
Entrada / Salida). Se vio que esta memoria es importante en el momento del encendido, ya que
el programa que tiene permite al CPU realizar la carga del sistema operativo del disco duro a la
memoria RAM.
El BIOS es un sistema básico conformado por un grupo de programas, entre los cuales se
encuentra: el POST, el BOOT y el SETUP. Ha sido desarrollado por diferentes empresas, dentro
de las cuales las más importantes son AMI y AWARD. Sin embargo, en los últimos tiempos, están
tomando importancia el BIOS de Compaq, IBM, INTEL, entre otros.
Empresas de BIOS:
Cada vez que se enciende el computador, se ejecuta el POST y, al culminar, muestra un mensaje
que invita a ingresar al SETUP. Para ingresar al SETUP, en algunos casos, se indica presionar F1;
en otros, F2; también, F10; y en la mayoría, la tecla DEL o suprimir.
h. Factor Forma
Las placas madres son elaboradas en base a tamaños estándar, siendo necesario conocer el
formato de la placa porque nos permitirá determinar la tecnología y disposición física de los
diferentes componentes y dispositivos. Los formatos más utilizados son:
Resumen
1. El CASE o gabinete, es una estructura de metal y plástico de forma rectangular, donde se
alojan los componentes internos del computador.
Recursos
Pueden revisar los siguientes enlaces para ampliar los conceptos vistos en esta unidad:
1.3. MICROPROCESADORES
1.3.1. Conceptos
El microprocesador es el chip más importante del computador, está formado en su interior por
miles de millones de transistores, interconectados complejamente para desarrollar la función
más importante en el computador, aunque repetitiva: leer, interpretar y ejecutar instrucciones
de programa. Esta función la realiza desde que encendemos hasta que apagamos el
computador.
Su función es procesar una a una las instrucciones que conforman el programa que se ha
decidido ejecutar. Normalmente, un programa está formado por miles y millones de
instrucciones. Por consiguiente, el microprocesador debe ser muy veloz para ejecutar esta gran
cantidad de instrucciones.
Supongamos que, como usuarios, decidimos ejecutar un programa, como por ejemplo el
programa Word de Microsoft Office. Este programa inicialmente está instalado en el disco duro,
pero al ejecutarlo, se realiza una copia del programa y se traslada a la memoria RAM.
Una vez que las instrucciones del programa Word están en RAM, el microprocesador debe
cumplir con su función rutinaria de leer, interpretar y ejecutar una a una las instrucciones del
programa Word. ¿Cómo hace para comunicarse con la memoria RAM? ¿Qué elementos físicos
emplea para realizar tal labor?
En este diagrama, se ve al CPU, el cual tiene como función procesar instrucciones. De acuerdo
con el diseño del computador, estas instrucciones deben estar en la memoria RAM, tal como se
ve en el gráfico. Para que el CPU acceda a la RAM, se dispone de los buses de datos, de
direcciones y de control.
Core 2 Quad
Atom
Core i
Xeon
Athlon II
Phenom
Opteron
La empresa AMD incorporo HyperTransport, esta técnica permite una mayor velocidad con una
latencia muy reducida.
Especificaciones
Resumen
1. El CPU ejecuta las instrucciones que se encuentran en la RAM.
Recursos
Pueden revisar los siguientes enlaces para ampliar los conceptos vistos en esta unidad:
Este software pone la capacidad de cómputo del sistema al alcance de los usuarios y administra
cuidadosamente el hardware para lograr un buen rendimiento.
Los sistemas operativos son, ante todo, administradores de recursos. Los principales recursos
que administran son el hardware del computador (los procesadores, los medios de
almacenamiento, los dispositivos de entrada/salida, los dispositivos de comunicación) y el
software (programas de aplicación).
Los sistemas operativos realizan muchas funciones, como proporcionar la interfaz con el
usuario, permitir que los usuarios compartan, entre sí, el hardware y demás recursos, facilitar la
entrada y salida de datos, permitir recuperarse de los errores, contabilizar el uso de los recursos,
facilitar las operaciones en paralelo, organizar los datos para lograr un acceso rápido y seguro,
y manejar las comunicaciones en la red.
El gráfico anterior ilustra la forma en que el sistema operativo se relaciona con el hardware y
toma control de él. Por otro lado, se aprecia que los usuarios no tienen contacto directo con el
sistema operativo, sino, a través de los programas de aplicación y de sistema.
Uno de los propósitos del sistema operativo, consiste en gestionar los recursos de ubicación y
protección de acceso del hardware, lo cual alivia a los programadores de aplicaciones, de tener
que tratar con estos detalles.
Los programas de Sistema controlan operaciones del computador mientras que los programas
de Aplicación, son las llamadas Herramientas para el usuario, que pueden ser un diseñador o un
usuario final.
Los recursos que administran los Sistemas Operativos son Procesos, Memoria, Dispositivos de
Entrada y Salida, y Sistema de Archivos.
Si se tiene una lista de tareas o procesos a realizar, a estas se les fija una prioridad, que puede
ser alta, media o baja. Posteriormente, se ejecutan las tareas de prioridad alta y cuando se
terminen, se sigue con las de media y después las de baja prioridad, una vez realizados los
procesos, estos se van tachando, marcando su finalización. Esto puede traer un problema con
los procesos de baja prioridad, puede que nunca lleguen a ejecutarse y permanezcan en la lista
para siempre, para solucionar esto, se puede asignar alta prioridad a los procesos más antiguos.
Estados de un proceso
Listo: El proceso está esperando ser asignado al procesador para su ejecución. Una CPU
clásica (con un solo núcleo) solo se puede dedicar en cada momento a un proceso. Los
procesos que están preparados para ejecutarse permanecen en estado listo hasta que
se les concede la CPU. Entonces pasan al estado “En ejecución”.
Terminado: El proceso ha sido sacado del grupo de procesos ejecutables por el sistema
operativo. Después de que un proceso es marcado como terminado se liberarán los
recursos utilizados por ese proceso, por ejemplo, la memoria.
El sistema operativo tiene su Administrador de Procesos, el cual cumple las siguientes funciones:
Llevar el control de los procesadores y el estado de los procesos.
Asignar el CPU al proceso elegido.
Recuperar el CPU si el proceso termina.
Parar y reanudar procesos.
Ofrecer mecanismos para que los procesos puedan comunicarse y se sincronicen.
Memoria. La memoria es una gran tabla de bytes que se referencian cada una mediante una
dirección única. Este almacén de datos de rápido acceso es compartido por la CPU y los
dispositivos de E/S, esta memoria es volátil y pierde su contenido ante fallos del sistema.
Para esto, se emplea un administrador de memoria, el cual cumple las siguientes funciones:
Llevar el registro de la memoria, conociendo qué partes de la misma están siendo
utilizadas y por quién.
Supervisar el cumplimiento de políticas de seguridad.
Asignar memoria a los procesos, decidiendo qué procesos se cargarán en memoria,
cuando haya espacio disponible.
Recuperar memoria que no se está usando.
Decidir qué proceso tiene acceso a la información en función de los esquemas de protección.
Esto toma importancia, por ejemplo, cuando se usa el sistema de archivos NTFS.
Desde el punto de vista del usuario, estas diferencias pueden parecer insignificantes a primera
vista; sin embargo, existen diferencias muy importantes. Por ejemplo, los sistemas de archivos
FAT32 y NTFS, que se utilizan fundamentalmente en sistemas operativos de Microsoft, tienen
una gran diferencia para un usuario que utilice una base de datos con bastante información ya
que el tamaño máximo de un fichero con un sistema de archivos FAT32 está limitado a 4
gigabytes, sin embargo, en un sistema NTFS el tamaño es considerablemente mayor, también
se puede establecer diferencias entre ambos, ya que NTFS permite darle seguridad a los a los
archivos. Esto no ocurre en FAT32.
Modos de Operación
Los modos de ejecución en un CPU. Por medidas de seguridad, las aplicaciones no deben poder
usar todas las instrucciones del CPU. Por otro lado, el Sistema Operativo tiene que poder utilizar
toda la capacidad de instrucciones del CPU; por ello, un CPU debe tener (al menos) dos modos
de operación diferentes:
Modo usuario: El CPU podrá ejecutar solo las instrucciones del juego restringido de las
aplicaciones.
Modo supervisor: El CPU debe poder ejecutar el juego completo de instrucciones.
Los sistemas operativos se clasifican de acuerdo con el modo en que operan y el hardware que
administran. Así, existe la siguiente clasificación:
En el primer método, los programas son ejecutados periódicamente por el CPU bajo
supervisión del sistema operativo. A este método, se le llama multitarea cooperativa y
es el método utilizado por los primeros sistemas operativos como DOS.
Las órdenes se introducen siguiendo la sintaxis incorporada por dicho intérprete, dentro
del entorno proporcionado por el emulador de terminal. A continuación, se muestra un
ejemplo gráfico:
b. El Kernel: El núcleo o kernel es un software que constituye una parte fundamental del
sistema operativo, y se define como la parte que se ejecuta en modo privilegiado
(conocido también como modo núcleo).
Acceder al hardware directamente puede ser realmente complejo, por lo que los
núcleos suelen implementar una serie de abstracciones del hardware. Esto permite
esconder la complejidad, y proporciona una interfaz limpia y uniforme al hardware
subyacente, lo que facilita su uso al programador.
En el mundo de los sistemas operativos vamos a encontrar diversos sistemas que respondan a
diferentes necesidades por ejemplo podemos catalogar a los sistemas operativos para usuarios
finales, servidores, dispositivos inteligentes y ahora internet de las cosas.
a. Microsoft Windows
El sistema operativo basado en una interfaz gráfica de usuario (GUI) fue introducido en 1985 y
se han liberado muchas versiones. Windows se ha convertido desde ese entonces en el sistema
operativo insignia de Microsoft. Bill Gates, Paul Allen y Steve Ballmer habían comenzaron en ese
entonces la colaboración más influyente en la historia del software de computadora. Microsoft
se hizo famoso con el lanzamiento de MS DOS, un sistema operativo basado en texto guiado por
la línea de comandos. DOS se basaba principalmente en una propiedad intelectual comprada,
QDOS.
Versiones Descripción
Fue anunciado en 1983 por Bill Gates, su lanzamiento no se
produjo hasta dos años más tarde, concretamente el 20 de
Windows 1 (1985)
noviembre de 1985. Se popularizó gracias a su interfaz gráfica
basada en ventanas que le da su nombre.
Dos años más tarde (9/12/1987) Microsoft lanza Windows 2.0 con
iconos de escritorio, memoria ampliada, mejores gráficos y la
posibilidad de superponer ventanas, controlar el diseño de la
Windows 2 (1987)
pantalla y usar atajos con el teclado para acelerar el trabajo.
Constituyó la primera plataforma de Windows para aplicaciones
hoy en día tan comunes como Word o Excel.
El 22 de mayo de 1990 aparece Windows 3.0, la primera versión
que alcanzó éxito comercial, con varios millones de ventas en el
Windows 3 (1990) primer año. Se introdujeron cambios en la interfaz de usuario
importantes, además de mejorar la explotación de la capacidad de
gestión de la memoria de los procesadores.
Para llevar a cabo este desarrollo desde cero, se asociaron IBM con
Microsoft. Construyeron un SO de 32bytes multitarea, multihilo,
Windows NT (1993) multiprocesamiento, multiusuario con un núcleo híbrido y una
capa de hardware de abstracción para facilitar la portabilidad
entre plataformas.
Windows 95 estaba más orientado al consumidor, poseía una
interfaz de usuario completamente nueva y características que
hoy nos resultan muy familiares, pero que entonces constituyeron
Windows 95 (1994)
algo revolucionario, como por ejemplo el botón de Inicio, la Barra
de Tareas, el Área de Notificaciones (recordemos que era la época
del módem, fax,...), etc.
Windows 98 se mejoró el reconocimiento de escáneres, ratones,
Windows 98 (1998)
teclados y palancas.
A diferencia de W95 y W98 les faltaba el soporte en modo real de
DOS. A su favor hay que decir que poseía una característica muy
Windows Me (2000)
útil, a saber "Restaurar el Sistema" lo cual permitía a los usuarios
establecer una configuración estable del sistema anterior al actual
Versiones Descripción
Windows XP introdujo nuevas características como el uso de una
nueva interfaz de manejo más sencillo, la posibilidad de utilizar
Windows XP (2001) varias cuentas de usuario a la vez, la capacidad de agrupar
aplicaciones similares en la barra de tareas, por solo nombrar unas
cuantas.
Se recuerda como un sistema que llegó tarde, mal y arrastro. Las
principales quejas se centraron en las funciones de seguridad,
Windows Vista (2007)
administración de derechos digitales, los requisitos de hardware y
el rendimiento y la compatibilidad del software.
Windows 7 destaca por ofrecer una interfaz rediseñada, una
nueva barra de tareas, mejoras importantes en el rendimiento del
Windows 7 (2009)
SO y sobre todo porque W7 marcó el debut de Windows Touch,
que permite explorar la web desde pantallas táctiles.
Su interfaz de usuario fue modificada para hacerla más amigable y
fácil de usar con las pantallas táctiles, además de poder seguir
Windows 8 (2012) usando obviamente el teclado y ratón. Es el momento de las Apps
cuyos iconos de diferentes tamaños ocupan la pantalla, se pueden
agrupar, mostrar notificaciones.
Windows 10 viene siendo la última versión desarrollada por
Microsoft como parte de la familia de Windows NT.5, la empresa
la dio a conocer en el año 2014 y se lanzó al público en julio del
Windows 10 (2015) 2015, lo distinto de esta versión es que Microsoft ofrece
gratuitamente este sistema operativo para aquellos usuarios que
cuenten con copias originales de Windows 7 y Windows 8.1
update.
Windows 10
Windows 10 cuenta con un interfaz que va orientada a cada uno de los dispositivos que tiene la
compañía, teniendo una orientada al ratón y otra a los dispositivos táctiles. Estas dos interfaces
cuentan con un menú de inicio muy parecido al de Windows 7.
Otra innovación es que a la hora de iniciar sesión puede ser a través de la huella digital o
reconocimiento facial, conocido también con el nombre de Windows Hello. Además, se ha
implementado un nuevo escritorio virtual denominado Vista de tareas. Al hacer clic en este
botón desde la Barra de Tareas o deslizando desde el lado izquierdo de la pantalla, se muestran
todas las ventanas abiertas y permite a los usuarios alternar entre las mismas o cambiar entre
múltiples espacios de trabajo.
Windows Server 2019 es un sistema operativo en desarrollo por Microsoft basado en Windows
Server 2016 quien ha sido uno de los SO con más aceptación en el mercado. Fue anunciado el
20 de marzo de 2018, y la primera vista previa Windows Insider fue lanzada el mismo día. Se
lanzó comercialmente el 2 de octubre de 2018.
Al igual que su predecesor, Windows Server 2019 vendrá en dos versiones: Standard y
Datacenter, siendo este último el que ofrece mayores prestaciones en escenarios de nube
hibrida, así como SMB Direct3 y Storage Spaces Direct, 4 y un mayor soporte a máquinas
virtuales con Hyper-V. El instalador ofrece la posibilidad de instalar en modo Core (interfaz de
usuario mínima) para administración remota, o Experiencia de escritorio (interfaz de usuario
completa) para administración local.
b. Linux
El nombre GNU, GNU's Not Unix (GNU no es Unix), viene de las herramientas básicas de sistema
operativo creadas por el proyecto GNU, iniciado por Richard Stallman en 1983. El nombre Linux
viene del núcleo Linux, inicialmente escrito por Linus Torvalds en 1991.
Su desarrollo es uno de los ejemplos más importantes de software libre; todo su código fuente
puede ser utilizado, modificado y redistribuido libremente por cualquiera bajo los términos de
la GPL (Licencia Pública General de GNU, en inglés: General Public License) y otra serie de
licencias libres.
A pesar de que Linux es, en sentido estricto, el sistema operativo, parte fundamental de la
interacción entre el hardware y el usuario se maneja usualmente con las herramientas
(programas de sistema y programas de aplicación) del proyecto GNU y con entornos de
escritorio basados en GNOME, que también forma parte del proyecto GNU, aunque tuvo un
origen independiente. Linux es solo una pieza más dentro de GNU/Linux, sin embargo, una parte
significativa de la comunidad, así como muchos medios generales y especializados prefieren
utilizar el término Linux para referirse a la unión de ambos proyectos.
A las variantes de esta unión de programas y tecnologías, a las que se les adicionan diversos
programas de aplicación de propósitos específicos o generales se las denomina distribuciones.
Su objetivo consiste en ofrecer ediciones que cumplan con las necesidades de un determinado
grupo de usuarios.
El siguiente cuadro muestra como ejemplo algunas distribuciones que respondes a ciertas
necesidades.
c. Mac OS
Mac OS es un tipo de sistema operativo exclusivo desarrollado para los terminales creados por
la compañía Apple y significa Macintosh Operating System, Mac OS fue desarrollado hasta su
versión 9 bajo la misma estructura diseñada por Apple, utilizando a Unix como Core, sin
embargo, a partir de su versión 10 (OSX) utilizando enteramente su SO Mac Os.
Hoy en día son especialmente utilizadas por usuarios que trabajan en el área del diseño gráfico,
el diseño web, y la redacción ya que gracias a Mac OS el rendimiento de estos terminales Apple
es superior a cualquier otro en el mercado y en tal sentido también los precios son elevados.
Este sistema operativo es exclusivo para toda la línea de los equipos MAC, en el mercado son
reconocidos por su innovación tecnológica y exclusividad.
VERSIONES
Mac OS X 10.14 macOS Mojave, trae consigo innovadores cambios uno de ellos la
posibilidad de trabajar en el Modo Oscuro, el cual le da un look completamente nuevo
al escritorio de la Mac para que puedas concentrarte mejor en lo que haces. Los colores
sutiles y los detalles de tu contenido destacan en la pantalla, mientras que las barras de
herramientas y los menús se funden con el fondo. Además, Pilas mantiene tu escritorio
siempre organizado, ordenando automáticamente tus archivos en grupos relacionados.
Agrúpalos según el tipo de archivo, como imágenes, documentos, hojas de cálculo y
archivos PDF. También puedes ordenar tu trabajo por fecha.
d. Google Chrome
Chrome OS fue anunciado el 7 de julio del 2009 a través del blog oficial de la compañía. El
sistema operativo fue orientado inicialmente para mini portátiles, estando disponible a partir
de junio del 2011.5 El primer portátil Chrome OS, conocido como Chromebook, llegó en mayo
de 2011. Chrome OS es un proyecto llevado a cabo por la compañía Google que se basa en el
kernel de Linux y utiliza el navegador web Google Chrome como su principal interfaz de usuario,
es un sistema operativo basado en la nube. Por lo tanto, Chrome OS soporta principalmente
aplicaciones web.4.
Google ha ido poniendo bastante énfasis durante los últimos años en el mercado corporativo,
pero ¿tienen futuro los Chromebooks en el sector corporativo? Al ser de precio tan reducido,
para las empresas podría ser una solución realmente interesante.
¿Y el consumidor medio? Siempre que hablemos de usuarios cuya principal actividad es navegar
o que buscan un segundo portátil, puede ser una alternativa interesante. Todavía lo es más para
entornos educativos, donde un Chromebook puede verse como una especie de Tablet con
teclado.
Chrome OS se desarrolla parcialmente bajo el proyecto de código abierto: Chromium OS. Al igual
que con otros proyectos de código abierto, los desarrolladores pueden modificar el código de
Chromium OS y crear sus propias versiones, mientras que el código de Chrome OS sólo es
compatible con Google y sus socios y sólo funciona con hardware diseñado para este propósito.
A diferencia de Chromium OS, Chrome OS se actualiza automáticamente a la última versión.
Los Sistemas operativos para dispositivos móviles son menos complicados que los diseñados
para las computadoras de escritorio o portátiles, entre ellos tenemos a Google Android, Apple
iOS, Symbian, BlackBerry y Windows Phone.
Android
Inicialmente, fue desarrollado por Android Inc., empresa que Google respaldó económicamente
y que más tarde la compró. Android fue presentado en 2007 junto la fundación del Open
Handset Alliance (un consorcio de compañías de hardware, software y telecomunicaciones) para
avanzar en los estándares abiertos de los dispositivos móviles. El primer móvil con el sistema
operativo Android fue el HTC Dream y se vendió en octubre de 2008. Los dispositivos de Android
venden más que las ventas combinadas de Windows Phone y IOS.
El éxito del sistema operativo se ha convertido en objeto de litigios sobre patentes en el marco
de las llamadas «Guerras por patentes de teléfonos inteligentes» (en inglés, Smartphone patent
wars) entre las empresas de tecnología.
Android, tiene una gran comunidad de desarrolladores creando aplicaciones para extender la
funcionalidad de los dispositivos. A la fecha, se ha llegado ya al 1.000.000 de aplicaciones (la
mayoría gratuitas) disponibles para la tienda de aplicaciones oficial de Android: Google Play, sin
tener en cuenta aplicaciones de otras tiendas no oficiales para Android como la tienda de
aplicaciones Samsung Apps de Samsung, Slideme de Java y Amazon Appstore.
El actual paisaje de IoT hace difícil pensar en un único sistema operativo que logre una presencia
como la que Windows tiene en las PCs o Android tiene en los móviles. “No cualquier sistema
operativo IoT es adecuado para cualquier uso de IoT”, opina Andrew Froehlich, consultor
experto en arquitecturas de redes y presidente de West Gate Networks, en un análisis de varios
contendientes del mercado de sistemas operativos IoT. “Es por esta razón que habrá bastante
variedad en el área de sistemas operativos para IoT”.
A pesar de que Linux sea el SO con más demanda en el mercado de IOT, Windows ha visto en
Linux no un enemigo sino un amigo, tanto así que anunció el desarrollo de un sistema operativo
basado en el kernel de Linux.
Azure Sphere
Azure Sphere es un conjunto de soluciones para el Internet de las cosas creado por Microsoft,
que incluye un sistema operativo para microcontroladores basado en Linux, y hardware para
desarrolladores (provisto por terceros). Azure Sphere será un conjunto de software y hardware
destinado a mejorar la seguridad de los pequeños procesadores de electrodomésticos
inteligentes, juguetes conectados y otros dispositivos.
En la actualidad la industria del desarrollo del software está orientado en su mayoría a la gestión
de procesos empresariales, lo cual ha generado un mayor presupuesto de ingresos y trabajos
bien remunerados.
1.5.1. Conceptos
a. Sistemas Operativos
b. Lenguajes de Programación
Mediante los programas, se indica al computador qué tarea debe realizar y cómo efectuarla. Sin
embargo, para ello, es preciso introducir estas órdenes en un lenguaje que el sistema pueda
entender. En principio, el computador solo entiende las instrucciones en código máquina. Sin
embargo, a partir de este, se elaboran los llamados lenguajes de bajo y alto nivel.
El software para uso general ofrece la estructura para un gran número de aplicaciones
empresariales, científicas y personales. El software de hoja de cálculo, de diseño asistido por
computadores (CAD), de procesamiento de texto, de manejo de bases de datos pertenece a esta
categoría.
La mayoría de software para uso general se vende como paquete, es decir, con software y
documentación orientada a los usuarios (manuales de referencia, plantillas de teclado y demás).
d. Software a Medida
El software a medida está diseñado y escrito para realizar tareas específicas personales,
empresariales o científicas como el procesamiento de nóminas, la administración de los recursos
humanos o el control de inventarios. Todas estas aplicaciones procesan datos (recepción de
materiales) y generan información (registros de nómina) para el usuario.
Los lenguajes de programación cierran el abismo entre los computadores, que solo trabajan con
números binarios, y los humanos, que prefieren utilizar palabras y otros sistemas de
numeración.
El nivel de abstracción de los lenguajes de programación varía desde lo más complejo como el
lenguaje máquina, hasta lo más sencillo, como los lenguajes de quinta generación.
Lenguaje máquina. Es el lenguaje del microprocesador del computador. Todos los demás
lenguajes deben convertir los programas al lenguaje máquina para poder ser ejecutados por el
computador.
Su ventaja es que es muy rápido y eficiente, ya que son órdenes directas, que no tienen que ser
interpretadas o decodificadas en forma previa a su ejecución. Su desventaja es que la
programación es difícil y se tarda mucho en hacerlo. A este tipo de lenguaje se le llama también
lenguaje de bajo nivel.
Lenguaje ensamblador: Es muy similar al lenguaje máquina, pero usa códigos nemotécnicos
para representar las diversas operaciones.
Otras características son que puede hacer referencias simbólicas de memoria. Por ejemplo, se
puede llamar a una variable con un nombre en vez de referirse a su dirección absoluta y se
pueden tener macroinstrucciones que ejecutan toda una secuencia de instrucciones. También,
es un lenguaje de bajo nivel y sus comandos deben ser convertidos a lenguaje máquina.
De esta generación en adelante, se les llama lenguajes de alto nivel. Contienen nombres, verbos,
operadores matemáticos y lógicos y otras estructuras que permiten formular las sentencias. Se
deben convertir a lenguaje máquina usando un intérprete o un compilador.
Lenguajes Intérpretes: Proporcionan la traducción al momento de ejecutar cada una de
las instrucciones. El programa fuente y el programa intérprete deben estar en memoria
para poder ser ejecutado. Solo con el programa fuente no es suficiente.
Entre los lenguajes de tercera generación, se incluyen: FORTRAN, COBOL, Basic, PASCAL,
LENGUAJE C, ADA, etc.
Como ejemplos de estos lenguajes, se tiene a Visual Basic, Visual Fox Pro, Power Builder, Java,
etc.
Son bastante flexibles en la forma en que se les permite a los usuarios formular sus comandos.
Poseen inteligencia artificial de tal manera que, si no entienden una porción del comando inicial,
retienen la parte que comprendieron y preguntan la parte que no entendieron.
Actualmente, hay muy pocos lenguajes de este tipo en uso. Prolog es un lenguaje de esta
generación, aunque ha sido desarrollado desde muchos años atrás por Japón. El uso de los
lenguajes de quinta está orientado para los robots en la llamada inteligencia artificial.
a. Python
Python no sólo es multiplataforma y multiparadigma, sino que también nos servirá para
desarrollar cualquier tipo de vía, como por ejemplo web o móvil. Para que esto se lleve a cabo,
este lenguaje de programación cuenta con frameworks de gran calibre, los cuales auxilian desde
el desarrollo web, hasta el desarrollo de juegos o algoritmos científicos de cálculos avanzados.
Así mismo se debe de considerar que es libre y de código abierto.
Su intención es permitir que los desarrolladores de aplicaciones escriban el programa una vez y
lo ejecuten en cualquier dispositivo (conocido en inglés como WORA, o "write once, run
anywhere"), lo que quiere decir que el código que es ejecutado en una plataforma no tiene que
ser recompilado para correr en otra.
El lenguaje de programación Java fue originalmente desarrollado por Sun Microsystems, fue
adquirido por la compañía Oracle. Su sintaxis deriva en gran medida de C y C++, pero tiene
menos utilidades de bajo nivel que cualquiera de ellos.
Las aplicaciones de Java son generalmente compiladas a bytecode (clase Java) que puede
ejecutarse en cualquier máquina virtual Java (JVM) sin importar la arquitectura de la
computadora subyacente.
Al hablar de Java, nos estamos refiriendo a tres cosas asociadas con la programación de
software: un lenguaje, una plataforma y un fenómeno. La eficacia y la flexibilidad del lenguaje
permitieron crear una plataforma tan extensa que tiene alcance tanto para aplicaciones de
propósito general en computadoras personales, para el funcionamiento de dispositivos móviles
y aparatos electrónicos, y hasta para sitios web. Este alcance ha creado un verdadero fenómeno
tecnológico; así, hoy por hoy, hay más de 4 500 millones de equipos que tienen instalado Java.
Entonces, en estricto sentido, esta tecnología sirve para hacer aplicaciones, virtualmente, para
cualquier componente que tenga un procesador de software.
La plataforma para el desarrollo de Java está dividida en tres ediciones: la estándar (JSE), la
empresarial (JEE) y la de dispositivos móviles (JME). La primera contiene, entre muchas otras
cosas, los elementos del lenguaje, los objetos para las interfaces gráficas y los mecanismos de
conexión a base de datos, que son lo primero que debe saberse para desarrollar aplicaciones
Java básicas.
Java funciona mediante un software conocido como la máquina virtual (JVM por sus siglas en
inglés), que es el corazón del entorno de ejecución y que debe estar instalado en el sistema
operativo para que las aplicaciones Java se ejecuten. En Windows, está en una ruta semejante
a la siguiente:
Para que los programas puedan ejecutarse, hay que asegurarse que el JRE (java run enviroment)
esté instalado; si no lo está, se descarga de www.java.com.
Para programar, es necesario el kit de desarrollo (JDK) que sirve para crear y probar las
aplicaciones y que ya incluye el JRE.
Para el desarrollo de aplicaciones, aunque es posible trabajar los archivos de Java con cualquier
editor de texto plano, se recomienda usar JCreator cuya página de descarga es
www.jcreator.com/download.htm.
Se debe tener presente que los objetos, sean reales o su proyección en software, se abstraen en
clases.
c. Java Script
Este lenguaje de programación está orientado para crear programas que son integrados a una
página web o dentro de aplicaciones más grandes. JavaScript puede utilizarse utilizar para crear
efectos y realizar acciones interactivas, algunos ejemplos de este lenguaje son el chat,
calculadoras, buscadores de información, entre otras utilidades.
Características
Es liviano.
Multiplataforma, ya que se puede utilizar en Windows, Linux o Mac o en el navegador
de tu preferencia.
Es imperativo y estructurado, mediante un conjunto de instrucciones indica al
computador qué tarea debe realizar.
Orientado a objetos y herencias.
Es interpretado, no se compila para ejecutarse.
d. Lenguaje de Programación C#
C# permite crear aplicaciones web, aplicaciones de escritorio y desarrollo mobile, tanto para
iOS, Android y Windows. Tienes como características principales:
Facilidad de uso.
Programación orientada a objetos.
Administración de memoria.
Seguridad en el manejo de datos.
Compatible.
Fue creado en 1995 por Rasmus Lerdorf para el desarrollo de aplicaciones web dinámicas y se
puede incorporar directamente a páginas HTML. PHP es interpretado y ejecutado en el lado del
servidor web y posteriormente se envía el resultado al navegador.
Es un lenguaje "Open Source", es decir, es software libre al cual pueden acceder todos los
usuarios.
PHP fue creado a partir de C, C++, Java, Pearl y Python, por lo que, aparte de tener unas
características propias, tiene una mezcla de características de los lenguajes citados
anteriormente.
La sintaxis es muy simple, clara y fácil de aprender ya que no es necesario definir los tipos de
variables y nos permite utilizar el paradigma de la programación orientada a objetos, así como,
la programación orientada a procedimientos, imperativa y reflexiva. Como consecuencia de ello,
obtenemos un código sencillo, ordenado, estructurado y fácil de manejar.
Al igual que el resto de lenguajes citados, es portable y nos permite utilizarlo en cualquier
servidor web de cualquier sistema operativo. Como se ha comentado anteriormente, PHP fue
diseñado para Microsoft y sus sistemas operativos, por lo que si se quiere utilizar en otros
sistemas operativos que no sean de Microsoft es necesaria una adaptación.
Es un lenguaje robusto y estable que dota de gran seguridad a las páginas web contra ataques
no deseados.
Por último, destaca su gran capacidad para conectarse a cualquier base de datos como pueden
ser MySQL, PostgreSQL, Oracle, etc.
1.6.1. Conceptos
Las bases de datos son colecciones de datos almacenadas en una PC, arregladas de manera que
puedan ser fácilmente manipuladas y accesadas.
Una base de datos es una colección de archivos relacionados que permite el manejo de la
información de alguna compañía. Cada uno de dichos archivos puede ser visto como una
colección de registros y cada registro está compuesto de una colección de campos. Cada uno de
los campos de cada registro permite llevar información de algún atributo de una entidad del
mundo real.
Ejemplos:
Para una UNIVERSIDAD, las entidades de interés podrían ser ALUMNOS, PROFESORES,
SALONES, etc.
Para la entidad ALUMNO, los atributos importantes podrían ser NOMBRE, DIRECCION,
TELEFONO, CARRERA, MATRICULA, etc.
Ejemplos:
Un archivo de una base de datos, también, puede ser pensado como una tabla en la que
tenemos renglones y columnas; cada renglón corresponde a un registro del archivo y cada
columna corresponde a un campo.
Los Sistemas manejadores de bases de datos o DBMS (Data Base Management System) DBMS
Los sistemas manejadores de bases de datos, conocidos también como bases de datos
electrónicas, se usan ampliamente para organizar y manipular grandes volúmenes de datos de
las empresas.
1. Tipos de entradas
a. Consultas. Son las preguntas concernientes a los datos. Se generan de dos maneras:
Mediante una interfaz de consultas genéricas.
Mediante una interfaz de programas de aplicación.
b. Modificaciones. Estas operaciones modifican los datos, pero solo pueden ser
efectuadas por personas autorizadas.
c. Modificaciones del esquema. Estos comandos suelen ser emitidos por personal
autorizado, a quienes algunas veces se les llama administradores de bases de datos, que
están autorizados para cambiar el esquema o estructura de la base de datos o crear otra
nueva.
2. El Administrador de almacenamiento
Maneja los archivos de datos en el almacenamiento secundario (disco duro), así como en los
búferes de memoria principal que contienen partes de los archivos. Un sistema de
administración de bases de datos normalmente mantiene índices, es decir, estructuras de datos
que soportan un acceso eficiente a la información.
3. El Procesador de Consultas
Se encarga de convertir una consulta en una serie de datos almacenados, como determinadas
tuplas de una relación o las partes de un índice en una relación. A menudo, la parte más difícil
del procesamiento de consultas es la optimización de la consulta, esto es, seleccionar un buen
plan de consulta, es decir, una serie de peticiones al sistema de almacenamiento que las
atenderá
4. El Administrador de Transacciones
Los sistemas relacionales más comunes de bases de datos consultan y modifican la base por
medio de un lenguaje denominado SQL.
El lenguaje de consulta estructurado o SQL (por sus siglas en inglés Structured Query Language)
es un lenguaje declarativo de acceso a bases de datos relacionales, que permite especificar
diversos tipos de operaciones en ellas. Una de sus características es el cálculo relacional que
permiten efectuar consultas con el fin de recuperar de forma sencilla, información de interés de
bases de datos, así como hacer cambios en ellas.
El SQL es un lenguaje de acceso a bases de datos que explota la flexibilidad y potencia de los
sistemas relacionales y permite así gran variedad de operaciones.
Es un lenguaje de alto nivel que, gracias a su fuerte base teórica y su orientación al manejo de
conjuntos de registros y no a registros individuales, permite una alta productividad en
codificación y la orientación a objetos.
SQL incorporado y dinámico: Esto quiere decir que se pueden incorporar instrucciones
de SQL en lenguajes de programación como: C++, C, Java, PHP, Cobol, Pascal y Fortran.
Autorización. El LDD incluye comandos para especificar los derechos de acceso a las
relaciones y a las vistas.
Son gestores de base de datos no relacionales, que no utiliza SQL como lenguaje de
programación es por ello el nombre de NoSQL, el proceso de almacenamiento difiere de los
gestores tradicionales debido a que no necesita tablas sino utiliza colecciones de documentos
JSON (objetos binary). Estos tipos de datos trabajan con grandes volúmenes de información,
baja latencia y modelos de datos flexibles.
Base de datos columnares: Estas son las bases de datos NoSQL más parecidas a las
convencionales bases de datos relacionales. Almacenan datos estructurados en
columnas individuales (en lugar de tablas).
Base de datos gráficas: Estos tipos de bases de datos utilizan una estructura gráfica que
es esencialmente un diagrama de las relaciones dentro de los datos, en lugar de tablas.
Base de datos Key-Value: Estas están diseñadas para desarrollo simple y fácil de
aplicaciones.
Base de datos XML: Estos tipos de bases de datos utilizan el lenguaje XML, el cual es el
lenguaje subyacente de la Web y de otros muchos sistemas de intercambio de
información, para definir la estructura de datos
Base de datos SQL. Son gestores de base de datos relacionales, también conocidos como los
tradicionales, así mismo su proceso de almacenamiento se basa en tablas (campos y registros),
así mismo tiene deficiencias al momento de almacenar grandes volúmenes de información y si
estos son de diferentes tipos.
Los sistemas de bases de datos cambiaron en forma radical después de que Ted Codd escribió
su famoso trabajo en 1970, en el cual propuso que los sistemas deberían presentar al usuario
una vista de los datos organizados como tablas relacionadas.
Las consultas pueden formularse en un lenguaje de muy alto nivel, el cual mejora de manera
notable la eficiencia de los programadores de bases de datos.
Tabla de Datos. Es el lugar donde se concentra la información sobre cada tema. Está
formado por un conjunto de registros con una estructura homogénea. Cada tabla debe
tener su nombre para poder identificarla. Por ejemplo, la Tabla de Alumnos tiene la
información de los alumnos. A continuación, se examinarán algunos conceptos
relacionados con este punto.
Campo. Ítem o dato que interesa almacenar de una persona u objeto. Como ejemplo,
en la tabla anterior, los campos son Matrícula, Nombre, Carrera y Teléfono.
Llave o campo llave. Campo que identifica en forma única a un registro de una tabla. La
llave o campo llave debe usar un campo de la tabla, el cual tenga datos que no se repiten
en ningún momento dentro de esa tabla. Para evitar la búsqueda de los campos que no
cumplan esta condición, se genera un campo llave. En el caso de la tabla anterior, la
llave es Matrícula, pero sería más conveniente poner como llave Cod_Alumno, que hace
referencia al código del alumno, el cual es único en toda la tabla.
o Se recomienda que cuando se haga una tabla de datos, se cree primero la llave
mediante la creación de un código. La llave se utiliza para poder relacionar dicha
tabla con otra. Recuérdese que la base de datos está formada por una colección de
tablas relacionadas y la relación entre las tablas, se hace a través de sus llaves.
Cuando la relación entre las tablas es de muchos a muchos, se debe agregar una tabla
intermedia. En esa tabla, deben estar las dos llaves, pero aquí estos campos no son llaves, sino
simples campos. Si son simples campos, se podrán repetir muchas veces. En esta tabla
intermedia, se podrán registrar las relaciones de muchos a muchos.
Cuando se indica la relación entre las tablas, cada tabla está representada solo por sus campos,
y encabezada por su llave.
Para que pueda asumir esta tarea, es necesario que tenga experiencia en DBMS, que
sea hábil en el diseño de base de datos, que conozca diversos sistemas operativos y que
sepa de comunicación de Datos, ya que las BD en, su mayoría, podrán ser accesadas
desde Internet. Debe también conocer de hardware, ya que tendrá que configurar e
instalar algunos dispositivos, y saber de programación para desarrollar aplicaciones que
permitan el ingreso y salida de datos.
a. SQL Server
Microsoft SQL Server es un gestor de base de datos y herramienta de análisis, diseñado para
construir la próxima generación de aplicaciones de Business Intelligence (Negocio Inteligente),
Comercio Electrónico y soporte para sistemas de gestión empresarial. Así mismo permite la
conexión de la base de datos a la nube.
SQL Server reduce los tiempos y costos necesarios para implantar en el mercado estas
aplicaciones y ofrece escalabilidad necesaria para cualquier tipo de entorno.
Beneficios
Diseñado para Internet, porque es un soporte nativo XML para la integración con
cualquier aplicación desarrollada en un entorno Internet.
b. ORACLE
Se considera a Oracle Database como uno de los sistemas de bases de datos más completos.
Destaca por lo siguiente:
Soporte de transacciones.
Estabilidad.
Escalabilidad.
Soporte multiplataforma.
Su dominio en el mercado de servidores empresariales ha sido casi total hasta hace poco;
recientemente, sufre la competencia del Microsoft SQL Server de Microsoft y de la oferta de
otros RDBMS con licencia libre como PostgreSQL, MySQL o Firebird. Las últimas versiones de
Oracle han sido certificadas para poder trabajar bajo GNU/Linux.
Oracle Database 11g brinda desempeño y escalabilidad récord en servidores UNIX, Linux y
Windows. Permite a los usuarios pasar de un solo servidor a grid computing sin tener que
cambiar ni una sola línea de código.
Es un manejador de base de datos que hace uso de los recursos del sistema informático en todas
las arquitecturas de hardware para garantizar su aprovechamiento al máximo en ambientes
cargados de información.
c. MySQL
MySQL es un sistema de gestión de bases de datos relacional, multihilo y multiusuario con más
de seis millones de instalaciones. MySQL es desarrollada como software libre en un esquema de
licenciamiento dual, permitiendo su uso comercial de una forma no libre.
MySQL es patrocinado por una empresa privada, que posee el copyright de la mayor parte del
código. Esto es lo que posibilita el esquema de licenciamiento anteriormente mencionado.
Además de la venta de licencias privativas, la compañía ofrece soporte y servicios. Para sus
operaciones, contratan trabajadores alrededor del mundo que colaboran vía Internet.
MySQL es una base de datos muy rápida en la lectura cuando utiliza el motor no transaccional
MyISAM, pero puede provocar problemas de integridad en entornos de alta concurrencia en la
modificación. En aplicaciones web hay baja concurrencia en la modificación de datos y en
cambio el entorno es intensivo en lectura de datos, lo que hace a MySQL ideal para este tipo de
aplicaciones. Sea cual sea el entorno en el que va a utilizar MySQL, es importante monitorizar
de antemano el rendimiento para detectar y corregir errores tanto de SQL como de
programación.
d. PostGreSQL
Gestor de bases de datos relacional de código abierto, incluye características de Base de datos
orientado a objetos como puede ser la herencia, tipos de datos, funciones, restricciones,
disparadores, reglas e integridad transaccional, liberado bajo la licencia BSD. Está dirigido por la
comunidad es denominada el PGDG (PostgreSQL Global Development Group).
e. MongoDB
Ventajas:
Usos:
La tecnología está avanzado a pasos agigantados, y con ello está generando cambios radicales
en nuestro día a día, antes el manejar y almacenar información virtual era más sencillo, a modo
usuario era suficiente con un disquete y a modo empresarial se utilizaba backup en cintas
magnéticas, pero en la actualidad esto ha cambiado totalmente, ahora procesamos grandes
volúmenes de información entre videos, música, fotos, correos, aplicaciones, texto, juegos, data,
etc., esto hace que se genere nuevas necesidades, es ahí donde entra a tallar los servicios en la
nube.
El servicio en la nube es una tecnología que ya tienen muchos años, se inició con la finalidad de
solo almacenamiento, pero los servicios que brindan han evolucionado según las necesidades
actuales, esto principalmente por la cantidad de información que se maneja diariamente ya se
empresarialmente o uso doméstico. En la actualidad los servicios que brinda son los siguientes:
IaaS, PaaS y SaaS.
Este servicio es el que permite a los usuarios a ingresar a cualquier aplicación mediante el
navegador donde los proveedores de servicios en la nube hospedan y administran las
aplicaciones.
Ventajas:
Este servicio incluye el servicio proporciona servidor de aplicaciones a modo de una plataforma
y un entorno que permiten a los desarrolladores crear aplicaciones y servicios que funcionen a
través de internet. Estos servicios se almacenan en la nube y brinda todas las herramientas
necesarias para el desarrollo de las aplicaciones web.
Ventajas:
Se considera el servicio más básico con el cual se inició la tecnología cloud computing, este tipo
de servicio está orientado para el alojamiento y capacidad informática mediante el uso del
internet, básicamente el servicio que brinda es hardware virtual bajo demanda, por ejemplo:
servidores y máquinas virtuales, almacenamiento, redes y sistemas operativos.
Ventajas:
En la actualidad las empresas manejan grandes volúmenes de información, lo cual genera que
la gestión de estos datos sea más tediosa y por ende no se brinda un buen servicio, es por ello
que se ve como solución a este problema utilizar la tecnología Big Data.
La tecnología Big Data hace referencia al manejo de grandes volúmenes de información, pero
de forma inteligente y rápida, para ello utiliza una colección de herramientas de análisis y
tecnologías con el objetivo de brindar soluciones de valor.
Big Data en el sector empresarial es muy importante, debido a que gracias al análisis de la
información permite lo siguiente:
En los últimos años esta tecnología está siendo más utilizada en diferentes sectores como la
ciencia, bancas financieras(estadísticas y proyecciones), análisis de mercado, sector educación,
etc., su mayor incidencia de uso es en el sector empresarial debido a la generación masiva de
base de datos (big data), el interactuar con todo esta información no determina un análisis o un
patrón, no hay una predicción, las empresas necesitan saber cuál es la tendencia de sus
consumidores para de esta manera dar servicios que vayan de acuerdo a las exigencias, de por
si el analizar y dar una predicción sobre las diferentes bases de datos de forma tradicional
implicaría perder mucho tiempo y generaría más gastos para las empresas, considerando que el
resultado ya no sería de mucha ayuda, pues la información de las base de datos van cambiando
constantemente. Por esta nueva necesidad se empieza a utilizar la minería de datos.
La minería de datos o exploración de datos (del inglés Data Mining) es el conjunto de técnicas y
tecnologías que nos permiten explorar grandes volúmenes de información de manera
automática, con la finalidad de poder encontrar patrones repetitivos, tendencias, etc. para
poder aportar información valiosa para la toma de decisiones.
Según (Pérez & Santín) “La minería de datos puede definirse inicialmente como un proceso de
descubrimiento de nuevas y significativas relaciones, procesos y tendencias al examinar grandes
volúmenes de información”.
Ventajas:
SESIÓN DE INTEGRACIÓN I
Sesión integradora
Resumen
1. El software se clasifica en 4 diferentes categorías: sistemas operativos, lenguajes de
programación, software de uso general o aplicativo y software a medida.
2. Todos los lenguajes deben convertir los programas al lenguaje máquina para poder ser
ejecutados por el computador.
3. Los lenguajes de alto nivel, son de uso mucho más fácil, ya que en ellos un solo comando o
instrucción puede equivaler a millares de códigos máquina.
4. Las bases de datos son colecciones de datos almacenadas en una PC, arregladas de manera
que puedan ser fácilmente manipuladas y accesadas.
Recursos
Pueden revisar los siguientes enlaces para ampliar los conceptos vistos en esta unidad:
UNIDAD
2
NUEVAS TECNOLOGÍAS
LOGRO DE LA UNIDAD DE APRENDIZAJE
Al término de la unidad, el alumno explica acerca de las nuevas tecnologías: Internet de
las cosas, realidad virtual, virtualización y fundamentos básicos el hackeo ético,
aplicando fundamentos de distinción, funcionabilidad, utilidad y aplicaciones.
TEMARIO
ACTIVIDADES PROPUESTAS
Este siglo XXI está marcado por una serie de innovaciones que buscan hacerte la vida más
sencilla, pero no solo queda estar en el rol de consumidor sino nace la necesidad de formación
y actualización por parte de toda muestra sociedad. Sin embargo, la inmersión de las nuevas
tecnologías en nuestra no solo tiene aspectos positivos sino también una preocupación
creciente por los puestos laborales, así también lo afirma Vicente Goetten, director de TOTVS
Labs:
“La revolución que vamos a experimentar en los próximos años tendrá un impacto mayor que
incluso la revolución industrial. Se estima que en los EE.UU. el 47% de los puestos de trabajo
actuales no existirá en los próximos 10 años".
Entre ellas encontramos innovaciones como Redes e Internet de las cosas, Inteligencia artificial,
Bitcoins y blockchain, Impresoras 3D, Vehículos Autónomos, Robótica, Realidad virtual y
aumentada, Biotecnología.
Cabe recordar que año tras año irán apareciendo nuevas tecnologías, sin embargo, en este
apartado explicaremos aquellas tecnologías que consideramos estarán con nosotros por
bastante tiempo.
Si todos los objetos de la vida diaria estuvieran equipados con identificadores y conectados
inalámbricamente, estos objetos podrían comunicarse entre sí y podrían ser administrados en
forma centralizada y en forma remota eso es el internet de todas las cosas.
Según Cisco Academy, lo define de la siguiente forma:” Internet de las cosas (IoT) es la conexión
de millones de dispositivos inteligentes y sensores conectados a Internet. Estos dispositivos y
sensores conectados recopilan y comparten datos para que muchas organizaciones las usen y
evalúen”.
Un sensor debe estar conectado a una red para que los datos recopilados puedan guardarse y
compartirse. Esto requiere una conexión Ethernet cableada o una conexión inalámbrica a un
controlador. Los controladores son responsables de recopilar datos de los sensores y
proporcionar conectividad hacia la red o Internet. Los controladores pueden tener la capacidad
de tomar decisiones inmediatas o de enviar datos a una computadora más potente para su
análisis. Esta computadora más potente puede estar en la misma LAN que el controlador, o bien
puede ser accesible únicamente por medio de una conexión a Internet.
Los sensores a menudo funcionan junto con un dispositivo denominado actuador. Los
actuadores toman la entrada eléctrica y transforman la entrada en acción física. Por ejemplo, si
un sensor detecta calor excesivo en una sala, el sensor envía la lectura de temperatura al
microcontrolador. El microcontrolador puede enviar los datos a un actuador, que a su vez
encendería el aire acondicionado.
La mayoría de los nuevos dispositivos, tales como equipos portátiles para entrenamiento físico,
marcapasos implantados, medidores de aire en una mina y medidores de agua en el campo de
un establecimiento agrícola, requieren conectividad inalámbrica. Debido a que muchos sensores
están "en el campo" y son impulsados por baterías o paneles solares, se debe tener en cuenta
el consumo de energía. Se deben utilizar opciones de conexión de baja potencia para optimizar
y ampliar la disponibilidad del sensor.
Los sensores permiten coleccionar los datos, los sensores monitorean condiciones físicas
específicas, como ubicación, vibración, movimiento, temperatura etc. Estos sensores envían
información importante a la empresa, a los científicos y a las personas en general. Se debe
coleccionar gran cantidad de datos, cuanta más información se tenga sobre un evento se
tomarán mejores decisiones, es por ello que es muy importante la colección y calidad de datos
a almacenar.
Esto permite a los negocios automatizar tareas elementales, sin depender de una central o la
nube basada en aplicaciones y servicios. Esto presenta un gran rango de oportunidades, pero
también desafíos que debe afrontar sobre todo la seguridad.
En los negocios se va ganar eficiencia, mejorando las operaciones y satisfacción de los clientes,
profundo impacto en la vida de las personas, seguridad pública, transporte y salud, con mejor
información y rápida comunicación, todo esto se reduce a comunicación, control y ahorro en los
costos.
Ahora todos los equipos que compre van a tener sensores, la tecnología de información debe
definir qué tipo de datos se van a procesar, por ejemplo, la vibración de un equipo puede ser
analizada y se puede evitar una posible falla a futuro. Las instalaciones deben cumplir con
estándares basadas en redes IP, lo cual ayudara en los negocios a un mejor rendimiento e
interoperabilidad con otros sistemas en forma oblicua, la seguridad es un punto importante a
tomar en cuenta, la ciberseguridad es un nuevo concepto a tomar en cuenta en la seguridad en
las redes.
En la actualidad, las redes conectan miles de millones de sensores y tienen la capacidad para
realizar cambios en entornos físicos sin intervención humana. El futuro de las redes girará en
torno a la inteligencia artificial (AI) y las redes basadas en la intención (IBN). Si se programan de
manera correcta, los dispositivos inteligentes pueden evaluar los datos que reciben, y modificar
los procesos o la configuración. Si se les proporcionan los datos suficientes, pueden “aprender”
y modificar sus propios códigos según los nuevos parámetros.
Estos objetos se pueden conectar a través de cables, fibra óptica o tecnologías inalámbricas,
como ser redes celulares, redes satelitales, Wi-Fi y Bluetooth. Utilizan circuitos electrónicos
incorporados, así como capacidades de identificación por radiofrecuencia (RFID) o de
comunicación de campo cercano (NFC) que se añaden posteriormente a través de chips y
plaquetas. Asimismo, se debe tener en cuenta las características de cada uno, pues todo
depende de sus usos por lo que es importante responder a las siguientes preguntas:
Velocidad de transferencia de datos – ¿Cuánta información se enviará?
Consumo de energía - Como en el caso de los wearables ¿tienen una batería con una
vida útil pequeña?
Rango – ¿Necesita transmitir a unos pocos metros o a unos pocos kilómetros?
Frecuencia – ¿Cuáles son las frecuencias disponibles en la región?
Se pueden considerar como elementos básicos a los siguientes componentes que son claves y
que habitualmente se mencionan en la arquitectura IoT:
Dispositivos IoT. Dispositivos que se pueden conectar por cable o de forma inalámbrica
a una red más amplia.
Redes. De forma parecida a los routers domésticos, las redes o las puertas de enlace
conectan varios dispositivos IoT a la nube.
Nube. Servidores remotos en centros de datos que consolidan y almacenan los datos
con seguridad.
Arquitectura de IoT
El IoT debe tener la capacidad de interconectar millones o billones de diversos objetos a través
de Internet, por lo tanto, la arquitectura debe poseer capas flexibles. Así también, La
arquitectura tiene que cumplir ciertos requerimientos para que esta tecnología sea viable. Debe
permitir que la tecnología sea distribuida, donde los objetos puedan interactuar entre ellos,
escalable, flexible, robusta, eficiente y segura.
Según, Rosero, Paul & Núñez, Santiago & Realpe, Stalin & Alvear, Vanessa & Beltrán, Luis &
Rosado, Christian. (2017). “INTERNET DE LAS COSAS Y REDES DE SENSORES INALÁMBRICOS:
REVIEW. En la presente se muestra un modelo que ha sido acogido por varios autores ya que no
solo toma en cuenta la parte técnica sino también la parte de gestión”.
b. Capa de Abstracción de Objetos: Esta capa transmite los datos recogidos de la capa
objetos a la capa superior. Los datos pueden transferirse a través de diversas tecnologías
como RFID, 3G, GSM, UMTS, Wi-Fi, Bluetooth de baja energía, infrarrojo, ZigBee, etc.
Además, otras funciones como procesos de computación en nube y la gestión de datos
se manejan en esta capa.
d. Capa de Aplicación: La capa de aplicación proporciona los servicios solicitados por los
clientes. Por ejemplo, la capa de aplicación puede proporcionar mediciones de
temperatura y humedad del aire para el cliente que pide esos datos. La importancia de
esta capa en IoT es que tiene la capacidad de proporcionar servicios inteligentes de alta
calidad para satisfacer las necesidades de los usuarios. La capa de aplicación abarca
numerosos mercados tales como el hogar, edificios y asistencia sanitaria inteligentes, el
transporte y la automatización industrial.
e. Capa de negocios: Las funciones de esta capa, cubren todas las aplicaciones y servicios
de gestión de IoT. Se puede crear gráficos, modelos de negocio, informes ejecutivos,
etc. basado en la cantidad de datos precisos recibidos de la capa inferior y el proceso de
análisis de datos eficaz. Sobre la base de los buenos resultados de los análisis, ayudará
a los gerentes funcionales o ejecutivos a tomar decisiones más precisas acerca de las
estrategias de negocio y planes de trabajo.
IES PRIVADO CIBERTEC ESCUELA DE TECNOLOGÍAS DE LA INFORMACIÓN
Sin embargo, IoT no solo trae aportes importantes a nuestras vidas sino también tiene aristas
que debemos analizar y amenazas que debemos mitigar. En el presente cuadro se observa las
ventajas y desventajas del IoT.
El eje central del IoT y su desarrollo son las aplicaciones. Las capacidades que aportan un
procesador, una memoria y otros recursos electrónicos, hacen que el Internet de las Cosas tenga
aplicaciones en casi todos los campos que se puedan imaginar. Algunas de las aplicaciones con
más interés son la domótica (Smart home), el transporte inteligente (Smart transport),
aplicaciones industriales, las ciudades inteligentes (Smart city) o aplicaciones medicinales (Smart
health).
Educación
Electrónica de consumo
o Teléfonos inteligentes.
o Televisión inteligente.
o Laptops, computadoras y tabletas.
o Refrigeradores, lavadoras y secadoras inteligentes.
o Sistemas de cine en casa inteligentes.
o Aparatos inteligentes.
o Sensores para el collar del animal doméstico.
o Personalización de la experiencia del usuario.
o El funcionamiento del producto autónomo.
o Localizadores personales.
o Gafas inteligentes.
Salud
o Control de tráfico.
o Avanzar en la información sobre lo que está roto.
o Monitoreo inalámbrico de presión de los neumáticos de coche.
o La gestión inteligente de la energía y el control.
o Auto diagnóstico.
o Los acelerómetros.
o Sensores de posición, de presencia y de proximidad.
o Análisis de la mejor manera de ir en tiempo real a un sitio.
o Localización por GPS.
o Control de la velocidad del vehículo.
o Vehículos autónomos que utilizan los servicios de la IoT.
El MIT OpenCourseWare (OCW) es una publicación basada en la Web de casi todo el contenido
de los cursos de MIT. Abierto y disponible para todo el mundo, OCW es un excelente lugar para
familiarizarse con la programación informática de manera gratuita. Se pueden buscar cursos de
OCW relacionados con programación en http://ocw.mit.edu/courses/intro-programming.
Khan Academy es un sitio web educativo sin fines de lucro creado en 2006 para proporcionar
“educación libre, de primera clase, a cualquier persona y en cualquier lugar”. Las lecciones
relacionadas con la programación informática se pueden encontrar en
https://www.khanacademy.org/computing/cs.
Code Academy es otro excelente recurso. Se basa en la interactividad para enseñar a las
personas a escribir programas informáticos. Los puede encontrar en
http://www.codeacademy.com.
La realidad virtual es por lo general un mundo virtual generado por ordenador (o sistemas
informáticos) en el que el usuario tiene la sensación de estar en el interior de este mundo, y
dependiendo del nivel de inmersión este puede interactuar con este mundo y los objetos del
mismo en un grado u otro.
Características
Inmersión: El usuario percibe únicamente los estímulos del mundo virtual, de manera
que pierde todo contacto con la realidad. El grado de inmersión dependerá del contacto
que éste posea con el entorno real.
Interacción: El usuario interacciona con el mundo virtual a través de diferentes
dispositivos y recibe la respuesta en tiempo real a través de sus sentidos.
Imaginación: A través del mundo virtual el usuario puede concebir y percibir realidades
no existentes
La realidad aumentada es una tecnología que complementa el mundo real con el mundo digital.
Superpone imágenes generadas por ordenadores, Smartphone, tabletas o visores especiales a
lo que sucede en tiempo real, de modo que el usuario tenga una mejor percepción de la realidad.
Aunque los conceptos sobre realidad aumentada y realidad virtual parezcan similares estas
tecnologías están muy relacionadas, pero albergan diferencias importantes.
La realidad virtual es una tecnología que abarca un amplio espectro de ideas. La expresión fue
creada por Jaron Lanier, el fundador de ‘VPL Research’, que es una de las empresas que
comenzaron a vender sistemas de realidad virtual. El termino de Realidad Virtual fue definido
como “un entorno generado por un ordenador, interactivo, tridimensional en el cuál se
introduce a la persona”. Hay tres puntos claves en esta definición:
Este entorno virtual está generado por un ordenador mediante una escena en tres
dimensiones, la cual requiere una alta capacidad de gráficos por parte del ordenador
para adecuar el nivel de realismo.
El mundo virtual es interactivo pues el usuario requiere una respuesta en tiempo real
desde el sistema para poder interactuar en él de una manera efectiva.
El usuario está inmerso en el mundo virtual.
Una diferencia importante entre los sistemas de Realidad Virtual y los sistemas de Realidad
Aumentada es la inmersión de la persona en el entorno. En los sistemas de Realidad Virtual, la
persona se encuentra en un mundo totalmente virtual donde el entorno está bajo control del
sistema. Sin embargo, los sistemas de Realidad Aumentada se encargar de “ampliar” la escena
del mundo real manteniendo en el usuario una sensación de presencia en el mundo real. Las
imágenes virtuales están mezcladas con la visión del mundo real, creando una visión
aumentada.
Podemos decir que, en los sistemas de Realidad Virtual, el usuario está completamente inmerso
en un mundo artificial y no hay manera de interactuar con objetos del mundo real. En
contraposición, en los sistemas de Realidad Aumentada, los usuarios pueden interactuar
mezclando el mundo real y virtual de una forma natural. Así, la diferencia entre RV y RA está en
el tratamiento que hacen del mundo real. La RV sumerge al usuario dentro de un mundo virtual
que reemplaza completamente al mundo real exterior, mientras que la RA deja ver al usuario el
mundo real a su alrededor y aumenta la visión que éste tiene de su entorno mediante la
superposición o composición de los objetos 3D virtuales. Idealmente, esto daría al usuario la
ilusión que los objetos de los mundos real y virtual coexisten.
Netflix VR: Netflix VR es el inicio de algo mayor. Por ahora es una de las aplicaciones de
realidad virtual disponibles, y con ella puedes escoger tu película o serie favorita.
Mientras estás inmerso en una sala acogedora, puedes seleccionar de los distintos
posters colgados en las paredes. Es bastante básica, pero apenas se está desarrollando.
Zombie Shooter VR: Relacionado con el combate a zombies, ahora con Zombie Shooter
VR puedes hacerlo en realidad virtual. Y aunque es gratis, tienes la posibilidad de
comprar actualizaciones para enriquecer tu experiencia de juego. En sus inicios, era una
aplicación VR de pago, pero pronto la liberaron por la competencia con otras apps
disponibles. Ahora, no tienes que pagar un centavo, y puede descargarse para Android
e iOS.
Sisters: Si te gustan los juegos de realidad virtual de terror, Sisters es la opción para ti.
Algunos lo comparan con Resident Evil, solo que puedes vivir en primera persona el
espanto de este juego. Es bastante entretenido jugarlo en el móvil, pero no lo hagas
solo. Puedes quedarte inmerso en la realidad del terror. Es gratuito tanto para Android
como para iOS.
BBC CIVILIZATIONS AR
SKETCHAR
SketchAR son trazos en AR: haz un par de círculos en un trozo de papel y elige un boceto, y
SketchAR proyectará esa imagen en el papel, lo que te permitirá trazar las líneas que faltan. No
es exactamente un trazador, ya que tendrás problemas para hacer coincidir las líneas a la
perfección, pero funciona muy bien si buscas practicar técnicas de dibujo específicas.
MONDLY
Mondly es una de las mejores maneras de aprender un idioma, y como está en tu teléfono,
puede ir practicando sobre la marcha. Con 33 idiomas diferentes para que los usuarios puedan
elegir y hacer ejercicios diarios. Mondly no ha sido lento en la adopción de nueva tecnología.
Hay una versión VR de la aplicación para Gear VR y, lo que es más emocionante, la tecnología
AR está integrada en la aplicación principal. Toca el botón AR, y se te pedirá que encuentres una
superficie plana.
2.1.4. Impresoras 3D
Una impresora 3D es una máquina capaz de imprimir figuras con volumen a partir de un diseño
hecho por ordenador. Con volumen quiere decir que tiene ancho, largo y alto. La impresión 3D
es una tecnología de fabricación con la cual se puede obtener un objeto tridimensional
utilizando una impresora especial. Estos equipos ofrecen a los desarrolladores la capacidad para
imprimir partes y montajes hechos de diversos materiales. Los materiales que pueden utilizar
las impresoras 3D en sus reproducciones abarcan desde productos orgánicos hasta metales,
plásticos, gomas, papel o incluso materiales cerámicos. Estos materiales se calientan hasta
hacerlos volubles y manejables, para disponerlos en formas de capas, dando origen al objeto
diseñado inicialmente en el ordenador. Este proceso también se denomina fabricación por
adición.
Tipos de impresoras 3D
También conocida por FFF (Fused Filament Fabrication, término registrado por Stratasys). La
técnica aditiva del modelado por deposición fundida es una tecnología que consiste en depositar
polímero fundido sobre una base plana, capa a capa. El material, que inicialmente se encuentra
en estado sólido almacenado en rollos, se funde y es expulsado por la boquilla en minúsculos
hilos que se van solidificando conforme van tomando la forma de cada capa.
La tecnología SLS (por sus siglas en inglés- Selective Laser Sintering) es similar a la SLA, pero la
principal diferencia está en que este tipo de impresora 3D utiliza material en polvo en el área de
impresión en lugar de resina líquida. El láser impacta en el polvo, funde el material y se solidifica.
Todo el material que no se utiliza se almacena en el mismo lugar donde inició la impresión por
lo que, no se desperdicia nada.
Una de las impresoras 3D más famosas que utilizan esta tecnología de impresión 3D es la EOS
XPM.
Este es el sistema de impresión 3D más parecido a una impresora habitual (de tinta en folio),
pero en lugar de inyectar gotas de tinta en el papel, inyectan capas de fotopolímero líquido que
se pueden curar en la bandeja de construcción. Como ejemplo de impresoras 3D por inyección
destacamos X60 de 3D Systems o la Zprint 450.
La impresión 3D aporta grandes beneficios a diversos sectores de la sociedad, pues entre las
potencialidades que brinda, se destaca el hecho de que con una sola máquina es posible obtener
una amplia variedad de piezas o partes de estas, ahorrando tiempo, esfuerzos y recursos. Ya
sean objetos utilizados comúnmente por todos, como una taza de café, u otros componentes
más complicados, como piezas de motores o partes de un avión. Por tanto, sus beneficios y
potencial son muchos ya que varios sectores se han visto revitalizados, como es el caso de la
ciencia médica, logrando esta alcanzar resultados tan positivos como la creación de órganos
artificiales a partir de células vivas. Los beneficios reales que ofrece la impresión 3D han hecho
que se extienda su uso a diferentes sectores industriales como la educación, el arte, la
arqueología, la joyería y por supuesto la arquitectura.
Creación de órganos: con el uso de células madre como material de impresión será
posible crear órganos artificiales que se puedan implantar a una persona. Hoy día,
existen varios grupos de investigación en el campo de la medicina regenerativa,
destinados a estos fines. Entre los órganos que están siendo objeto de análisis se
encuentran: el corazón, los riñones, el hígado, al igual que diferentes tipos de tejidos de
la vejiga, tráquea y cartílagos.
En el arte, han sido utilizadas por muchos de sus exponentes. Con la impresión 3D se
han podido crear, transformar o restaurar obras de arte y se han realizado diferentes
exposiciones de réplicas de objetos obtenidos con esta tecnología en museos, galerías
y festivales de diferentes tipos e índoles.
En la moda, se destaca la obtención de ropa impresa con tecnología 3D, así como la
impresión de zapatos como las zapatillas deportivas de la marca Adidas. También se
puede hacer alusión a la creación de accesorios como joyas y bolsos.
Bitcoin fue inventado por una persona anónima bajo el seudónimo de Satoshi Nakamoto, quien,
en octubre de 2008, publicó un artículo y lo distribuyó en la comunidad criptográfica. En 2009,
Nakamoto completó el código para el software Bitcoin y también invitó a otras personas de la
comunidad de código libre para que contribuyeran. Él minó el primer bloque el 3 de enero de
2009. Según los registros públicos de sus direcciones de Bitcoin, actualmente es propietario de
una parte de Bitcoin estimada en más de 19 mil millones, por lo que es la 44a persona más rica
del mundo.
¿Qué es Bitcoin?
Bitcoin es una moneda virtual e intangible. Es decir, que no se puede tocar en ninguna de sus
formas como ocurre con las monedas o billetes, pero puede utilizarse como medio de pago de
la misma forma que éstos.
Al igual que ocurre con el dinero que tenemos en nuestro banco los Bitcoin aumentan o
disminuyen de nuestra cuenta personal según realicemos ingresos o gastos, la única diferencia
es que no existe la posibilidad de monetizarlos, como ocurre cuando, por ejemplo, retiramos
dinero de un cajero automático.
El valor de Bitcoin se basa en la oferta y la demanda, lo determinan todos los que quieran
participar del proceso compra-venta, y se calcula mediante un algoritmo que mide la cantidad
de movimientos y transacciones con Bitcoin en tiempo real.
Actualmente el precio del Bitcoin a este mes de febrero 2019 se encuentra en esta imagen, para
mayor información puedes ver el valor diario, ya que estos son muy volátiles.
Bitcoin posee mejores propiedades que el dinero FIAT (o fiduciario, el emitido por los gobiernos).
¿Qué es Blockchain?
Inteligencia artificial es el concepto para máquinas que “piensan como seres humanos”; en otras
palabras, que realizan tareas como: razonar, planificar, aprender y entender el lenguaje. Nadie
espera que, en la actualidad, o en un futuro cercano, una tecnología pueda igualar la inteligencia
humana, pero la IA tiene grandes implicaciones en la forma en que vivimos nuestras vidas. El
cerebro de la inteligencia artificial es una tecnología llamada aprendizaje automático, que está
diseñada para hacer nuestro trabajo más fácil y productivo. Teniendo en cuenta que
automatización se refiere a cualquier proceso impulsado de forma automática que reduce y, a
la larga, elimina, la necesidad de intervención humana.
A medida que la tecnología se desarrolla, muchas de las tareas que antes requerían la AI se han
convertido en rutina. Muchas de estas tareas migraron de la AI al aprendizaje automático (ML).
El ML es un subconjunto de AI que utiliza técnicas estadísticas para otorgar a las computadoras
la capacidad para “aprender” de su entorno. Esto permite que las computadoras mejoren su
funcionamiento en una tarea puntual sin que se programe específicamente para esa tarea.
Máquinas reactivas: Son computadoras o robots que solo pueden reaccionar a una
situación determinada, como los que juegan ajedrez o juegos contra un competidor
humano. Estas máquinas no tienen la capacidad de crear recuerdos o utilizar
experiencias pasadas para tomar decisiones actuales.
Máquinas de memoria limitada: Estas máquinas, como los autos sin conductor, pueden
usar memoria limitada y experiencias pasadas para tomar decisiones ya que ha sido
precargados anteriormente. Lo que observa día a día no la pueden guardar como
experiencia pasada puesto que su memoria es limitada.
También, representan la división entre las máquinas construidas ahora y las que se
construirán en el futuro. Estas máquinas algún día tendrán la capacidad de “formar
representaciones sobre el mundo, pero también sobre otros agentes o entidades en el
mundo”. En este sentido, para que podamos observar a máquinas con Inteligencia
Artificial caminando entre nosotros, éstas deben aprender a reconocer y entender las
emociones y sensaciones de quienes se encuentran a su alrededor para adaptar su
comportamiento a éstas.
2.3. ROBÓTICA
2.3.1. Robótica
Desde hace algunos años la robótica se encuentra en su auge, es por ello que está tomando
protagonismo como una tecnología en desarrollo y evolución, esto en gran medida por los
beneficios que trae consigo, las diferentes empresas investigadoras no solo buscan crear un
robot que realice instrucciones, sino buscan como objetivo principal el desarrollo de robots
inteligente y autónomos, capaces de razonar, evolucionar e interactuar con el medio. Cabe
mencionar que para el desarrollo de esta se necesita de otras disciplinas como la informática,
mecánica, electrónica, entre otros, pero está en la actualidad tiene una relación directa con la
Inteligencia Artificial (AI)
La robótica es una “técnica que aplica la informática al diseño y empleo de aparatos que, en
sustitución de personas, realizan operaciones o trabajos, por lo general en instalaciones
industriales”.
Básicamente esta tecnología tiene como finalidad desarrollar, diseñar y construir máquinas
capaces de imitar tareas humanas llegando a recrear inteligencia.
Los avances que tiene esta tecnología son muy significativos y han revolucionado muchas áreas
tales como la medicina, las industrias, agricultura, industria militar, transporte, uso doméstico,
educación entre otros, logrando como objetivo un servicio de calidad y con mejor rendimiento.
Tipos de Robots
Los robots pueden ser de diferentes características, pero su clasificación depende de la función
que vayan a realizar.
La inteligencia artificial y la robótica tiene como propósito que las maquinas desarrollen una
interacción moderada con el medio, imitando el comportamiento humano.
En base al apoyo continuo de estas 2 tecnologías ya existen diferentes robots que colaboran con
el hombre en diferentes actividades y brindan servicios, estos logran seguir instrucciones y
realizar operaciones.
La Inteligencia Artificial y la Robótica han ido evolucionando en gran medida a lo largo de los
últimos años, de tal manera que actualmente existen varios campos que afrontan el futuro de
éstas.
Inteligencia
Robótica
Artificial
Robots Inteligentes
Existen instituciones públicas que están destinando grandes sumas de dinero a I+D, pero el
sector privado es el que más empeño está poniendo en esta tarea. Existen ya varias empresas a
nivel global que están apostando fuerte en este sector como iRobot, Raven Industries, Intuitive
Surgical, Rockwell Automotion o la mismísima Siemens. Existen incluso compañías españolas
que ofrecen soluciones de logística a clientes tan importantes como Peugeot, GlaxoSmithKline
o Campofrío. Según la Federación Internacional de Robótica, la instalación de robots industriales
creció en España un 63% durante el año pasado. Otro estudio afirma que en España hay 150
robots por cada 10.000 empleados, frente a los 127 en Francia o 301 en Alemania. (López, 2017)
Estudiantes del Instituto Politécnico Nacional (IPN) de México crearon un robot con forma de
araña que permite localizar a personas atrapadas entre escombros.
De acuerdo con el centro educativo, este robot opera mediante un dispositivo móvil con
Bluetooth y cuenta con diversos sensores que permiten ubicar a personas atrapadas entre
escombros.
Tiene tres sensores que detectan sonido, temperatura y distancia del espacio donde se
encuentra atrapada la persona.
Fabricada por la empresa japonesa Hanson Robotics, es capaz de entablar una conversación con
otro ser humano, mostrar 62 expresiones faciales y procesar prácticamente toda la información
que llega a sus ojos como las emociones de sus interlocutores según sus gestos.
El potencial de este robot se debe al "Character Engine AI", un software de inteligencia artificial
que dota de 'personalidad' a Sophia, la misma que va aprendiendo y madurando con cada
conversación y experiencia.
Doctor Asistente AI
Fue desarrollado por la firma china iFlytek, se encuentra realizando prácticas en el centro
médico Shuanggang, de la ciudad de Hefei, capital provincial.
El robot médico, de aspecto humanoide, grandes ojos azules y con una permanente sonrisa, es
capaz de recordar diagnósticos y recetas de otros médicos que trabajan en el centro a la hora
de tratar los suyos, basándose en pasadas experiencias.
Fue desarrollado por IBM, es un sistema de inteligencia artificial que pretende ser capaz de
emular y superar al cerebro humano, tiene las siguientes características:
Según IBM, el objetivo para Watson es permitir que las computadoras comiencen a interactuar
de forma natural con humanos a través de una amplia gama de aplicaciones y procesos,
comprendiendo las preguntas de los seres humanos y dando respuestas que los seres humanos
pueden comprender y justificar.
Integridad: Los sistemas serán modificados y/o eliminados sólo por aquellas personas o
servicios autorizados para ello. El concepto de integridad asegura que los datos:
o No son modificados por personal o procesos no autorizados.
o No son modificados de manera no autorizada por personal autorizado.
o Son internos y externamente consistentes.
Disponibilidad: Los sistemas serán asequibles por los usuarios autorizados en el periodo
especificado por el propietario o administrador de la información. Se asegura el acceso,
de manera fiable y en el tiempo definido, a los datos y recursos por parte del personal
apropiado.
La seguridad es un tema que debe inquietar a cualquier organización, que hoy en día, que decida
conectar su red a otras sobre Internet. Las estadísticas de hoy indican el alto nivel de riesgo que
corre la información de una organización, si esta no es correctamente asegurada. Esto no es de
extrañar, si se tiene en cuenta el crecimiento de Internet en los últimos años; que implica, por
una parte, nuevas redes susceptibles de ser atacadas, y por otra, la presencia de nuevos
atacantes en potencia.
Según Eset en su reporte del 2017 sobre América Latina, nos dice que Perú es el país que más
ataques de ransomware (secuestro de datos) ha tenido.
Lo cierto es que, tal y como están las cosas, atacar una red conectada a Internet que no haya
sido protegida de un modo "especial”, es relativamente fácil, y mucho más si se utilizan sistemas
operativos antiguos, que no han sido actualizados ni asegurados en forma debida. En la red es
posible encontrar, sin mucho esfuerzo, listas de vulnerabilidades, tanto de protocolos como de
sistemas operativos; así como guías que señalan los pasos a seguir para explotar dichas
vulnerabilidades.
¿Qué es un Hacker?
Tipos de Hackers
White Hat Hackers (Sombrero Blanco): Son expertos que, con autorización, usan sus
conocimientos para poner a prueba la seguridad de las redes. Si encuentran fallas de
seguridad, informan al encargado de los servidores para reforzar la protección.
Gray Hat Hackers (Sombrero Gris): Son personas que acceden a la información de los
servidores sin permiso, sin tomar ventaja y sin ganar dinero por ello. Cuando violan la
seguridad, normalmente lo hacen público.
Black Hat Hackers (Sombrero Negro): Son personas que ponen en riesgo la seguridad
de la información de los servidores con el fin de obtener algún beneficio económico. Lo
hacen por medio de ataques a la red.
ESCUELA DE TECNOLOGÍAS DE LA INFORMACIÓN IES PRIVADO CIBERTEC
Phreaker: Es el Hacker encargado de las telecomunicaciones, móviles, voz sobre IP, etc.
Su trabajo se centra en irrumpir dentro de este amplio mundo de las comunicaciones.
Newbie: Este es el Novato es el que se tropieza con una página web sobre Hacking y
baja todas las utilidades y programas a su PC, comienza a leer y ejecutar los programas
para ver que hacen. Se refiere a un recién iniciado en la informática. Y hace referencia
a las personas realmente interesadas en aprender.
Lammer: No es nada más y nada menos el que se cree Hacker y no tiene los
conocimientos necesarios ni la lógica para comprender que es lo que realmente está
sucediendo cuando utiliza algún programa ya hecho para hackear y romper alguna
seguridad. Muchas veces se las hecha de que es un Hacker.
Sabiendo que la seguridad TI es una de las mayores preocupaciones de las empresas hoy en día.
Además de contar con una completa plataforma de seguridad, capaz de proteger la
infraestructura empresarial, el hacking ético se ha convertido en un servicio fundamental para
detectar dónde está el peligro o la vulnerabilidad.
Por tanto, Hacking ético se define como el acto de una persona, o mejor conocido como hacker,
que utiliza sus conocimientos de informática y seguridad para encontrar vulnerabilidades o fallas
de seguridad en el sistema, con el objetivo de reportarlas en la organización para que se tomen
todas las medidas necesarias que posibilite prevenir una catástrofe cibernética, como el robo de
información. Estos son expertos que se especializan en las pruebas de penetración de sistemas
informáticos y de software con el fin de evaluar, fortalecer y mejorar la seguridad.
Este tipo de pirata informático a menudo se denomina como hacker de ‘sombrero blanco’
(White hat), con el fin de diferenciarlos de los piratas informáticos criminales, que se conocen
como hackers de ‘sombrero negro’.
Escenarios de Ataque
Los ataques son amenazas que se materializan y generan pérdidas a los sistemas que eligen
como objetivo. Los ataques se han clasificado de la siguiente manera:
Existen diversos tipos de ataque de DOS y para evitarlos se pueden mantener los sistemas
actualizados y/o establecer un procedimiento de acción que involucraría incluso al proveedor
de servicios. La eficacia de los ataques DDoS se debe a que no tienen que superar las medidas
de seguridad que protegen un servidor, pues no intentan penetrar en su interior, sólo
bloquearlo.
b. El malware
Gusanos: Un gusano es un programa que, una vez infectado el equipo, realiza copias
de sí mismo y las difunde por las redes. A diferencia del virus, no necesita nuestra
intervención, ni de un medio de respaldo, ya que pueden transmitirse utilizando las
redes o el correo electrónico. Son difíciles de detectar, pues al tener como objetivo
el difundirse e infectar a otros equipos, no afectan al funcionamiento normal del
sistema.
c. Phishing
d. Ingeniería social
Proceso de vulnerar la confianza y buena fe de las personas para obtener información de ellas,
por medio de la persuasión y obtención amigable de información. Para evitar la acción exitosa
de este ataque los miembros de la organización deben seguir procedimientos estrictos de
trabajo y control de acceso a las instalaciones.
En el Perú, el ransomware, phishing y cryptojacking son las modalidades que más afectan a los
usuarios y empresas. Entonces,
¿Qué es el cryptojacking?
A través de diferentes link puedes visualizar los ataques de un determinado país en tiempo real
, por ejemplo el que nos proporciona Karpesky : https://cybermap.kaspersky.com/es o también
http://www.digitalattackmap.com/#anim=1&color=0&country=ALL&list=0&time=17932&view
=map
Nmap: Red Mapper es una herramienta potente que se utiliza para la detección de redes
y auditoría de seguridad. Los administradores crean informes a través de ella que
describen todos los dispositivos conectados a una misma red. Pueden detectar sistemas
operativos de huellas dactilares o identificar paquetes en bruto entre otras muchas
utilidades, y destaca también por identificar tanto los sistemas que ejecutan como las
aplicaciones de servidor. Sus características son muy amplias y muy interesantes porque
pueden evadir importantes sistemas de seguridad y cortafuegos, e incluso pueden
imitar ciertos protocolos de aplicación.
OWASP Zed: Está especializada en detectar grietas en las aplicaciones web. Está escrita
en Java por lo que es multiplataforma y no solo sirve para proyectar ataques, sino que
es muy útil como herramienta de defensa porque sus escáneres automáticos
comprueban periódicamente y avisan de posibles vulnerabilidades.
En la empresa el hacker ético trabaja como consultor de seguridad. Aplica técnicas de hacking
ético para a través de sus conocimientos informáticos, realizar pruebas en sistemas, redes o
dispositivos electrónicos. Se buscan vulnerabilidades con el fin de tomar medidas sin poner en
riesgo el sistema. Es algo así como poner el “mal al servicio del bien”. Se mete en la piel del
criminal para adelantarse a sus acciones y proponer estrategias y mejoras de la seguridad. Para
ello, el hacker ético realiza una serie de pruebas de penetración (pen tests) para burlar la
seguridad del sistema. Estas pruebas están compuestas por un conjunto de metodologías y
técnicas. Estas metodologías y técnicas reproducen intentos de acceso desde diferentes puntos
de entrada de un entorno informático. El fin es demostrar los riesgos existentes debido a las
vulnerabilidades detectadas.
Las pruebas de penetración comprenden desde el análisis de dispositivos físicos y digitales, hasta
el análisis del factor humano haciendo uso de la Ingeniería Social. Existen principalmente dos
tipos de pruebas de penetración:
Test Externo: El hacker ético lleva a cabo pruebas de acceso desde fuera del entorno de
la organización. Intenta posicionarse como administrador del sistema. Se lleva a cabo
desde fuera del Firewall y en forma remota. Algunas de las pruebas llevadas a cabo para
este test conllevan el escaneo de puertos TCP, UDP e ICMP, detección de los protocolos
utilizados, detección de las conexiones externas y rangos de direcciones, captura de
tráfico, etc.
Existen muchas metodologías, pero dependerá del criterio del pentester ya que dependiendo
de lo que se quieren mostrar hará uso de diversas herramientas.
b. Escaneo: Una vez que lograste identificare en el paso anterior su topología de red, el
siguiente paso es identificar quién está activo dentro de esta red y con ello sabrás que
puertos, sistemas operativos y aplicaciones están ejecutándose.
c. Obtención de acceso: este paso es la ejecución de todos los exploits que tengamos a la
mano para usar las vulnerabilidades encontradas en el paso anterior. Podemos hacer
uso de herramientas manuales (scripts, ejecución de comandos, entre otros) así como
herramientas automáticas (frameworks de explotación, software qué lance paquetes a
objetivos, entre otros).
d. Generar informe: la parte más tediosa, pero que refleja el trabajo realizado y en que
presentaremos a nuestro cliente todas las vulnerabilidades encontradas, como
pudieron ser explotadas, cómo pueden hacerle daño, sus posibles consecuencias y,
sobre todo, cómo puede mitigarlas.
Baiting
La tentación está presente de muchas formas y los criminales lo saben. Así como existen técnicas
para engañar a las personas dejando caer un billete o algo que pudiera ser valioso, los
cibercriminales pueden “olvidar” un dispositivo de almacenamiento, como una memoria USB,
infectado con software malicioso a la vista en un espacio público. Quien lo encuentre, y se sienta
atraído por esta “carnada”, posiblemente lo conecte a su equipo para conocer su contenido sin
darse cuenta de que ha infectado su equipo.
Pretexto
Los cibercrinimales crean historias para tratar de atrapar personas de buena voluntad. Algunas
suelen ser trágicas y apelan al sentido de socorro que muchas personas tienen a flor de piel y
que actúan sin reflexionar, más aún si quien está en riesgo es una alguien cercano o incluso un
familiar. Normalmente estas técnicas están acompañadas de otras para hacer más verosimil la
historia, como una suplantación de identidad.
En este tipo de estafa se tienta a las potenciales víctimas con premios, descuentos en productos
costosos o algún tipo de beneficio suculento. Sin embargo, el objetivo es recopilar datos para el
robo de identidad. Se suele pedir que complete un formulario con información personal.
Clone phishing
El atacante crea un mensaje idéntico (clona) al de alguna empresa de confianza con un adjunto
malicioso o enlace donde descargarlo. Simula casi exactamente el formato del correo y aspectos
gráficos de la empresa suplantada para ganar la confianza de la víctima.
Spear phishing
Técnica relaciona al phishing, aunque con mayor grado de complejidad. Es todo un accionar
dirigido a una persona de una empresa o particular. Se realiza una investigación de la víctima en
redes sociales para conocerla mejor y luego enviarle correos de interés procurando que confíe
y pulse un enlace donde se encuentre un software malicioso.
Vishing
Este ataque implica mayor interacción social pues se contacta telefónicamente a la persona
objetivo haciéndose pasar por alguien de confianza de la misma empresa o alguna entidad
bancaria. Regularmente suplantan a la entidad bancaria para obtener el número y clave de la
tarjeta de crédito luego de hacerle creer que esta ha sido bloqueada. También se usa para
obtener claves de seguridad para acceso a servidores
Farming
Es un proceso de larga duración, donde los cibercriminales buscan establecer una relación con
la persona objetivo. Regularmente, observan sus perfiles de redes sociales y van construyendo
una relación con él en base a esa información hasta lograr su objetivo que suele ser, entre otras
cosas, extraerle información de algo más importante. En algunas ocasiones terminan en
extorsión al conocer detalles personales que pudieran ser expuestos.
La protección contra la ingeniería social comienza con la educación. Los usuarios deben saber
identificar los diferentes tipos de ataques porque estos nunca son perfectos. Siempre hay
detalles que se pueden detectar si se conocen las técnicas. Los usuarios deben aprender que
nunca deben pulsar enlaces sospechosos y siempre deben proteger sus credenciales de inicio
de sesión, tanto en casa como en la oficina.
Sesión Integradora II
Resumen
1. El dominio de las TIC se impone como habilidad imprescindible para el desempeño de todo
tipo de actividades en la vida cotidiana de cualquier individuo.
3. Bitcoin es una moneda virtual e intangible. Es decir, que no se puede tocar en ninguna de
sus formas como ocurre con las monedas o billetes, pero puede utilizarse como medio de
pago de la misma forma que éstos.
5. Los White Hat Hackers son expertos que, con autorización, usan sus conocimientos para
poner a prueba la seguridad de las redes. Si encuentran fallas de seguridad, informan al
encargado de los servidores para reforzar la protección.
Recursos
Puede revisar los siguientes enlaces para ampliar los conceptos vistos en esta unidad:
o IoT: https://www.khanacademy.org/computing/cs
o Impresiones 3D: https://www.makerbot.com
o Hacking ético: https://www.icemd.com/digital-knowledge/articulos/herramientas-de-
hacking-para-un-hacking-etico/
o Hacker: https://ticnegocios.camaravalencia.com/servicios/tendencias/que-es-el-hacking-
etico/#Es_legal_hacking_etico
o Ciberataque: https://portal.andina.pe/edpespeciales/2018/ciberataques-peru/index.html
o Ciberseguridad: http://www.iniseg.es/blog/ciberseguridad/que-es-el-hacking-etico/
Bibliografía
Berral, I. (2014) Montaje y Mantenimiento de sistemas de componentes informáticos.
Madrid: Ediciones Paraninfo S.A.
Hernández, M., Ortiz, M., Calles, C., & Rodríguez, J. (2015) Robótica: Análisis, modelado,
control e implementación. México.