Trabajo Final Arqui.
Trabajo Final Arqui.
Trabajo Final Arqui.
CARACAS–DISTRITO CAPITAL
ARQUITECTURA DEL COMPUTADOR
MENCIÓN INFORMÁTICA III
INTEGRANTE:
Rangel Sotelo Alexis José
C.I. 14.690.294
DOCENTE:
0
ÍNDICE
- INTRODUCCIÓN
- ¿QUE ES LA VIRTUALIZACION?
- HISTORIA DE LA VIRTUALIZACIÓN
- MODELO OSI
- CONCLUSIÓN
- BIBLIOGRAFÍA
1
INTRODUCCIÓN
El presente trabajo tiene como objetivo brindar una breve información Sobre sistemas operativos, Windows, Linux,
Android, MacOS, virtualizar, maquinas virtuales y OSI con la finalidad de dar a conocer cuáles fueron sus orígenes,
su utilidad y su permanencia con el paso del tiempo la importancia que tiene dentro de las empresas u
organizaciones y las transformaciones tecnológica que han aportado en beneficios a la humanidad con en el
transcurso de los años.
Teniendo en cuenta esto, el objetivo es satisfacer las necesidades humanas utilizando los recursos disponibles. De esa
manera, la tecnología se constituye con varias aristas: su tendencia a expresarse actividad eminentemente social, esto
es, saber hacer; uso oportuno de los recursos a su alcance; manejo adecuado de los materiales, y la información que
se posee sobre ello, todo esto, en vista a responder eficazmente a las diferentes necesidades de las personas en
sociedad.
2
¿QUE SON LOS SISTEMAS OPERATIVOS?
Un Sistema Operativo (SO) es un programa (software) que después de arrancado o iniciado el ordenador se encarga
de gestionar todos los recursos del sistema informático, tanto de hardware (partes físicas, disco duro, pantalla,
teclado, etc.) como el software (programas e instrucciones), permitiendo así la comunicación entre el usuario y el
ordenador.
Los sistemas operativos generalmente vienen precargados en cualquier ordenador cuando lo compramos. La mayoría
de la gente usa el sistema operativo que viene en su ordenador pero es posible actualizarlo o incluso cambiar el
sistema operativo por otro diferente.
Los sistemas operativos utilizan imágenes y botones para poder comunicarnos con el ordenador de forma sencilla y
fácil para decirle lo que queremos hacer en cada momento a nuestro ordenador.
Su función principal es la de darnos las herramientas necesarias para poder controlar nuestra computadora y poder
hacer uso de ella, de la forma más cómoda y sencilla posible.
Las funciones básicas del Sistema Operativo son administrar los recursos del ordenador, coordinar el hardware y
organizar archivos y directorios en los dispositivos de almacenamiento de nuestro ordenador.
Algunas cosas más concretas que puede realizar un Sistema Operativo son:
-Múltiples programas se pueden ejecutar al mismo tiempo, el sistema operativo determina qué aplicaciones se deben
ejecutar en qué orden y cuánto tiempo.
-Gestiona el intercambio de memoria interna entre múltiples aplicaciones.
-Se ocupa de entrada y salida desde y hacia los dispositivos de hardware conectados, tales como discos duros,
impresoras y puertos.
-Envía mensajes a cada aplicación o usuario interactiva (o a un operador del sistema) sobre el estado de
funcionamiento y los errores que se hayan podido producir.
- En los equipos que pueden proporcionar procesamiento en paralelo, un sistema operativo puede manejar la forma
de dividir el programa para que se ejecute en más de un procesador a la vez.
Los sistemas operativos para PC u ordenadores de sobremesa son muy variados y hay muchos, pero los más
utilizados son el Windows, el Mac y el LINUX.
Windows, sistema estándar para ordenadores personales y de negocios. Introducido en 1985, fue en gran parte el
responsable de la rápida evolución de la informática personal.
El Mac OS es el sistema operativo de Apple Macintosh para líneas de computadoras personales y estaciones de
trabajo. La manzana es su logotipo.
Linux o GNU/Linux como sistema operativo fue diseñado para proporcionar a los usuarios de computadoras
personales una alternativa libre o de muy bajo costo. Linux tiene la reputación de ser un sistema muy eficiente y
rápido. Hay muchas versiones diferentes, las más conocidas son Ubuntu o Fedora. Las versiones se pueden modificar
de forma libre por cualquier usuario.
Android es el nombre de un sistema operativo que se emplea en dispositivos móviles, por lo general con pantalla
táctil. De este modo, es posible encontrar tabletas (tablets), teléfonos móviles (celulares) y relojes equipados con
Android, aunque el software también se usa en automóviles, televisores y otras máquinas.
Creado por Android Inc., una compañía adquirida por Google en 2005, Android se basa en Linux, un programa libre
que, a su vez, está basado en Unix. El objetivo inicial de Android, de este modo, fue promover los estándares
abiertos en teléfonos y computadoras (ordenadores) móviles. Dada la gran cantidad de dispositivos equipados con
Android, ya es posible encontrar más de un millón de aplicaciones que utilizan este sistema operativo para su
funcionamiento. Android también se destaca por su seguridad, ya que los expertos han detectado pocas
vulnerabilidades en su estructura.
3
PRINCIPALES CARACTERÍSTICAS DE WINDOWS
1. Es un Sistema Operativo, que cuenta con un Ambiente Gráfico (GUI) que permite ejecutar programas
(aplicaciones) de forma más fácil y cómoda para el usuario. Viene a sustituir al Sistema Operativo DOS; facilitando
el uso y fácil manejo de una Computadora Personal, desarrollado por la empresa Microsoft.
2. GUI: Toda la información presentada es totalmente gráfica. · Tareas Múltiples: Permite ejecutar varias
aplicaciones a la vez (Multitasking). · Nombres Largos: Permite el uso de nombres largos, hasta 255 caracteres, para
nombrar archivos. · Asistente: Contiene una forma fácil de realizar más rápido las tareas al ser guiados paso a paso. ·
Entorno Red: Es una excelente plataforma para implementar una Red, con la cual podemos compartir información,
impresoras, etcétera. · Ayuda: Todas las aplicaciones cuentan con Ayuda para aquel usuario inexperto en el uso de
los programas. Características de Windows
3. Interfaz Gráfica de usuario (abrevado del acrónimo GUI, inglés Graphical User Interface) es un mecanismo de
interacción humano-computadora. Con un ratón o teclado que el usuario es capaz de seleccionar los símbolos y
manipular para obtener algún resultado práctico. Estas señales se designan como los widgets y se agrupan en kits.
Ambientes gráficos
4. Se trata del punto de partida gráfico para realizar cualquier actividad en dentro de un sistema operativo gráfico.
/Escritorio remoto Escritorio
5. Es un área que utiliza de fondo Windows. Sirve para tener aplicaciones o accesos directos de usos frecuentes y no
tener que ir a donde están almacenados siguiendo su ruta.
6. TEMAS ESCRITORIO Propiedades de Pantalla (Escritorio) En la pestaña escritorio tenemos la opción de poner
una fotografía de fondo en el escritorio con las opciones centrada, mosaico o expandida. En la pestaña temas
podremos cambiar el tema principal de Windows o determinar uno nuevo.
7. Protector de pantalla Apariencia En la pestaña de apariencia podremos modificar las ventanas de Windows a
nuestro antojo en cuanto a tamaño color y estilo de las ventanas. En la pestaña protector de pantalla podremos
seleccionar el protector de pantalla que queramos o que nos hayamos descargado.
8. Una sola pantalla Dos pantallas Resolución de pantalla Y por ultimo en la parte de configuración podemos
cambiar tanto la resolución de pantalla como la calidad del color y también
9. El botón de inicio proporciona un punto central de lanzamiento de aplicaciones y tareas. El usuario lo puede
organizar y personalizar según sus preferencias. Inicio (Menú) Permite iniciar la ejecución de programas de forma
rápida, así como el acceso a las principales funciones del ambiente Windows.
10. Es una barra que aparece en la parte inferior de la pantalla principal. En esta barra aparecen los botones que
representan a los programas actualmente en ejecución.
4
PRINCIPALES CARACTERISTICAS DE MacOS
1. Código abierto.
2. Núcleo basado en el Kernel de Linux.
3. Adaptable a muchas pantallas y resoluciones.
4. Utiliza SQLite para el almacenamiento de datos.
5. Ofrece diferentes formas de mensajería.
6. Navegador web basado en WebKit incluido.
7. Soporte de Java y muchos formatos multimedia.
8. Soporte de HTML, HTML5, Adobe Flash Player, etc.
9. Incluye un emulador de dispositivos, herramientas para depuración de memoria y análisis del
10. rendimiento del software.
11. Catálogo de aplicaciones gratuitas o pagas en el que pueden ser descargadas e instaladas (Google Play).
¿QUE ES LA VIRTUALIZACION?
La virtualización es tecnología que permite crear múltiples entornos simulados o recursos dedicados desde un solo
sistema de hardware físico. El software llamado "hipervisor" se conecta directamente con el hardware y permite
dividir un sistema en entornos separados, distintos y seguros, conocidos como "máquinas virtuales" (VM). Estas VM
5
dependen de la capacidad del hipervisor de separar los recursos de la máquina del hardware y distribuirlos
adecuadamente. La virtualización le permite aprovechar al máximo sus inversiones anteriores.
La máquina física original en que está instalado el hipervisor se llama "host", y las VM que utilizan estos recursos se
llaman "guests". Los guests utilizan los recursos informáticos, como la CPU, la memoria y el almacenamiento, como
un conjunto de medios que pueden redistribuirse fácilmente. Los operadores pueden controlar las instancias virtuales
de la CPU, la memoria, el almacenamiento y demás recursos, para que los invitados reciban lo que necesiten cuando
lo necesiten.
Lo ideal es que todas las VM relacionadas se administren desde una sola consola de administración de virtualización
basada en la web, que acelera todos los procesos. La virtualización le permite determinar cuánto poder de
procesamiento, de almacenamiento y de memoria puede distribuir entre las VM. Además, los entornos están mejor
protegidos, porque las VM están separadas entre sí, y son independientes del hardware de soporte.
HISTORIA DE LA VIRTUALIZACIÓN
La virtualización empezó a desarrollarse en la década de los sesenta para particionar los mainframes de gran tamaño
a fin de mejorar su utilización. En la actualidad, los ordenadores basados en la arquitectura x86 tienen que resolver
los mismos problemas de rigidez e infrautilización que se planteaban para los mainframes en aquella década.
VMware inventó la virtualización para la plataforma x86 en la década de los noventa para abordar los problemas de
infrautilización y de otra índole, a lo largo de un proceso que obligó a superar gran cantidad de desafíos. En la
actualidad, VMware es líder mundial en virtualización para x86, con más de170,000 clientes, incluido el 100% de las
empresas de la lista Fortune 100.
Fue IBM quien empezó a implementar la virtualización hace más de 30 años como una manera lógica de particionar
ordenadores mainframe en máquinas virtuales independientes. Estas particiones permitían a los mainframes realizar
múltiples tareas: ejecutar varias aplicaciones y procesos al mismo tiempo. Dado que en aquella época los mainframes
eran recursos caros, se diseñaron para particionar como un método de aprovechar al máximo la inversión.
Una máquina virtual es un software que crea una capa independiente donde se emula el funcionamiento de un
ordenador real con todos los componentes de hardware que necesita para funcionar (disco duro, memoria RAM,
tarjetas de red, tarjeta gráfica, etc.) y que puede ejecutar cualquier sistema operativo o programa, tal y como lo haría
un ordenador real. Toda esta emulación se encapsula en una serie de archivos que actúan como contendor desde el
que se ejecuta la máquina virtual en una ventana de tu ordenador como si de un programa más se tratara y sin que
nada de lo que suceda en el interior de esa ventana afecte al ordenador que la ejecuta.
A grandes rasgos, la única diferencia entre tu ordenador real y una máquina virtual que ejecutes en ese mismo
ordenador, es que tu ordenador sí cuenta con un hardware real, mientras que la máquina virtual emula todos sus
componentes de forma que no tiene por qué corresponderse con el hardware físico que tienes instalado en tu
ordenador real.
De ese modo, se pueden ajustar las características del hardware para hacerlo compatible con el sistema operativo que
vayas a usar en esa máquina virtual. Es decir, aunque tu hardware real no sea compatible con un determinado sistema
operativo, el de una máquina virtual que se ejecute en ese ordenador sí puede serlo.
Esto facilita que, una vez creada la máquina virtual en un ordenador, puedes copiar o mover el archivo contenedor
que se crea y ejecutarla en cualquier otro ordenador, aunque tenga un hardware totalmente diferente.
Este tipo de máquinas virtuales, conocidas como máquinas virtuales de sistema, son las más conocidas por la
mayoría de usuarios ya que son ideales para virtualizar sistemas operativos completos, pero no el único tipo de
máquinas virtuales que existe. También existen las máquinas virtuales de procesos, que son más habituales en
servidores y en las que únicamente se virtualiza determinados procesos o servicios y no el sistema operativo
completo.
Existen diversos usos para las máquinas virtuales, pero ya que permiten emular casi cualquier sistema operativo
estándar (Windows, GNU/Linux, MacOS, Android, etc.), y dado que se ejecutan en una capa de software diferente y
totalmente aislada, uno de los usos más frecuentes es el de probar diferentes sistemas operativos, programas o
6
configuraciones con total seguridad para tu ordenador real ya que, si algo falla en la máquina virtual, este fallo no
afectará en absoluto al ordenador que la ejecuta.
De ese modo, si por ejemplo, sospechas que un archivo que te han enviado pudiera estar infectado por un virus o
software malicioso, puedes ejecutarlo en una máquina virtual para comprobar su fiabilidad. Si no sucede nada,
podrás usarlo en tu equipo. En caso contrario, infectará solo a la máquina virtual y tu equipo se mantendrá inmune al
ataque.
Otra característica de las máquinas virtuales es que no tienen “conciencia” de que son máquinas virtuales, por lo que,
a todos los efectos, se comportan como ordenadores reales. Esta cualidad permite, entre otras cosas, recrear entornos
de red en el que puedes conectar varias máquinas virtuales ejecutadas en el mismo ordenador y conectarlas entre sí
en red, recreando la configuración que tendrían diferentes ordenadores reales.
Esto puede serte muy útil para aprender cómo funcionan las redes informáticas y ahorrarte muchos euros ya que no
necesitarás tener varios ordenadores reales para probar la seguridad de tus redes.
Virtual Box: tiene unos cuantos fieles gracias a que no cuesta nada, es multiplataforma y tiene un gran número de
características que hacen que ejecutar y mantener las máquinas virtuales sea pan comido. Las descripciones y los
parámetros de las máquinas virtuales se almacenan en archivos de texto XML sin formato para facilitar la
portabilidad y el intercambio de carpetas. Su función “Guest Additions”, disponible para Windows, Linux, Solaris y
OS/, permite la instalación un software en la máquina virtual que otorga privilegios adicionales a la máquina host
para tareas como compartir archivos, compartir unidades y periféricos, haciendo que Virtual Box sea más fácil de
usar.
Parallels: es la aplicación más vendida para ejecutar máquinas virtuales en Mac. Este software tiene enlace directo,
gracias a la optimización de chips Intel y AMD, al hardware del PC host con enfoque selectivo: al saltar a la máquina
virtual para trabajar, la máquina host renuncia automáticamente a la potencia de procesamiento. Parallels también
tiene portapapeles sincronizado, carpetas compartidas y soporte para impresoras y periféricos transparentes.
VMware: para Windows y Linux viene en dos sabores: VMware Workstation Player y VMware Workstation Pro.
VMware Workstation Player es una solución gratuita dirigida a usuarios casuales que necesitan crear y ejecutar
máquinas virtuales, pero no necesitan soluciones avanzadas a nivel de empresa. VMware Workstation Pro incluye
todas las características de VMware Workstation Player fácil creación de máquinas virtuales, optimización de
hardware, impresión sin drivers y añade la posibilidad de clonar máquinas, crear varias imágenes o snapshots del
sistema operativo, y opciones para probar software y grabar los resultados dentro de la máquina virtual.
Qemu: es una poderosa herramienta de virtualización para máquinas Linux que ejecuta el código del sistema
invitado directamente en el hardware del host, puede emular máquinas de distinto hardware con traducción dinámica
y admite el cambio automático de tamaño de los discos virtuales. Pero donde QEMU brilla especialmente, sobre todo
entre aquellos a los que les gusta empujar los límites de la virtualización y llevar sus máquinas virtuales con ellos, es
en ejecutándose en hosts sin permisos de administrador. A diferencia de casi todos los emuladores que hay por ahí,
QEMU no requiere acceso de administrador para ejecutarse, por lo que es un candidato perfecto para la construcción
de máquinas virtuales portátiles.
Windows Virtual PC: A diferencia de los demás, Windows Virtual PC existe únicamente para emular otras
versiones anteriores de Windows. Si necesitas ejecutar un programa que solo funciona en Windows XP o probar la
compatibilidad de un software con Vista, Windows Virtual PC te tiene cubierto. Es limitado, cierto, pero para las
personas que trabajan en un entorno estrictamente de Windows, como la mayor parte de la gente, Windows Virtual
PC hace su trabajo.
Oracle Virtual Box: es un programa que tiene como objetivo la virtualización de distintos OS, a diferencia de
Virtual PC es mucho más versátil, compatible y amable con OS diferentes a los creados por Microsoft (tal como
Linux y hasta con MAC), además, tiene muchas más opciones que permiten hacer una máquina virtual más estable,
completa y de mayor rendimiento.
Su interfaz gráfica con el usuario es más moderna, intuitiva, agradable a la vista y brinda toda la información de las
máquinas virtuales en el primer pantallazo, adicionalmente da una imagen previa del estado de la máquina en la parte
superior derecha. Otro punto a favor es que permite hacer puente entre los puertos USB de la PC real con la virtual,
algo que no se puede hacer con el Virtual PC, el cual, lamentablemente, se quedó en los puertos seriales y paralelos.
Y por último, no requiere un paquete adicional para sacarle todo el jugo al programa.
7
MODELO OSI
Durante los años 60 y 70 se crearon muchas tecnologías de redes, cada una basada en un diseño específico de
hardware. Estos sistemas eran construidos de una sola pieza, una arquitectura monolítica. Esto significa que los
diseñadores debían ocuparse de todos los elementos involucrados en el proceso, estos elementos forman una cadena
de transmisión que tiene diversas partes: Los dispositivos físicos de conexión, los protocolos software y hardware
usados en la comunicación.
Los programas de aplicación realizan la comunicación y la interfaz hombre-máquina que permite al humano utilizar
la red. Este modelo, que considera la cadena como un todo monolítico, es poco práctico, pues el más pequeño
cambio puede implicar alterar todos sus elementos.
El diseño original de Internet del Departamento de Defensa Americano disponía un esquema de cuatro capas, aunque
data de los 70 es similar al que se continúa utilizando:
Capa Física o de Acceso de Red: Es la responsable del envío de la información sobre el sistema hardware utilizado
en cada caso, se utiliza un protocolo distinto según el tipo de red física.
Capa de Red o Capa Internet: Es la encargada de enviar los datos a través de las distintas redes físicas que pueden
conectar una máquina origen con la de destino de la información. Los protocolos de transmisión, como el IP están
íntimamente asociados a esta capa.
Capa de Transporte: Controla el establecimiento y fin de la conexión, control de flujo de datos, retransmisión de
datos perdidos y otros detalles de la transmisión entre dos sistemas. Los protocolos más importantes a este nivel son
TCP y UDP (mutuamente excluyentes).
Capa de Aplicación: Conformada por los protocolos que sirven directamente a los programas de usuario, navegador,
e-mail, FTP, TELNET, etc.
Respondiendo a la teoría general imperante el mundo de la computación, de diseñar el hardware por módulos y el
software por capas, en 1978 la organización ISO (International Standards Organization), propuso un modelo de
comunicaciones para redes al que titularon "The reference model of Open System Interconnection", generalmente
conocido como MODELO OSI.
Su filosofía se basa en descomponer la funcionalidad de la cadena de transmisión en diversos módulos, cuya interfaz
con los adyacentes esté estandarizada. Esta filosofía de diseño presenta una doble ventaja: El cambio de un módulo
no afecta necesariamente a la totalidad de la cadena, además, puede existir una cierta inter-operabilidad entre
diversos productos y fabricantes hardware/software, dado que los límites y las interfaces están perfectamente
definidas.
Esto supone por ejemplo, que dos software de comunicación distinta puedan utilizar el mismo medio físico de
comunicación.
El modelo OSI tiene dos componentes principales:
Un modelo de red, denominado modelo básico de referencia o capa de servicio.
Una serie de protocolos concretos.
El modelo de red, aunque inspirado en el de Internet no tiene más semejanzas con aquél. Está basado en un modelo
de siete (7) capas, mientras que el primitivo de Internet estaba basado en cuatro (4). Actualmente todos los
desarrollos se basan en este modelo de 7 niveles que son los siguientes: 1 Físico; 2 de Enlace; 3 de Red; 4 de
Transporte; 5 de Sesión; 6 de Presentación y 7 de Aplicación. Cada nivel realiza una función concreta, y está
separado de los adyacentes por interfaces conocidas, sin que le incumba ningún otro aspecto del total de la
comunicación.
1. Capa física
Es la encargada de transmitir los bits de información por la línea o medio utilizado para la transmisión. Se ocupa de
las propiedades físicas y características eléctricas de los diversos componentes, de la velocidad de transmisión, si
esta es unidireccional o bidireccional (simplex, duplex o flull-duplex).
También de aspectos mecánicos de las conexiones y terminales, incluyendo la interpretación de las señales eléctricas.
2. Capa de enlace
Puede decirse que esta capa traslada los mensajes hacia y desde la capa física a la capa de red. Especifica cómo se
organizan los datos cuando se transmiten en un medio particular. Esta capa define como son los cuadros, las
direcciones y las sumas de control de los paquetes Ethernet.
8
Además del direccionamiento local, se ocupa de la detección y control de errores ocurridos en la capa física, del
control del acceso a dicha capa y de la integridad de los datos y fiabilidad de la transmisión. Para esto agrupa la
información a transmitir en bloques, e incluye a cada uno una suma de control que permitirá al receptor comprobar
su integridad. Los datagramas recibidos son comprobados por el receptor. Si algún datagrama se ha corrompido se
envía un mensaje de control al remitente solicitando su reenvío.
3. Capa de Red
Esta capa se ocupa de la transmisión de los datagramas (paquetes) y de encaminar cada uno en la dirección adecuada
tarea esta que puede ser complicada en redes grandes como Internet, pero no se ocupa para nada de los errores o
pérdidas de paquetes. Define la estructura de direcciones y rutas de Internet. A este nivel se utilizan dos tipos de
paquetes: paquetes de datos y paquetes de actualización de ruta. Como consecuencia esta capa puede considerarse
subdividida en dos:
Transporte: Encargada de encapsular los datos a transmitir (de usuario). Utiliza los paquetes de datos.
4. Capa de Transporte
Esta capa se ocupa de garantizar la fiabilidad del servicio, describe la calidad y naturaleza del envío de datos. Esta
capa define cuando y como debe utilizarse la retransmisión para asegurar su llegada. Para ello divide el mensaje
recibido de la capa de sesión en trozos (datagramas), los numera correlativamente y los entrega a la capa de red para
su envío.
Durante la recepción, si la capa de Red utiliza el protocolo IP, la capa de Transporte es responsable de reordenar los
paquetes recibidos fuera de secuencia. También puede funcionar en sentido inverso multiplexando una conexión de
transporte entre diversas conexiones de datos. Este permite que los datos provenientes de diversas aplicaciones
compartan el mismo flujo hacia la capa de red.
Un ejemplo de protocolo usado en esta capa es TCP, que con su homólogo IP de la capa de Red, configuran la suite
TCP/IP utilizada en Internet, aunque existen otros como UDP, que es una capa de transporte utilizada también en
Internet por algunos programas de aplicación.
5. Capa de Sesión
Es una extensión de la capa de transporte que ofrece control de diálogo y sincronización, aunque en realidad son
pocas las aplicaciones que hacen uso de ella.
6. Capa de Presentación
Esta capa se ocupa de garantizar la fiabilidad del servicio, describe la calidad y naturaleza del envío de datos. Esta
capa define cuando y como debe utilizarse la retransmisión para asegurar su llegada. Para ello divide el mensaje
recibido de la capa de sesión en trozos (datagramas), los numera correlativamente y los entrega a la capa de red para
su envío.
7. Capa de Aplicación
Esta capa describe como hacen su trabajo los programas de aplicación (navegadores, clientes de correo, terminales
remotos, transferencia de ficheros etc). Esta capa implementa la operación con ficheros del sistema. Por un lado
interactúan con la capa de presentación y por otro representan la interfaz con el usuario, entregándole la información
y recibiendo los comandos que dirigen la comunicación.
9
CONCLUSIÓN
Las máquinas virtuales brindan la posibilidad de independencia de un sistema operativo al permitir tener múltiples de
ellos en forma paralela, garantizando con esto un mejor rendimiento y eficiencia y eliminando los tiempos ociosos.
Además permiten simplificar la estructura de un computador, ya que hace posible reducir su crecimiento y compartir
las cargas de trabajo entre varias máquinas virtuales, con recursos suficientes para cubrir dichas demandas. Todo esto
implica la reducción de costos y riesgos y aumento en la calidad y agilidad de la infraestructura. Las maquinas
proporcionan fiabilidad a la hora de realizar un trabajo, ya que permite el aislamiento entre distintas máquinas
virtuales, de tal manera que si ocurre un fallo de sistema en una máquina virtual, esta no afectara la ejecución de
otras máquinas virtuales ejecutándose sobre el mismo hardware. Esta capa de abstracción proporciona a cada
máquina virtual la percepción de estar ejecutándose sobre un hardware dedicado.
BIBLIOGRAFÍA
https://es.slideshare.net/search/slideshow?searchfrom=header&q=principales+caracteristicas+de+
ios+
https://es.slideshare.net/josefabiandiazs/caracteristicas-principales-de-linux
https://androidos.readthedocs.io/en/latest/data/caracteristicas/
https://www.monografias.com/trabajos29/modelo-osi/modelo-osi.shtml
http://www.areatecnologia.com/sistemas-operativos.htm
https://definicion.de/sistema-operativo/
10