Introduccion A Los Si

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 28

1.

EL SISTEMA INFORMÁTICO
Un sistema informático es un conjunto organizado de recursos que están diseñados para
realizar tareas de procesamiento de datos y almacenamiento. Estos recursos pueden ser tanto
tangibles (hardware) como intangibles (software). El principal objetivo de un sistema
informático es resolver problemas y realizar tareas específicas mediante la ejecución de
instrucciones programadas.

Componentes principales:

● Hardware: Son los componentes físicos del sistema, como la CPU, memoria RAM, disco
duro, entre otros.
● Software: Son los programas y aplicaciones que permiten al hardware realizar tareas
específicas. Se divide en software de sistema (sistemas operativos) y software de
aplicación (programas específicos para tareas).
● Datos: Información que se procesa y almacena en el sistema.
● Procedimientos: Son las reglas o protocolos establecidos para el uso y operación del
sistema.
● Usuarios: Personas que interactúan con el sistema informático.

Una clasificación de sistemas informáticos es de mayor a menor precio, tamaño, potencia,


velocidad y prestaciones:

- Superordenadores: Son máquinas diseñadas para realizar cálculos a velocidades


extremadamente altas y manejar grandes cantidades de datos. Se utilizan en tareas
que requieren un alto rendimiento computacional, como simulaciones climáticas,
investigación científica, análisis genómico y simulaciones nucleares. Son conocidos por
su capacidad para realizar trillones de cálculos por segundo.
- Microordenadores: Estos son ordenadores de gran tamaño que tienen una gran
capacidad de procesamiento y almacenamiento. Se utilizan principalmente en grandes
organizaciones para gestionar y procesar grandes cantidades de información. Los
bancos, las compañías de seguros y las aerolíneas, por ejemplo, dependen de los
mainframes para sus operaciones diarias.
- Servidores y estaciones de trabajo: Los servidores son ordenadores o sistemas
diseñados para gestionar el acceso a recursos centralizados en una red. Pueden ser
utilizados para almacenar datos, gestionar correos electrónicos, alojar sitios web, entre
otras tareas. A diferencia de los ordenadores personales, están diseñados para ser más
robustos, confiables y están optimizados para tareas específicas. Las estaciones de
trabajo son ordenadores de alto rendimiento utilizados para tareas que requieren más
potencia que un PC típico. Se utilizan comúnmente en campos como el diseño gráfico,
la edición de video, la ingeniería y la investigación científica. A menudo tienen gráficos
avanzados, mayor memoria y capacidades de procesamiento más potentes.
- Ordenadores personales o PC: Estos son los ordenadores más comunes y están
diseñados para ser utilizados por individuos. Vienen en diferentes formas, incluyendo
de escritorio, portátiles, tablets y más. Están diseñados para una variedad de tareas
generales, como navegar por la web, escribir documentos, jugar y ver videos.
2. EVOLUCIÓN HISTÓRICA DE LA INFORMÁTICA
La historia de la informática es un fascinante viaje que se remonta a tiempos antiguos, cuando
las civilizaciones buscaban formas de facilitar los cálculos matemáticos. Uno de los primeros
dispositivos de cálculo conocidos es el ábaco, utilizado en antiguas culturas como China, Grecia
y Roma. Este sencillo instrumento, compuesto por un marco de madera con cuentas que se
deslizaban a lo largo de varillas, permitía realizar operaciones aritméticas básicas.

A medida que avanzaba el tiempo, en el siglo XVII, el matemático y filósofo francés Blaise
Pascal introdujo una notable innovación con la invención de la "Pascalina". Esta máquina, una
de las primeras calculadoras mecánicas, estaba diseñada para realizar sumas y restas, y su
creación marcó un hito en la búsqueda de herramientas que facilitarán el cálculo. No mucho
después, el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó la idea de
Pascal al crear una máquina capaz de multiplicar, dividir y calcular raíces cuadradas. Además,
Leibniz es reconocido por su desarrollo del sistema binario, un concepto fundamental para la
informática moderna.

El siglo XIX trajo consigo más avances, como el telar automático inventado por Joseph Marie
Jacquard. Controlado por tarjetas perforadas, este telar no solo revolucionó la industria textil,
sino que también sentó las bases para la programación moderna. En esa misma época, Charles
Babbage, a menudo considerado el "padre de la computación", concibió la "Máquina
Analítica". Aunque nunca completó su construcción, la visión de Babbage de una máquina con
memoria y unidad de procesamiento prefiguró la estructura de las computadoras actuales. Es
importante mencionar a Ada Lovelace, matemática y escritora británica, quien trabajó junto a
Babbage y es reconocida como la primera programadora de la historia, al desarrollar lo que se
considera el primer algoritmo destinado a ser procesado por una máquina.

El final del siglo XIX vio el surgimiento de Herman Hollerith y su máquina tabuladora, que
utilizaba tarjetas perforadas para procesar datos. Esta innovación fue clave para el censo de
Estados Unidos de 1890 y, eventualmente, la empresa de Hollerith se fusionaría con otras para
dar origen a IBM.

A través de estos pioneros e inventos, la informática ha evolucionado desde herramientas


rudimentarias hasta la sofisticada tecnología que conocemos hoy, y su historia es testimonio
de la incesante curiosidad y perseverancia humana.

2.1. GENERACIÓN DE ORDENADORES

1ª Generación (1940-1956):

● Características: Estas máquinas estaban basadas en tubos de vacío y eran de gran


tamaño.
● Funcionamiento: Utilizaban tarjetas perforadas para la entrada de datos y programas.
● Ejemplo: ENIAC (Electronic Numerical Integrator And Computer), considerada la
primera computadora electrónica general.
● Limitaciones: Consumían mucha energía, generaban mucho calor y tenían una alta tasa
de fallos.
2ª Generación (1956-1963):

● Características: Introducción de transistores en lugar de tubos de vacío, lo que las


hacía más pequeñas, rápidas y eficientes.
● Funcionamiento: Uso de memoria magnética para el almacenamiento y lenguajes de
programación de alto nivel.
● Ejemplo: IBM 7090, una de las principales computadoras de esta generación.
● Ventajas: Menor consumo de energía y mayor fiabilidad.

3ª Generación (1964-1971):

● Características: Uso de circuitos integrados, lo que permitió la miniaturización de


componentes.
● Funcionamiento: Aparecen los sistemas operativos que permiten la multitarea.
● Ejemplo: IBM System/360, conocido por su familia de modelos compatibles.
● Innovaciones: Mejora en la interfaz de usuario y capacidad de procesamiento.

4ª Generación (1971-Presente):

● Características: Introducción de microprocesadores, lo que llevó a la creación de


computadoras personales.
● Funcionamiento: Uso de lenguajes de programación modernos y sistemas operativos
más avanzados.
● Ejemplo: Apple y IBM PC, marcando el inicio de la era de las computadoras personales.
● Impacto: Democratización del acceso a la informática y aparición de la era digital.

5ª Generación (Presente y futuro):

● Características: Enfocadas en la inteligencia artificial y el procesamiento paralelo.


● Objetivo: Crear máquinas capaces de aprender y tomar decisiones por sí mismas.
● Tecnologías emergentes: Computación cuántica, redes neuronales y aprendizaje
automático.
● Expectativas: Se espera que estas computadoras puedan resolver problemas
complejos en áreas como medicina, finanzas y medio ambiente.

3. COMPONENTES HARDWARE
El hardware se refiere a todos los componentes físicos que componen un sistema informático.
Estos componentes son esenciales para que el software funcione correctamente y realice las
tareas deseadas. A continuación, se detallan los elementos físicos y funcionales del hardware:

3.1. ELEMENTOS FÍSICOS

Carcasa:

● Descripción: Es el envoltorio externo que protege y alberga los componentes internos


de una computadora. Además de su función protectora, la carcasa también contribuye
a la estética del equipo y a la gestión del flujo de aire para la refrigeración.
● Tipos:
o Torre: Vertical, comúnmente utilizada en PCs de escritorio.
o Sobremesa: Horizontal, a menudo colocada debajo de monitores.
o Rack: Diseñadas para montarse en estantes o armarios especiales.
o All-in-One: Integra la computadora y el monitor en una sola unidad.

Periféricos:

● Descripción: Son dispositivos que se conectan a la computadora para realizar


funciones específicas, pero no son esenciales para el funcionamiento básico del
sistema.
● Tipos:
o Entrada: Dispositivos que permiten al usuario introducir datos, como teclado,
ratón, micrófono.
o Salida: Dispositivos que muestran o emiten datos procesados, como
monitores, altavoces, impresoras.
o Entrada/Salida: Dispositivos que pueden recibir y enviar datos, como discos
duros externos, tarjetas de red.

Memorias Auxiliares:

● Descripción: Son dispositivos de almacenamiento que conservan la información incluso


cuando la computadora está apagada. Permiten guardar y recuperar grandes
cantidades de datos.
● Tipos:
o HDD (Hard Disk Drive): Dispositivo de almacenamiento magnético. Ofrece gran
capacidad, pero es más lento y frágil que un SSD.
o SSD (Solid State Drive): Dispositivo de almacenamiento basado en memoria
flash. Es más rápido y resistente que un HDD, pero suele ser más caro.
o CD/DVD/Blu-ray: Medios ópticos utilizados para almacenar y leer datos
mediante un láser.
o Tarjetas de memoria: Como SD o microSD, utilizadas en cámaras, smartphones
y otros dispositivos.

3.2. ELEMENTOS FUNCIONALES

CPU = UC + UAL

MP

Unidades de Entrada/Salida: Periféricos + Memoria Auxiliar

Los tres unidos con buses.

Tipos de Buses:

● Bus de Datos: Transfiere datos entre la CPU y otros componentes.


● Bus de Direcciones: Se utiliza para especificar una dirección en la memoria principal
donde la CPU puede recuperar o almacenar datos.
● Bus de Control: Transmite comandos desde la CPU a otros componentes y viceversa.
Unidad de Control (UC):

Coordina y dirige todas las operaciones del sistema. Genera señales de control para operar
otros componentes y asegurar el flujo correcto de datos.

● Registro de Instrucción: Almacena la instrucción que actualmente está siendo


ejecutada por la CPU.
● Registro Contador de Programa: Indica la dirección de la próxima instrucción a ser
ejecutada.
● Codificador: Convierte una entrada de datos en una forma codificada. Por ejemplo,
puede convertir datos analógicos en datos digitales.
● Generador de Señales o Secuenciador: Produce señales que determinan la secuencia
en la que se ejecutan las instrucciones.
● Reloj: Genera pulsos eléctricos a intervalos regulares que determinan la velocidad a la
que se ejecutan las instrucciones.

Unidad Aritmético Lógica (UAL):

Realiza operaciones matemáticas (suma, resta, multiplicación, división) y operaciones lógicas


(AND, OR, NOT).

● Registros de Datos: Almacenan datos temporalmente para ser procesados o


transferidos.
● Registro Acumulador: Almacena temporalmente los resultados intermedios de las
operaciones realizadas por la ALU.
● Registro de Estado: Contiene bits que indican el estado de la CPU o el resultado de
operaciones de la ALU, como el bit de acarreo o el bit de cero.
● Circuito Operacional: Conjunto de componentes electrónicos que realizan una función
específica dentro de la CPU, como la ejecución de una operación aritmética.

Memoria Principal:

La memoria principal, también conocida como memoria central o memoria de acceso directo,
es el medio de almacenamiento principal de una computadora. Es donde la computadora
guarda los datos que está utilizando activamente, permitiendo un acceso rápido y directo a
ellos. Esta memoria es volátil, lo que significa que su contenido se pierde cuando se apaga el
sistema, a excepción de la ROM. La memoria principal se compone principalmente de dos
tipos: RAM y ROM.

● RAM (Random Access Memory - Memoria de Acceso Aleatorio):


o Descripción: Es una memoria volátil que almacena temporalmente los datos e
instrucciones que la CPU necesita mientras está en funcionamiento. La
información en la RAM puede ser leída y escrita.
o Tipos:
▪ DRAM (Dynamic RAM): Es el tipo más común de RAM. Almacena cada
bit de datos en una celda separada compuesta por un transistor y un
condensador, lo que requiere que se refresque constantemente para
mantener la información.
▪ SRAM (Static RAM): Es más rápida y confiable que la DRAM, pero
también es más cara. Almacena cada bit de datos en un flip-flop, lo
que significa que no necesita ser refrescada como la DRAM.
o Uso: La RAM se utiliza para almacenar datos e instrucciones que están siendo
utilizados o procesados. Cuando enciendes tu computadora, el sistema
operativo y otros archivos se cargan desde el disco duro a la RAM, porque es
mucho más rápido acceder a los datos desde la RAM que desde el disco duro.
● ROM (Read-Only Memory - Memoria de Solo Lectura):
o Descripción: Es una memoria no volátil que almacena datos que no pueden ser
modificados (o que solo pueden ser modificados con dificultad) por el usuario
o el sistema en operación normal. La información en la ROM está grabada
permanentemente y no se pierde cuando se apaga la computadora.
o Tipos:
▪ PROM (Programmable Read-Only Memory): Una vez programada, la
información no puede ser borrada ni reescrita.
▪ EPROM (Erasable Programmable Read-Only Memory): Puede ser
borrada mediante exposición a luz ultravioleta y luego reprogramada.
▪ EEPROM (Electrically Erasable Programmable Read-Only Memory):
Puede ser borrada eléctricamente y reprogramada, pero esto solo
puede hacerse un número limitado de veces.
o Uso: La ROM se utiliza principalmente para almacenar el firmware, que es el
software que está permanentemente programado en la computadora. Por
ejemplo, la BIOS (Basic Input/Output System) que se utiliza para iniciar la
computadora está almacenada en la ROM.

Ambas, RAM y ROM, son esenciales para el funcionamiento de una computadora. Mientras
que la RAM actúa como una pizarra temporal que la computadora utiliza para realizar tareas,
la ROM almacena instrucciones permanentes que la computadora necesita para iniciar y
realizar funciones básicas.

Unidades de Entrada/Salida:

Comunica el microprocesador con los componentes como con las memorias auxiliares.

4. SOFTWARE DE UN SISTEMA INFORMÁTICO

El software es el conjunto de programas, instrucciones y reglas informáticas que permiten


ejecutar distintas tareas en un sistema informático. Es la parte intangible que, en conjunto con
el hardware (parte física), permite que una computadora funcione y realice diversas
operaciones.

Los lenguajes de programación son medios que permiten a los programadores comunicarse
con las computadoras para desarrollar software. Estos lenguajes se pueden clasificar en dos
categorías principales según su proximidad al hardware o al ser humano: lenguajes de bajo
nivel y lenguajes de alto nivel.

● Lenguajes de Bajo Nivel:


o Descripción: Estos lenguajes están más cerca del hardware y, por lo tanto, son
más difíciles de leer y escribir para los humanos. Sin embargo, ofrecen un
control más directo y detallado sobre el hardware de la computadora.
o Tipos:
▪ Lenguaje Máquina: Es el lenguaje más básico y directo para una
computadora. Consiste en secuencias de números binarios (0s y 1s)
que representan instrucciones específicas para la CPU. Cada tipo de
CPU tiene su propio conjunto de instrucciones de lenguaje máquina.
▪ Lenguaje Ensamblador (Assembly): Es un paso por encima del lenguaje
máquina. Utiliza abreviaturas o mnemotécnicos para representar
instrucciones, lo que lo hace un poco más legible para los humanos.
Un programa llamado ensamblador convierte el código de
ensamblador en lenguaje máquina.
o Ventajas:
▪ Control detallado sobre el hardware.
▪ Potencialmente más rápido y eficiente, ya que no hay capas
intermedias de abstracción.
o Desventajas:
▪ Difícil de aprender y usar.
▪ No es portátil; es decir, el código escrito para una arquitectura
específica no funcionará en otra sin modificaciones.

● Lenguajes de Alto Nivel:


o Descripción: Estos lenguajes están diseñados para ser más comprensibles para
los humanos. Abstraen las complejidades del hardware, lo que permite a los
programadores escribir código sin preocuparse por los detalles específicos de
la máquina donde se ejecutará.
o Ejemplos: Python, Java, C++, JavaScript, Ruby, entre muchos otros.
o Ventajas:
▪ Más fácil de aprender y usar.
▪ Portabilidad: El código escrito en un lenguaje de alto nivel puede
ejecutarse en diferentes máquinas y sistemas operativos con pocos o
ningún cambio, especialmente si se utiliza un intérprete o una
máquina virtual.
▪ Mayor productividad: Los programadores pueden escribir y depurar
código más rápidamente.
o Desventajas:
▪ Menos control sobre el hardware en comparación con los lenguajes de
bajo nivel.
▪ Potencialmente menos eficiente en términos de rendimiento, ya que
hay capas adicionales de abstracción.
▪ Compilación e Interpretación: Los lenguajes de alto nivel
generalmente requieren un compilador o intérprete para convertir el
código en lenguaje máquina. Un compilador traduce todo el código a
la vez y produce un archivo ejecutable, mientras que un intérprete
traduce y ejecuta el código línea por línea en tiempo real.
En resumen, mientras que los lenguajes de bajo nivel ofrecen un control más granular sobre el
hardware y pueden ser más eficientes, los lenguajes de alto nivel son más accesibles, portátiles
y productivos. La elección entre usar uno u otro depende de las necesidades específicas del
proyecto y del programador.

4.1. TIPOS DE SOFTWARE

● Software de Base:
o Descripción: También conocido como software de sistema, es el conjunto de
programas que controlan y gestionan el hardware de la computadora, permitiendo
la interacción entre este y el usuario.
o Ejemplos:
▪ Sistemas Operativos: Como Windows, macOS, Linux. Son plataformas que
permiten la ejecución de otros programas y gestionan los recursos del
sistema.
▪ Controladores o Drivers: Son programas que permiten que el sistema
operativo interactúe con el hardware específico, como impresoras,
tarjetas gráficas, entre otros.

● Software de Programación:
o Descripción: Es el conjunto de herramientas que permiten a los desarrolladores
crear programas y aplicaciones.
o Ejemplos:
▪ Compiladores: Transforman el código fuente escrito por el programador
en un lenguaje que la máquina pueda entender.
▪ Entornos de Desarrollo Integrado (IDEs): Como Eclipse, Visual Studio. Son
plataformas que ofrecen herramientas para escribir, depurar y compilar
código.
● Software de Aplicación:
o Descripción: Son programas diseñados para permitir a los usuarios realizar tareas
específicas en una computadora.
o Ejemplos:
▪ Aplicaciones de Ofimática: Como Microsoft Office, LibreOffice.
▪ Navegadores Web: Como Chrome, Firefox.
▪ Programas de Diseño Gráfico: Como Adobe Photoshop, Illustrator.

4.2. LICENCIAS DE SOFTWARE


● Software Propietario:
o Descripción: Es aquel software cuyo código fuente no está disponible para el
público y no puede ser modificado. Los usuarios adquieren una licencia para
usarlo, pero no poseen el software en sí.
o Ejemplos: Windows, Microsoft Office, Adobe Photoshop.
● Software Libre:
o Descripción: El software libre se refiere a programas cuyas licencias otorgan a
los usuarios la libertad de ejecutar, estudiar, modificar y distribuir el software.
No necesariamente tiene que ser gratuito.
o Principios:
▪ Libertad de usar el programa con cualquier propósito.
▪ Libertad de estudiar cómo funciona el programa y adaptarlo a tus
necesidades.
▪ Libertad de redistribuir copias.
▪ Libertad de mejorar el programa y publicar tus mejoras.
o Software Gratuito o de Pago:
▪ Software Gratuito (Freeware):
● Descripción: Es software que se ofrece sin costo, pero no
necesariamente otorga al usuario las libertades asociadas con
el software libre. Puede que no se pueda modificar o
redistribuir.
▪ Software de Pago (Commercial Software):
● Descripción: Es software que requiere el pago de una licencia
para su uso. Puede ser software libre (por ejemplo, ofreciendo
servicios adicionales o soporte) o software propietario.
o Software sin Licencia o Bajo Licencia:
▪ Software sin Licencia:
● Descripción: Es software que se distribuye sin una licencia
específica. Esto puede llevar a ambigüedades legales, ya que,
en muchos países, el software está protegido
automáticamente por derechos de autor.
▪ Software Bajo Licencia:
● Descripción: Es software que se distribuye bajo términos y
condiciones específicos que definen cómo puede ser utilizado,
modificado y distribuido.
o Ejemplos: GPL (Licencia Pública General de GNU), MIT,
Apache, entre otras.
o Software Abierto (Open Source):
▪ Descripción: El software abierto se refiere a programas cuyo código
fuente está disponible para el público. Esto permite que cualquier
persona vea, modifique y distribuya el software. Sin embargo, no
todos los software de código abierto son necesariamente "libres" en el
sentido de otorgar todas las libertades mencionadas anteriormente.
▪ Diferencia con Software Libre: Aunque los términos "software libre" y
"software abierto" a menudo se usan indistintamente, hay una
distinción filosófica. El software libre se centra en las libertades del
usuario, mientras que el software abierto se centra en el modelo de
desarrollo abierto.

4.3. NORMATIVA LEGAL (No se sabe, poco importante pero


existe)

● Protección de los Derechos de Autor:


o Descripción: Los programas de software están protegidos por leyes de
derechos de autor. Esto significa que el código, la documentación y la
apariencia gráfica están protegidos contra copias y distribuciones no
autorizadas.
o Implicaciones: Copiar, distribuir o modificar software sin el permiso adecuado
puede llevar a sanciones legales.
● Protección de los Datos:
o Descripción: Con el aumento de la digitalización, la protección de datos se ha
vuelto esencial. Las leyes de protección de datos garantizan que la información
personal de los usuarios esté segura y no se utilice de manera indebida.
o Ejemplos: GDPR (Reglamento General de Protección de Datos) en la Unión
Europea, que regula cómo las empresas deben manejar y proteger los datos
personales de los ciudadanos de la UE.

5. REPRESENTACIÓN DE LA INFORMACIÓN

5.1. TIPOS DE DATOS

● Datos de Entrada: Son los datos que se introducen en un sistema para ser procesados.
Estos pueden provenir de diversas fuentes, como un usuario, un archivo o un
dispositivo de entrada.
● Datos Internos del Proceso: Son los datos que se generan y utilizan internamente
durante el proceso de una operación o tarea. Estos datos no son visibles para el
usuario y sirven para realizar cálculos, tomar decisiones y dirigir el flujo del programa.
● Datos de Salida: Son los resultados producidos después de procesar los datos de
entrada. Estos se presentan al usuario o se envían a un dispositivo de salida, como una
pantalla o una impresora.

5.2. SISTEMAS DE NUMERACIÓN (Puede entrar en teoría, la


N)

Teorema Fundamental de la Numeración

El Teorema Fundamental de la Numeración es la base matemática detrás de todos los sistemas


de numeración, ya sea decimal, binario, octal, hexadecimal, entre otros. Este teorema
establece cómo se puede representar cualquier número en cualquier base.

Enunciado del Teorema:

Este teorema establece la forma general de construir números en un sistema de numeración


posicional. Primero estableceremos unas definiciones básicas:

N, número válido en el sistema de numeración.

b, base del sistema de numeración. Número de símbolos permitidos en el sistema.

di, un símbolo cualquiera de los permitidos en el sistema de numeración.

n,: número de dígitos de la parte entera.

, coma fraccionaria. Símbolo utilizado para separar la parte entera de un número de su parte
fraccionaria.
k,: número de dígitos de la parte decimal.

La fórmula general para construir un número N, con un número finito de decimales, en un


sistema de numeración posicional de base b es la siguiente:

El valor total del número será la suma de cada dígito multiplicado por la potencia de la base
correspondiente a la posición que ocupa en el número.

Esta representación posibilita la realización de sencillos algoritmos para la ejecución de


operaciones aritméticas.

Este teorema es fundamental porque proporciona una forma sistemática y coherente de


convertir números entre diferentes sistemas de numeración y de comprender cómo se
representan y calculan los números en cualquier base.

Actividades
1. Utiliza el Teorema fundamental de la numeración, para ver cómo se calcularía el valor
de cada dígito de los siguientes números en decimal:
a. 1785
b. 345,65
c. 12,357

Decimal: Basado en 10 símbolos (0-9). Es el sistema que usamos en la vida diaria.

Binario: El sistema binario es un sistema de numeración posicional que utiliza solo dos dígitos:
0 y 1. Es la base del funcionamiento interno de las computadoras modernas. En binario, solo
se usan estos dos dígitos para representar todos los números. Un número como "1011" se lee
de derecha a izquierda, siendo el dígito más a la derecha el menos significativo.

Octal: Basado en 8 símbolos (0-7). Menos común en la informática moderna, pero aún tiene
aplicaciones.

Hexadecimal: Basado en 16 símbolos (0-9 y A-F). Es útil porque representa de manera concisa
números binarios largos.

5.3. CAMBIOS DE BASE


Cambiar de base significa convertir un número de un sistema de numeración a otro. Las
conversiones más comunes en informática son entre sistemas decimal, binario, octal y
hexadecimal.

Binario (base 2) a decimal (base 10)

Para convertir un número binario a decimal, se multiplica cada dígito por 2 elevado a su
posición y luego se suman los resultados.
Actividades
1. Calcula para los siguientes números en binario su valor en el sistema decimal:
a. 11011
b. 11,011

Decimal a binario

Para convertir un número decimal a binario, se divide el número entre 2 y se anota el residuo.
Se repite el proceso con el cociente hasta que este sea 0. El número binario se obtiene leyendo
los residuos de abajo hacia arriba.

Para los números fraccionarios: Multiplica la parte fraccionaria por 2. La parte entera del
resultado es el primer dígito binario después del punto. Repite el proceso con la nueva parte
fraccionaria hasta obtener la precisión deseada o hasta que la fracción sea 0.

Actividades
1. Pasar 32,375(10 al sistema binario

Binario (base 2) a octal (base 8) y de octal a binario

Se agrupan los dígitos binarios de tres en tres, desde el punto decimal hacia la izquierda y
hacia la derecha. Cada grupo se convierte a su equivalente en octal. Convierte cada dígito octal
a su representación binaria de tres bits.

Actividades
1. Calcula para los siguientes números en octal su valor en el sistema binario:
a. 1342
b. 34,03
Calcula para los siguientes números en binario su valor en el sistema octal:
a. 11011101
b. 10001,1001

Binario (base 2) a hexadecimal (base 16) y de hexadecimal a binario

Agrupa los dígitos binarios de cuatro en cuatro, desde el punto decimal hacia la izquierda y
hacia la derecha. Convierte cada grupo a su equivalente en hexadecimal. Convierte cada dígito
hexadecimal a su representación binaria de cuatro bits.

Actividades
1. Calcula para los siguientes números en hexadecimal su valor en el sistema binario:
a. 3AF
b. F0,0C
Calcula para los siguientes números en binario su valor en el sistema hexadecimal:
a. 110110010
b. 101011,010001

5.4. OPERACIONES EN BINARIO


Las operaciones en binario son similares a las operaciones en el sistema decimal, pero solo se
utilizan dos dígitos: 0 y 1.
Operaciones aritméticas:

Incluyen suma, resta, multiplicación y división. La suma y la resta en binario tienen reglas
específicas debido a la naturaleza de la base 2.

Suma

Principios básicos: La suma en binario sigue reglas similares a la suma en decimal, pero solo
hay dos dígitos: 0 y 1.

0+0=0

0+1=1

1+0=1

1 + 1 = 0 (con acarreo de 1)

Comienza sumando los bits más a la derecha (bit menos significativo). Si la suma de dos bits es
2 (en binario 10), escribe un 0 y lleva un acarreo al siguiente bit. Continúa el proceso hasta que
todos los bits estén sumados.

Actividades
1. Realiza la suma de los siguientes números en binario
a. 01101111 + 10111

Resta

Principios básicos: La resta en binario también sigue reglas similares a la resta en decimal.

0-0=0

1-0=1

1-1=0

0 - 1 = 1 (con un préstamo de 1 del bit adyacente a la izquierda)

Comienza restando los bits más a la derecha. Si estás restando un bit mayor de uno menor
(como 1 de 0), toma prestado 1 del bit adyacente a la izquierda. Continúa el proceso hasta que
todos los bits estén restados.

Actividades
1. Resta los siguientes números en binario
a. 1001111 – 10111
Operaciones lógicas:

Las operaciones lógicas se realizan bit a bit y son fundamentales en la lógica digital y el diseño
de circuitos. Las más comunes son AND, OR, NOT, XOR, entre otras.

AND: La operación AND produce un resultado verdadero (1) solo si ambas entradas son
verdaderas.
OR: La operación OR produce un resultado verdadero (1) si al menos una de las entradas es
verdadera.

XOR: La operación XOR produce un resultado verdadero (1) si exactamente una de las
entradas es verdadera, pero no ambas.

NOR: Es la operación inversa de OR. Produce un resultado verdadero (1) si ninguna de las
entradas es verdadera.

XNOR: Es la operación inversa de XOR. Produce un resultado verdadero (1) si ambas entradas
son iguales.

NAND: Es la operación inversa de AND. Produce un resultado verdadero (1) si al menos una de
las entradas es falsa (0).

NOT: La operación NOT es una operación unaria, lo que significa que solo tiene una entrada.
Invierte el valor de la entrada. Si la entrada es 1, la salida es 0 y viceversa.

Actividades
1. Para los siguientes pares de números en binario, realiza las operaciones lógicas AND,
OR, NAND, NOR y XOR
a. 11101100 y 11101
b. 1101100 y 101101
2. Completa la siguiente tabla con las operaciones que se indican en la columna superior,
con respecto a los valores de las columnas A y B

A B A XOR B A AND B

0 0

0 1

1 0

1 1

3. Completa la siguiente tabla con las operaciones que se indican en la columna superior,
con respecto a los valores de las columnas A y B
A B A XOR B NOT A NOT A AND B

0 0

0 1

1 0

1 1

Complementos:

Se utilizan para representar números negativos en binario. El complemento a 1 invierte todos


los bits, mientras que el complemento a 2 suma 1 al complemento a 1.

Complemento a 1

Es la representación inversa de un número binario. Se obtiene cambiando todos los 0s por 1s y


viceversa. Principalmente se usa en operaciones de resta y en operaciones lógicas.

Actividades:
1. Supongamos que el número binario es de N dígitos. Si N = 8, obtener el complemento
a 1 del siguiente número en binario
a. 1001

Complemento a 2

Se obtiene sumando 1 al complemento a 1 de un número binario. Es una forma de representar


números negativos en sistemas binarios. Ampliamente se utiliza en aritmética binaria,
especialmente para representar y operar con números negativos.

Actividades
1. Supongamos que el número binario es de N dígitos. Si N = 8, obtener el complemento
a 2 del siguiente número:
a. 1001

Resta en complemento a 1

Para restar dos números binarios usando el complemento a 1:

Encuentra el complemento a 1 del sustraendo. Suma el minuendo y el complemento a 1


obtenido. Si hay acarreo, se suma al resultado.

Actividades
1. Realiza la siguiente resta de números en binario, utilizando el complemento a 1:
a. 00001000 – 00000011

Resta en complemento a 2

Para restar usando el complemento a 2:

Encuentra el complemento a 2 del sustraendo. Suma el minuendo y el complemento a 2


obtenido. Si hay acarreo, se descarta y el resultado es positivo. Si no hay acarreo, el resultado
es negativo y se toma el complemento a 2 para obtener el valor absoluto.
Actividades
1. Realiza la siguiente resta de números en binario, utilizando el complemento a 2:
a. 00001000 - 00000011

5.5. DETECCIÓN DE ERRORES


La detección de errores es fundamental en la administración y mantenimiento de cualquier
sistema operativo. Garantizar la integridad de los datos y el funcionamiento sin problemas del
sistema requiere identificar y abordar rápidamente cualquier error que pueda surgir. Para ello,
hay varios métodos que se utilizan en sistemas operativos monopuesto.

Paridad lineal:

La paridad es una herramienta esencial para detectar errores en la transmisión y


almacenamiento de datos. Se basa en la idea de agregar un bit adicional, conocido como bit de
paridad, a un conjunto de datos. Este bit se configura de tal manera que el número total de
bits '1' en el conjunto de datos, incluido el bit de paridad, sea par (paridad par) o impar
(paridad impar). Por ejemplo, para el byte de datos 11010101, si usamos paridad par, el bit de
paridad sería '0', ya que ya hay un número par de bits '1'. Sin embargo, si se introduce un error
y uno de los bits cambia, el sistema detectaría una discrepancia en la paridad y sabría que ha
ocurrido un error.

Ejemplo: Transmisión del byte 11010101 utilizando paridad par.

Paso 1: Contamos los bits '1' en el byte. En 11010101, hay 5 bits '1'.

Paso 2: Decidimos usar paridad par. Dado que hay 5 bits '1' (un número impar), agregamos un
bit de paridad '1' al final para hacer que el total de bits '1' sea par.

Paso 3: Transmitimos el byte como 110101011.

Paso 4: Al recibir el byte, el sistema cuenta nuevamente los bits '1'. Si el número no es par,
indica un error.

Actividades
1. Queremos almacenar los siguientes bits: 1011010 utilizando el sistema de detección
de errores de paridad lineal par. ¿Qué bit le deberíamos añadir?

Paridad de Hamming: (Que es)

Mientras que la paridad lineal verifica errores a nivel de bytes, la paridad bidimensional se
extiende para cubrir matrices de bits. La técnica de paridad de Hamming, por ejemplo, no solo
detecta errores sino que también puede corregirlos. Supongamos que tenemos cuatro bits de
datos: D1, D2, D3, D4. Estos datos se combinan con bits de paridad P1, P2, P4 (nótese que se
omiten potencias de 2). Para un dato como 1101, los bits de paridad se calcularían basándose
en qué bits de datos cubren. Si se introduce un error, al revisar los bits de paridad, podemos
determinar cuál bit es erróneo y corregirlo.

Ejemplo: Transmitir el dato 1101 usando la paridad de Hamming.


Paso 1: Insertamos los bits de paridad P1, P2, P4 en los lugares adecuados.

P1 P2 1 P4 1 0 1

Paso 2: Calculamos el valor de cada bit de paridad:

P1 verifica bits en posiciones 1, 3, 5, 7: P1 1 1 1 → 3 bits '1' → P1 = 1 (usando paridad par)

P2 verifica bits en posiciones 2, 3, 6, 7: P2 1 0 1 → 2 bits '1' → P2 = 0 (usando paridad par)

P4 verifica bits en posiciones 4 a 7: P4 1 0 1 → 2 bits '1' → P4 = 0

Paso 3: El dato codificado es 1010101.

Paso 4: En la recepción, se recalculan los valores de P usando los mismos grupos. Si no


coinciden, hay un error.

Actividades
1. Para almacenar los siguientes bits utilizando paridad bidimensional par, ¿qué bits
tendríamos que añadir?
a. 10011
b. 101111
c. 1000

Códigos cíclicos (CRC):

CRC, o Chequeo Redundante Cíclico, es una técnica avanzada que utiliza operaciones
polinómicas para detectar errores. Funciona con un "polinomio generador" predefinido.
Supongamos que estamos transmitiendo un dato de 3 bits, 101, y usamos un polinomio
generador, 1101. El dato se multiplica para adaptarse al polinomio generador, luego se divide,
y el residuo de esta división se adjunta al dato original como bits de verificación. En el extremo
receptor, se realiza la misma división. Si el residuo coincide, no hay error. De lo contrario,
sabemos que ha ocurrido un error en la transmisión.

6. CODIFICACIÓN DE LA INFORMACIÓN
Al hablar de codificación de la información, nos referimos a la forma en que representamos y
almacenamos datos. Un aspecto fundamental de esta representación es si usamos códigos de
longitud fija o códigos de longitud variable. Estos términos se refieren a cómo de extensos son
los códigos o patrones que utilizamos para representar datos.

Códigos de Longitud Fija:

● Definición: En una codificación de longitud fija, cada símbolo o unidad de información


se representa con un código de longitud constante. Por ejemplo, en el sistema binario
clásico, cada byte consta de 8 bits.
● Ventajas:
○ Simplicidad: Es fácil de implementar y entender.
○ Acceso directo: Debido a que cada código tiene la misma longitud, es rápido
acceder a cualquier posición de la información, ya que sabemos exactamente
dónde comienza y termina cada dato.
● Desventajas:
○ Ineficiencia en algunos casos: Puede no ser la forma más eficiente de codificar
información, especialmente si algunos símbolos son mucho más comunes que
otros. Por ejemplo, en un texto en inglés, la letra 'e' aparece con mucha más
frecuencia que 'z'. Pero si ambas letras se codifican con la misma longitud, no
estamos aprovechando la posibilidad de una representación más eficiente.

Códigos de Longitud Variable:

● Definición: En una codificación de longitud variable, diferentes símbolos o unidades de


información pueden representarse con códigos de diferentes longitudes. Los símbolos
más comunes suelen representarse con códigos más cortos, mientras que los menos
comunes se representan con códigos más largos.
● Ejemplo: El código Huffman es un método de codificación de longitud variable
ampliamente utilizado, especialmente en compresión de datos. En este método, los
símbolos más frecuentes se codifican con cadenas de bits más cortas, mientras que los
símbolos menos frecuentes se codifican con cadenas más largas.
● Ventajas:
○ Eficiencia: Puede ser mucho más eficiente en términos de espacio de
almacenamiento, especialmente cuando hay una distribución desigual en la
frecuencia de los símbolos.
○ Compresión: Es la base de muchos algoritmos de compresión, ya que permite
representar la información de forma más compacta.
● Desventajas:
○ Complejidad: Puede ser más complicado de implementar y entender que los
códigos de longitud fija.
○ Acceso secuencial: En general, se requiere un acceso secuencial a los datos, ya
que no se puede determinar de antemano dónde termina un símbolo y
comienza el siguiente sin comenzar desde el principio.

6.1. ALMACENAMIENTO DE LA INFORMACIÓN

Cuando nos referimos al almacenamiento de información en sistemas informáticos, es esencial


comprender las unidades de medida básicas: el bit y el byte. Estas unidades son fundamentales
para describir y entender la cantidad de datos que un sistema puede almacenar, procesar o
transmitir.

1. Bit:

● Definición: El bit, abreviatura de "binary digit" (dígito binario), es la unidad básica de la


información en la informática y la teoría de la información. Un bit puede tener uno de
dos valores: 0 o 1.
● Uso: Los bits son la base de casi todas las operaciones en sistemas digitales. Las
instrucciones, el almacenamiento y la transmisión de datos se reducen en última
instancia a patrones de bits.

2. Nibble:

● Consiste en 4 bits.
● Aunque no es una unidad de almacenamiento comúnmente referenciada como las
otras en listas de tamaño, es útil en ciertos contextos, particularmente en
programación y electrónica, donde se hace referencia a medios bytes o cuando se
trabaja con dígitos hexadecimales individuales.

3. Byte:

● Definición: Un byte consiste en 8 bits. Es la unidad fundamental de almacenamiento


en la mayoría de los sistemas informáticos.
● Uso: El byte es la unidad estándar utilizada para codificar un carácter en muchos
sistemas de codificación, como ASCII. En ASCII, por ejemplo, cada letra, número o
símbolo se representa con un byte específico.

Las unidades de medida para la cantidad de información digital se originan en el bit, que es la
unidad más básica y representa un 0 o un 1. A partir de ahí, la información se agrupa y se
escala en potencias de 10 o de 2, dependiendo de si se está utilizando el sistema decimal (base
10) o binario (base 2). A continuación, presento las unidades de medida binarias (las más
comunes en informática) desde el bit hasta el yottabyte:

● Bit (b): Unidad básica de información. Puede tener un valor de 0 o 1.


● Byte (B): Compuesto por 8 bits. Es la unidad de medida estándar para representar
información en computadoras.
● Kilobyte (KB): 1 KB = 1,024 Bytes.
● Megabyte (MB): 1 MB = 1,024 KB = 1,048,576 Bytes.
● Gigabyte (GB): 1 GB = 1,024 MB = 1,073,741,824 Bytes.
● Terabyte (TB): 1 TB = 1,024 GB = 1,099,511,627,776 Bytes.
● Petabyte (PB): 1 PB = 1,024 TB = 1,125,899,906,842,624 Bytes.
● Exabyte (EB): 1 EB = 1,024 PB = 1,152,921,504,606,846,976 Bytes.
● Zettabyte (ZB): 1 ZB = 1,024 EB = 1,180,591,620,717,411,303,424 Bytes.
● Yottabyte (YB): 1 YB = 1,024 ZB = 1,208,925,819,614,629,174,706,176 Bytes.

Cabe mencionar que en algunos contextos, como en el almacenamiento de discos duros, las
unidades se venden a menudo utilizando el sistema decimal, por lo que un "kilobyte" podría
representarse como 1,000 bytes en lugar de 1,024 bytes. Sin embargo, en la mayoría de los
contextos técnicos y de software, las definiciones binarias (base 2) mencionadas
anteriormente son las más utilizadas.

6.2. NUMÉRICA
La representación numérica en sistemas informáticos es crucial para la ejecución de
operaciones y procesos. Dependiendo del tipo de número y de su uso, hay diferentes formas
de representación.

6.2.1. Números enteros

Decimal empaquetado
La codificación de números enteros en "decimal empaquetado" (a veces conocido como
"packed decimal") es una técnica utilizada principalmente en sistemas mainframe y ciertos
sistemas heredados. Esta codificación busca una representación eficiente de números
decimales en memoria.

La idea básica detrás del decimal empaquetado es representar dos dígitos decimales en un
solo byte. Así, cada dígito decimal (que puede ser un valor entre 0 y 9) ocupa 4 bits.

Ejemplo de cómo funciona:

Supongamos que queremos representar el número 347:

En decimal puro, el número 3 sería 0011 en binario, el número 4 sería 0100 y el número 7 sería
0111.

Al empaquetar estos números, tomamos dos dígitos a la vez y los ponemos en un byte.
Entonces, 34 sería 0011 0100 y 7 necesitaría otro byte (por ejemplo, 0111 1111 donde 1111
puede ser utilizado para indicar que es el último dígito o para otros propósitos como signos).

Es importante mencionar que esta codificación también tiene provisiones para representar el
signo del número. Por lo general, se reserva un nibble (4 bits) para representar el signo del
número. Los valores comunes son "C" (1100 en binario) para números positivos y "D" (1101 en
binario) para números negativos.

Ventajas:

● Representación directa y eficiente de números decimales en memoria.


● Facilita operaciones aritméticas directamente en formato decimal sin necesidad de
convertir a binario y viceversa.

Desventajas:

● No es tan común en arquitecturas modernas fuera del ámbito mainframe.


● Requiere lógica de hardware o software especializada para operaciones aritméticas.
● El decimal empaquetado es una representación que ha sido especialmente útil en
aplicaciones financieras y bancarias donde la precisión decimal es crucial y donde la
conversión entre binario y decimal puede introducir errores o complicaciones.

Actividades
1. Representa los siguientes números en decimal empaquetado:
a. +13457
b. -13457

Decimal desempaquetado
El "decimal desempaquetado" es otra forma de representar números decimales en sistemas
informáticos, especialmente en sistemas más antiguos o mainframes. A diferencia del decimal
empaquetado, donde se almacenan dos dígitos decimales en un solo byte, en el decimal
desempaquetado se utiliza un byte completo para representar un solo dígito decimal.

Cómo funciona:

En la representación de decimal desempaquetado, cada dígito decimal (0-9) se almacena en un


byte, con el valor decimal ocupando normalmente la mitad inferior del byte (los 4 bits menos
significativos) y la mitad superior normalmente se rellena con ceros (aunque también podría
ser otro valor de relleno dependiendo del sistema).

Ejemplo:

Para el número 347:

El número 3 sería representado como 0000 0011 en un byte.

El número 4 sería representado como 0000 0100 en otro byte.

El número 7 sería representado como 0000 0111 en otro byte.

Entonces, el número 347 ocuparía 3 bytes en total en formato decimal desempaquetado.

Al igual que con el decimal empaquetado, el decimal desempaquetado también tiene


provisiones para representar el signo del número. Un byte completo podría reservarse para
representar el signo o, en algunos sistemas, se podría usar un nibble (4 bits) específico en el
último byte del número.

Ventajas:

● Representación simple y directa de números decimales.


● Menos complicado en términos de lógica de hardware o software en comparación con
el decimal empaquetado.

Desventajas:

● Menos eficiente en términos de uso de la memoria en comparación con el decimal


empaquetado.
● Como con el empaquetado, su uso es menos común en sistemas modernos y está más
asociado con sistemas legacy o mainframes.
● El decimal desempaquetado proporciona una forma fácil de leer y trabajar con
números decimales, aunque a expensas del uso eficiente de la memoria. Aunque ya no
es tan prevalente en sistemas modernos, sigue siendo relevante en el contexto de
sistemas más antiguos y en aplicaciones que requieren una precisión decimal
específica.
Actividades
1. Representa los siguientes números en decimal desempaquetado:
a. +3457
b. -3457

Codificados en binario puro, más el signo


● Bit de signo: El bit más significativo (MSB) de los 32 se usa para indicar el signo. Si es 0,
el número es positivo. Si es 1, el número es negativo.
● Resto de los bits (31 bits restantes): Estos representan el valor absoluto del número en
binario puro.

Ejemplo:

Para representar el número -5 en 32 bits:

En binario puro, el número 5 se representa como 0000 0000 0000 0000 0000 0000 0000 0101.

Considerando el bit de signo para un total de 32 bits, -5 se representaría como 1000 0000 0000
0000 0000 0000 0000 0101.

En este caso, el primer bit 1 indica que el número es negativo, y los 31 bits restantes
representan el número 5.

Ventajas y Desventajas:

Las ventajas y desventajas son similares a las mencionadas anteriormente, pero en el contexto
de 32 bits:

● Ventajas: Representación directa y sencilla. Es fácil determinar el signo y el valor


absoluto del número solo mirando la representación.

Desventajas:

● Las operaciones aritméticas, especialmente la suma y resta con números de diferentes


signos, pueden ser más complicadas que en representaciones como el complemento a
dos.
● Se tienen dos representaciones para el cero (uno positivo y uno negativo), lo cual
puede complicar ciertas operaciones o comprobaciones.
● No es tan eficiente en términos de operaciones aritméticas como otras
representaciones.

En la práctica, la representación de complemento a dos es la que prevalece en la mayoría de


las arquitecturas modernas debido a su eficiencia en operaciones aritméticas. Sin embargo, es
fundamental entender la representación binaria pura con bit de signo para tener una base
sólida en la codificación binaria.

Actividades
1. Representa los siguientes números en binario puro más el signo:
a. +15678
b. -25896547
6.2.2. Números con decimales (también denominados reales o en
coma flotante)

La representación de números con decimales, también conocidos como números en coma


flotante o números reales, es una parte esencial de la informática, especialmente en
aplicaciones científicas, de ingeniería y gráficos.

Notación Científica:

La idea básica detrás de la notación científica es representar números grandes y pequeños de


manera compacta. Un número se representa como un producto de dos partes: una mantisa y
una potencia de 10. Por ejemplo:

5.67 × 10^3

Aquí, 5.67 es la mantisa, 10 es la base y 3 es el exponente. Esto representa el número 5670.

IEEE 754:

El estándar IEEE 754 es una especificación para la representación de números de coma flotante
en computadoras. Convierte la idea de notación científica a binario y proporciona formatos y
reglas específicos.

En el estándar IEEE 754, un número de coma flotante se representa con tres componentes:

● Signo: Un bit para el signo del número (0 para positivo, 1 para negativo).
● Exponente: Un conjunto de bits que representan el exponente del número.
● Mantisa (o fracción): Los bits restantes que representan la mantisa del número.

Simple Precisión (32 bits):

En la representación de simple precisión del IEEE 754:

● Signo: 1 bit.
● Exponente: 8 bits.
● Mantisa: 23 bits.

Esto totaliza 32 bits o 4 bytes.

Doble Precisión (64 bits):

En la representación de doble precisión del IEEE 754:

● Signo: 1 bit.
● Exponente: 11 bits.
● Mantisa: bits.

Esto totaliza 64 bits o 8 bytes.


Normalización:

La normalización es el proceso de ajustar el número para que solo haya un dígito diferente de
cero a la izquierda del punto decimal. Por ejemplo, el número 0.0456 en notación científica
sería 4.56 × 10^−2. La mantisa está normalizada porque hay un único dígito no nulo a la
izquierda del punto.

El estándar IEEE 754 utiliza una forma de notación científica binaria y siempre normaliza los
números (con algunas excepciones como el cero y los denominados subnormales).

Consideraciones:

1. El IEEE 754 también define representaciones para cero, infinito (positivo y negativo),
NaN (Not a Number) y números subnormales (números muy pequeños que no pueden
ser representados de manera normalizada).
2. La representación en coma flotante, aunque es versátil y puede representar una
amplia gama de números, tiene limitaciones en términos de precisión. Es posible
obtener errores de redondeo, especialmente cuando se realizan operaciones en
números que están cerca de los límites de la representación.
3. Las operaciones en coma flotante son más costosas computacionalmente en
comparación con las operaciones enteras. Sin embargo, el hardware moderno,
especialmente las unidades de punto flotante (FPU), ha optimizado estas operaciones
para ser muy rápidas.

La representación en coma flotante es un componente esencial de la informática moderna y


permite a las computadoras manejar cálculos científicos, gráficos, simulaciones y mucho más
con un alto grado de precisión y flexibilidad.

Ejemplos

Vamos a representar el número −6.75 en formato de coma flotante de simple precisión.

Paso 1: Representación binaria sin normalizar

6 en binario es 110

0.75 en binario es .11 (porque 0.5 es .1 y 0.25 es .01)

Entonces, 6.75 es 110.11 en binario.

Paso 2: Normalización

Mueve el punto para que solo haya un bit a la izquierda del punto: 1.1011 (sin mover
realmente en este caso).

El exponente es 2 porque hemos movido el punto dos posiciones a la derecha.


Paso 3: Ajuste del exponente al bias de 127

Exponente + bias = 2 + 127 = 129

129 en binario es 10000001

Paso 4: Construcción del número

Signo: 1 (porque el número es negativo)

Exponente: 10000001

Mantisa: Tomamos la parte fraccional de la representación normalizada: 101100... (rellenamos


con ceros hasta tener 23 bits).

Entonces, el número − 6.75 en simple precisión IEEE 754 es:

1 10000001 10110000000000000000000

Vamos a representar el número 12.375 en formato de coma flotante de doble precisión.

Paso 1: Representación binaria sin normalizar

12 en binario es 1100

0.375 en binario es .011 (porque 0.25 es .01 y 0.125 es .001)

Entonces, 12.375 es 1100.011 en binario.

Paso 2: Normalización

Mueve el punto para que solo haya un bit a la izquierda del punto: 1.100011 (moviendo tres
posiciones a la derecha).

El exponente es 3.

Paso 3: Ajuste del exponente al bias de 1023

Exponente + bias = 3 + 1023 = 1026

1026 en binario es 10000000010

Paso 4: Construcción del número

Signo: 0 (porque el número es positivo)

Exponente: 10000000010

Mantisa: Tomamos la parte fraccional de la representación normalizada: 100011... (rellenamos


con ceros hasta tener 52 bits).

Entonces, el número 12.375 en doble precisión IEEE 754 es:

0 10000000010 1000110000000000000000000000000000000000000000000000
Actividades
1. Representa los siguientes números en decimal utilizando la notación científica
normalizada:
a. 345044000000000
b. 0,000000044
2. Representa el número 48,297 utilizando el formato normalizado IEEE 754 para coma
flotante de 32 bits (simple precisión).
3. Representa el número en binario – 0,00000111 utilizando el formato normalizado IEEE
754 para coma flotante de 32 bits (simple precisión).

6.3. ALFANUMÉRICA

Dentro de la codificación de la información en informática, uno de los aspectos más esenciales


es la representación de caracteres alfanuméricos. Estos caracteres incluyen letras, números y
diversos símbolos. A lo largo del tiempo, se han creado varios sistemas y estándares de
codificación para representar estos caracteres en las computadoras. A continuación, se
detallan algunos de los más destacados:

BCD (Binary-Coded Decimal):

● Es una clase de representaciones binarias de números decimales en las que cada dígito
decimal es representado por un grupo fijo de bits, generalmente cuatro o ocho.
● Por ejemplo, el número 593 en BCD se representa como 0101 1001 0011.

EBCDIC (Extended Binary Coded Decimal Interchange Code):

● Desarrollado por IBM en la década de 1960, se utiliza principalmente en sistemas


mainframe.
● Es un sistema de codificación de 8 bits que puede representar caracteres
alfanuméricos y de control.

FIELDATA:

● Desarrollado por el Ejército de los EE.UU. en la década de 1950.


● Es una codificación de 6 bits, y fue uno de los primeros intentos estandarizados de
codificar caracteres alfanuméricos.

ASCII (American Standard Code for Information Interchange):

● Es uno de los códigos más utilizados y fue desarrollado en la década de 1960.


● Utiliza 7 bits para representar caracteres, lo que da lugar a 128 caracteres posibles.
Esto incluye letras (mayúsculas y minúsculas), números y símbolos de puntuación.

ISO (Organización Internacional de Normalización):

● Ha establecido varios estándares de codificación de caracteres. El más conocido es ISO


8859-1, también llamado Latin-1, que se utiliza para idiomas occidentales y cubre la
mayoría de las necesidades de estos idiomas.
WINDOWS (Win-1252):

● Es una extensión del Latin-1 de ISO 8859-1 utilizada por defecto en el legado de
Microsoft Windows en idiomas de Europa Occidental, incluyendo extensiones para
caracteres no incluidos en ISO 8859-1.

UNICODE:

● Es un estándar moderno que busca proporcionar un código único para cada carácter,
independientemente del idioma o plataforma.
● Puede representar más de un millón de caracteres distintos, permitiendo la
codificación de prácticamente todos los sistemas de escritura modernos y muchos
históricos.
● UTF-8, UTF-16 y UTF-32 son formas comunes de codificación que implementan el
estándar Unicode, siendo UTF-8 la más popular en la web debido a su compatibilidad
hacia atrás con ASCII.

Estas codificaciones han evolucionado a lo largo del tiempo según las necesidades de la
informática y los sistemas de comunicación. Mientras que algunos, como ASCII, se han
convertido en estándares de facto en ciertos contextos, otros, como Unicode, se están
volviendo cada vez más dominantes debido a la globalización y la necesidad de una
codificación universal.

6.4. FORMATOS PARA ALMACENAR LA INFORMACIÓN

La información digital se puede presentar de muchas formas, y cada tipo tiene varios formatos
diseñados para su almacenamiento eficiente, su transmisión o para servir a ciertas aplicaciones
en particular. Vamos a explorar los formatos más comunes para almacenar diferentes tipos de
información.

Texto:

● TXT: Un formato básico y sin formato para documentos de texto.


● DOC y DOCX: Proporcionados por Microsoft Word, contienen texto con formato,
imágenes y otros elementos multimedia.
● PDF: Desarrollado por Adobe, el Formato de Documento Portátil permite presentar
documentos con independencia del software, hardware y sistema operativo.
● RTF: Formato de Texto Enriquecido, un formato de documento que incluye formato
básico y se puede abrir con la mayoría de los procesadores de texto.
● HTML y XML: Usados principalmente en la web, estos formatos permiten estructurar el
texto y otros elementos.

Actividades
1. Comprueba en tu procesador de texto los diferentes formatos en que se pueden
guardar los documentos

Multimedia:

● MP4: Un formato contenedor digital para almacenar audio, vídeo y subtítulos.


● MKV: Un formato contenedor libre y abierto que puede sostener una cantidad
ilimitada de vídeo, audio, imágenes y pistas de subtítulos en un solo archivo.

Imágenes:

● JPEG (o JPG): Ampliamente utilizado para fotografías. Usa compresión con pérdida.
● PNG: Ideal para gráficos web con soporte para transparencias. Es una compresión sin
pérdida.
● GIF: Soporta animaciones y es comúnmente usado en la web. Tiene una paleta
limitada de 256 colores.
● BMP: Un formato sin compresión desarrollado por Microsoft.
● TIFF: Adecuado para imágenes de alta calidad e impresión. Puede ser comprimido o no
comprimido.

Audio:

● MP3: Un formato comprimido con pérdida popular para música.


● WAV: Un formato sin compresión desarrollado por Microsoft y IBM.
● FLAC: Formato de Código de Audio sin Pérdida. Proporciona compresión sin pérdida.
● AAC: Usado principalmente por Apple, ofrece una mejor calidad que el MP3 a tasas de
bits similares.

Vídeo:

● AVI: Desarrollado por Microsoft, es uno de los formatos más antiguos y comunes.
● MOV: Desarrollado por Apple para QuickTime.
● WMV: Formato de Video de Windows, desarrollado por Microsoft.
● FLV: Usado principalmente para entregar vídeo en la web usando Adobe Flash.

Otros formatos:

● ZIP y RAR: Usados para comprimir archivos y directorios en un archivo más pequeño.
● ISO: Una imagen de disco que representa la estructura y el contenido exactos de un
medio de almacenamiento, como un CD o DVD.
● PDF/A: Variante del PDF diseñada para la preservación a largo plazo de documentos
electrónicos.

Estos formatos, entre otros, son esenciales para la creación, distribución y consumo de
contenidos digitales. La elección del formato adecuado depende del uso previsto, la necesidad
de compresión, la calidad deseada y las capacidades del software o hardware con el que se
está trabajando.

También podría gustarte