Introduccion A Los Si
Introduccion A Los Si
Introduccion A Los Si
EL SISTEMA INFORMÁTICO
Un sistema informático es un conjunto organizado de recursos que están diseñados para
realizar tareas de procesamiento de datos y almacenamiento. Estos recursos pueden ser tanto
tangibles (hardware) como intangibles (software). El principal objetivo de un sistema
informático es resolver problemas y realizar tareas específicas mediante la ejecución de
instrucciones programadas.
Componentes principales:
● Hardware: Son los componentes físicos del sistema, como la CPU, memoria RAM, disco
duro, entre otros.
● Software: Son los programas y aplicaciones que permiten al hardware realizar tareas
específicas. Se divide en software de sistema (sistemas operativos) y software de
aplicación (programas específicos para tareas).
● Datos: Información que se procesa y almacena en el sistema.
● Procedimientos: Son las reglas o protocolos establecidos para el uso y operación del
sistema.
● Usuarios: Personas que interactúan con el sistema informático.
A medida que avanzaba el tiempo, en el siglo XVII, el matemático y filósofo francés Blaise
Pascal introdujo una notable innovación con la invención de la "Pascalina". Esta máquina, una
de las primeras calculadoras mecánicas, estaba diseñada para realizar sumas y restas, y su
creación marcó un hito en la búsqueda de herramientas que facilitarán el cálculo. No mucho
después, el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó la idea de
Pascal al crear una máquina capaz de multiplicar, dividir y calcular raíces cuadradas. Además,
Leibniz es reconocido por su desarrollo del sistema binario, un concepto fundamental para la
informática moderna.
El siglo XIX trajo consigo más avances, como el telar automático inventado por Joseph Marie
Jacquard. Controlado por tarjetas perforadas, este telar no solo revolucionó la industria textil,
sino que también sentó las bases para la programación moderna. En esa misma época, Charles
Babbage, a menudo considerado el "padre de la computación", concibió la "Máquina
Analítica". Aunque nunca completó su construcción, la visión de Babbage de una máquina con
memoria y unidad de procesamiento prefiguró la estructura de las computadoras actuales. Es
importante mencionar a Ada Lovelace, matemática y escritora británica, quien trabajó junto a
Babbage y es reconocida como la primera programadora de la historia, al desarrollar lo que se
considera el primer algoritmo destinado a ser procesado por una máquina.
El final del siglo XIX vio el surgimiento de Herman Hollerith y su máquina tabuladora, que
utilizaba tarjetas perforadas para procesar datos. Esta innovación fue clave para el censo de
Estados Unidos de 1890 y, eventualmente, la empresa de Hollerith se fusionaría con otras para
dar origen a IBM.
1ª Generación (1940-1956):
3ª Generación (1964-1971):
4ª Generación (1971-Presente):
3. COMPONENTES HARDWARE
El hardware se refiere a todos los componentes físicos que componen un sistema informático.
Estos componentes son esenciales para que el software funcione correctamente y realice las
tareas deseadas. A continuación, se detallan los elementos físicos y funcionales del hardware:
Carcasa:
Periféricos:
Memorias Auxiliares:
CPU = UC + UAL
MP
Tipos de Buses:
Coordina y dirige todas las operaciones del sistema. Genera señales de control para operar
otros componentes y asegurar el flujo correcto de datos.
Memoria Principal:
La memoria principal, también conocida como memoria central o memoria de acceso directo,
es el medio de almacenamiento principal de una computadora. Es donde la computadora
guarda los datos que está utilizando activamente, permitiendo un acceso rápido y directo a
ellos. Esta memoria es volátil, lo que significa que su contenido se pierde cuando se apaga el
sistema, a excepción de la ROM. La memoria principal se compone principalmente de dos
tipos: RAM y ROM.
Ambas, RAM y ROM, son esenciales para el funcionamiento de una computadora. Mientras
que la RAM actúa como una pizarra temporal que la computadora utiliza para realizar tareas,
la ROM almacena instrucciones permanentes que la computadora necesita para iniciar y
realizar funciones básicas.
Unidades de Entrada/Salida:
Comunica el microprocesador con los componentes como con las memorias auxiliares.
Los lenguajes de programación son medios que permiten a los programadores comunicarse
con las computadoras para desarrollar software. Estos lenguajes se pueden clasificar en dos
categorías principales según su proximidad al hardware o al ser humano: lenguajes de bajo
nivel y lenguajes de alto nivel.
● Software de Base:
o Descripción: También conocido como software de sistema, es el conjunto de
programas que controlan y gestionan el hardware de la computadora, permitiendo
la interacción entre este y el usuario.
o Ejemplos:
▪ Sistemas Operativos: Como Windows, macOS, Linux. Son plataformas que
permiten la ejecución de otros programas y gestionan los recursos del
sistema.
▪ Controladores o Drivers: Son programas que permiten que el sistema
operativo interactúe con el hardware específico, como impresoras,
tarjetas gráficas, entre otros.
● Software de Programación:
o Descripción: Es el conjunto de herramientas que permiten a los desarrolladores
crear programas y aplicaciones.
o Ejemplos:
▪ Compiladores: Transforman el código fuente escrito por el programador
en un lenguaje que la máquina pueda entender.
▪ Entornos de Desarrollo Integrado (IDEs): Como Eclipse, Visual Studio. Son
plataformas que ofrecen herramientas para escribir, depurar y compilar
código.
● Software de Aplicación:
o Descripción: Son programas diseñados para permitir a los usuarios realizar tareas
específicas en una computadora.
o Ejemplos:
▪ Aplicaciones de Ofimática: Como Microsoft Office, LibreOffice.
▪ Navegadores Web: Como Chrome, Firefox.
▪ Programas de Diseño Gráfico: Como Adobe Photoshop, Illustrator.
5. REPRESENTACIÓN DE LA INFORMACIÓN
● Datos de Entrada: Son los datos que se introducen en un sistema para ser procesados.
Estos pueden provenir de diversas fuentes, como un usuario, un archivo o un
dispositivo de entrada.
● Datos Internos del Proceso: Son los datos que se generan y utilizan internamente
durante el proceso de una operación o tarea. Estos datos no son visibles para el
usuario y sirven para realizar cálculos, tomar decisiones y dirigir el flujo del programa.
● Datos de Salida: Son los resultados producidos después de procesar los datos de
entrada. Estos se presentan al usuario o se envían a un dispositivo de salida, como una
pantalla o una impresora.
, coma fraccionaria. Símbolo utilizado para separar la parte entera de un número de su parte
fraccionaria.
k,: número de dígitos de la parte decimal.
El valor total del número será la suma de cada dígito multiplicado por la potencia de la base
correspondiente a la posición que ocupa en el número.
Actividades
1. Utiliza el Teorema fundamental de la numeración, para ver cómo se calcularía el valor
de cada dígito de los siguientes números en decimal:
a. 1785
b. 345,65
c. 12,357
Binario: El sistema binario es un sistema de numeración posicional que utiliza solo dos dígitos:
0 y 1. Es la base del funcionamiento interno de las computadoras modernas. En binario, solo
se usan estos dos dígitos para representar todos los números. Un número como "1011" se lee
de derecha a izquierda, siendo el dígito más a la derecha el menos significativo.
Octal: Basado en 8 símbolos (0-7). Menos común en la informática moderna, pero aún tiene
aplicaciones.
Hexadecimal: Basado en 16 símbolos (0-9 y A-F). Es útil porque representa de manera concisa
números binarios largos.
Para convertir un número binario a decimal, se multiplica cada dígito por 2 elevado a su
posición y luego se suman los resultados.
Actividades
1. Calcula para los siguientes números en binario su valor en el sistema decimal:
a. 11011
b. 11,011
Decimal a binario
Para convertir un número decimal a binario, se divide el número entre 2 y se anota el residuo.
Se repite el proceso con el cociente hasta que este sea 0. El número binario se obtiene leyendo
los residuos de abajo hacia arriba.
Para los números fraccionarios: Multiplica la parte fraccionaria por 2. La parte entera del
resultado es el primer dígito binario después del punto. Repite el proceso con la nueva parte
fraccionaria hasta obtener la precisión deseada o hasta que la fracción sea 0.
Actividades
1. Pasar 32,375(10 al sistema binario
Se agrupan los dígitos binarios de tres en tres, desde el punto decimal hacia la izquierda y
hacia la derecha. Cada grupo se convierte a su equivalente en octal. Convierte cada dígito octal
a su representación binaria de tres bits.
Actividades
1. Calcula para los siguientes números en octal su valor en el sistema binario:
a. 1342
b. 34,03
Calcula para los siguientes números en binario su valor en el sistema octal:
a. 11011101
b. 10001,1001
Agrupa los dígitos binarios de cuatro en cuatro, desde el punto decimal hacia la izquierda y
hacia la derecha. Convierte cada grupo a su equivalente en hexadecimal. Convierte cada dígito
hexadecimal a su representación binaria de cuatro bits.
Actividades
1. Calcula para los siguientes números en hexadecimal su valor en el sistema binario:
a. 3AF
b. F0,0C
Calcula para los siguientes números en binario su valor en el sistema hexadecimal:
a. 110110010
b. 101011,010001
Incluyen suma, resta, multiplicación y división. La suma y la resta en binario tienen reglas
específicas debido a la naturaleza de la base 2.
Suma
Principios básicos: La suma en binario sigue reglas similares a la suma en decimal, pero solo
hay dos dígitos: 0 y 1.
0+0=0
0+1=1
1+0=1
1 + 1 = 0 (con acarreo de 1)
Comienza sumando los bits más a la derecha (bit menos significativo). Si la suma de dos bits es
2 (en binario 10), escribe un 0 y lleva un acarreo al siguiente bit. Continúa el proceso hasta que
todos los bits estén sumados.
Actividades
1. Realiza la suma de los siguientes números en binario
a. 01101111 + 10111
Resta
Principios básicos: La resta en binario también sigue reglas similares a la resta en decimal.
0-0=0
1-0=1
1-1=0
Comienza restando los bits más a la derecha. Si estás restando un bit mayor de uno menor
(como 1 de 0), toma prestado 1 del bit adyacente a la izquierda. Continúa el proceso hasta que
todos los bits estén restados.
Actividades
1. Resta los siguientes números en binario
a. 1001111 – 10111
Operaciones lógicas:
Las operaciones lógicas se realizan bit a bit y son fundamentales en la lógica digital y el diseño
de circuitos. Las más comunes son AND, OR, NOT, XOR, entre otras.
AND: La operación AND produce un resultado verdadero (1) solo si ambas entradas son
verdaderas.
OR: La operación OR produce un resultado verdadero (1) si al menos una de las entradas es
verdadera.
XOR: La operación XOR produce un resultado verdadero (1) si exactamente una de las
entradas es verdadera, pero no ambas.
NOR: Es la operación inversa de OR. Produce un resultado verdadero (1) si ninguna de las
entradas es verdadera.
XNOR: Es la operación inversa de XOR. Produce un resultado verdadero (1) si ambas entradas
son iguales.
NAND: Es la operación inversa de AND. Produce un resultado verdadero (1) si al menos una de
las entradas es falsa (0).
NOT: La operación NOT es una operación unaria, lo que significa que solo tiene una entrada.
Invierte el valor de la entrada. Si la entrada es 1, la salida es 0 y viceversa.
Actividades
1. Para los siguientes pares de números en binario, realiza las operaciones lógicas AND,
OR, NAND, NOR y XOR
a. 11101100 y 11101
b. 1101100 y 101101
2. Completa la siguiente tabla con las operaciones que se indican en la columna superior,
con respecto a los valores de las columnas A y B
A B A XOR B A AND B
0 0
0 1
1 0
1 1
3. Completa la siguiente tabla con las operaciones que se indican en la columna superior,
con respecto a los valores de las columnas A y B
A B A XOR B NOT A NOT A AND B
0 0
0 1
1 0
1 1
Complementos:
Complemento a 1
Actividades:
1. Supongamos que el número binario es de N dígitos. Si N = 8, obtener el complemento
a 1 del siguiente número en binario
a. 1001
Complemento a 2
Actividades
1. Supongamos que el número binario es de N dígitos. Si N = 8, obtener el complemento
a 2 del siguiente número:
a. 1001
Resta en complemento a 1
Actividades
1. Realiza la siguiente resta de números en binario, utilizando el complemento a 1:
a. 00001000 – 00000011
Resta en complemento a 2
Paridad lineal:
Paso 1: Contamos los bits '1' en el byte. En 11010101, hay 5 bits '1'.
Paso 2: Decidimos usar paridad par. Dado que hay 5 bits '1' (un número impar), agregamos un
bit de paridad '1' al final para hacer que el total de bits '1' sea par.
Paso 4: Al recibir el byte, el sistema cuenta nuevamente los bits '1'. Si el número no es par,
indica un error.
Actividades
1. Queremos almacenar los siguientes bits: 1011010 utilizando el sistema de detección
de errores de paridad lineal par. ¿Qué bit le deberíamos añadir?
Mientras que la paridad lineal verifica errores a nivel de bytes, la paridad bidimensional se
extiende para cubrir matrices de bits. La técnica de paridad de Hamming, por ejemplo, no solo
detecta errores sino que también puede corregirlos. Supongamos que tenemos cuatro bits de
datos: D1, D2, D3, D4. Estos datos se combinan con bits de paridad P1, P2, P4 (nótese que se
omiten potencias de 2). Para un dato como 1101, los bits de paridad se calcularían basándose
en qué bits de datos cubren. Si se introduce un error, al revisar los bits de paridad, podemos
determinar cuál bit es erróneo y corregirlo.
P1 P2 1 P4 1 0 1
Actividades
1. Para almacenar los siguientes bits utilizando paridad bidimensional par, ¿qué bits
tendríamos que añadir?
a. 10011
b. 101111
c. 1000
CRC, o Chequeo Redundante Cíclico, es una técnica avanzada que utiliza operaciones
polinómicas para detectar errores. Funciona con un "polinomio generador" predefinido.
Supongamos que estamos transmitiendo un dato de 3 bits, 101, y usamos un polinomio
generador, 1101. El dato se multiplica para adaptarse al polinomio generador, luego se divide,
y el residuo de esta división se adjunta al dato original como bits de verificación. En el extremo
receptor, se realiza la misma división. Si el residuo coincide, no hay error. De lo contrario,
sabemos que ha ocurrido un error en la transmisión.
6. CODIFICACIÓN DE LA INFORMACIÓN
Al hablar de codificación de la información, nos referimos a la forma en que representamos y
almacenamos datos. Un aspecto fundamental de esta representación es si usamos códigos de
longitud fija o códigos de longitud variable. Estos términos se refieren a cómo de extensos son
los códigos o patrones que utilizamos para representar datos.
1. Bit:
2. Nibble:
● Consiste en 4 bits.
● Aunque no es una unidad de almacenamiento comúnmente referenciada como las
otras en listas de tamaño, es útil en ciertos contextos, particularmente en
programación y electrónica, donde se hace referencia a medios bytes o cuando se
trabaja con dígitos hexadecimales individuales.
3. Byte:
Las unidades de medida para la cantidad de información digital se originan en el bit, que es la
unidad más básica y representa un 0 o un 1. A partir de ahí, la información se agrupa y se
escala en potencias de 10 o de 2, dependiendo de si se está utilizando el sistema decimal (base
10) o binario (base 2). A continuación, presento las unidades de medida binarias (las más
comunes en informática) desde el bit hasta el yottabyte:
Cabe mencionar que en algunos contextos, como en el almacenamiento de discos duros, las
unidades se venden a menudo utilizando el sistema decimal, por lo que un "kilobyte" podría
representarse como 1,000 bytes en lugar de 1,024 bytes. Sin embargo, en la mayoría de los
contextos técnicos y de software, las definiciones binarias (base 2) mencionadas
anteriormente son las más utilizadas.
6.2. NUMÉRICA
La representación numérica en sistemas informáticos es crucial para la ejecución de
operaciones y procesos. Dependiendo del tipo de número y de su uso, hay diferentes formas
de representación.
Decimal empaquetado
La codificación de números enteros en "decimal empaquetado" (a veces conocido como
"packed decimal") es una técnica utilizada principalmente en sistemas mainframe y ciertos
sistemas heredados. Esta codificación busca una representación eficiente de números
decimales en memoria.
La idea básica detrás del decimal empaquetado es representar dos dígitos decimales en un
solo byte. Así, cada dígito decimal (que puede ser un valor entre 0 y 9) ocupa 4 bits.
En decimal puro, el número 3 sería 0011 en binario, el número 4 sería 0100 y el número 7 sería
0111.
Al empaquetar estos números, tomamos dos dígitos a la vez y los ponemos en un byte.
Entonces, 34 sería 0011 0100 y 7 necesitaría otro byte (por ejemplo, 0111 1111 donde 1111
puede ser utilizado para indicar que es el último dígito o para otros propósitos como signos).
Es importante mencionar que esta codificación también tiene provisiones para representar el
signo del número. Por lo general, se reserva un nibble (4 bits) para representar el signo del
número. Los valores comunes son "C" (1100 en binario) para números positivos y "D" (1101 en
binario) para números negativos.
Ventajas:
Desventajas:
Actividades
1. Representa los siguientes números en decimal empaquetado:
a. +13457
b. -13457
Decimal desempaquetado
El "decimal desempaquetado" es otra forma de representar números decimales en sistemas
informáticos, especialmente en sistemas más antiguos o mainframes. A diferencia del decimal
empaquetado, donde se almacenan dos dígitos decimales en un solo byte, en el decimal
desempaquetado se utiliza un byte completo para representar un solo dígito decimal.
Cómo funciona:
Ejemplo:
Ventajas:
Desventajas:
Ejemplo:
En binario puro, el número 5 se representa como 0000 0000 0000 0000 0000 0000 0000 0101.
Considerando el bit de signo para un total de 32 bits, -5 se representaría como 1000 0000 0000
0000 0000 0000 0000 0101.
En este caso, el primer bit 1 indica que el número es negativo, y los 31 bits restantes
representan el número 5.
Ventajas y Desventajas:
Las ventajas y desventajas son similares a las mencionadas anteriormente, pero en el contexto
de 32 bits:
Desventajas:
Actividades
1. Representa los siguientes números en binario puro más el signo:
a. +15678
b. -25896547
6.2.2. Números con decimales (también denominados reales o en
coma flotante)
Notación Científica:
5.67 × 10^3
IEEE 754:
El estándar IEEE 754 es una especificación para la representación de números de coma flotante
en computadoras. Convierte la idea de notación científica a binario y proporciona formatos y
reglas específicos.
En el estándar IEEE 754, un número de coma flotante se representa con tres componentes:
● Signo: Un bit para el signo del número (0 para positivo, 1 para negativo).
● Exponente: Un conjunto de bits que representan el exponente del número.
● Mantisa (o fracción): Los bits restantes que representan la mantisa del número.
● Signo: 1 bit.
● Exponente: 8 bits.
● Mantisa: 23 bits.
● Signo: 1 bit.
● Exponente: 11 bits.
● Mantisa: bits.
La normalización es el proceso de ajustar el número para que solo haya un dígito diferente de
cero a la izquierda del punto decimal. Por ejemplo, el número 0.0456 en notación científica
sería 4.56 × 10^−2. La mantisa está normalizada porque hay un único dígito no nulo a la
izquierda del punto.
El estándar IEEE 754 utiliza una forma de notación científica binaria y siempre normaliza los
números (con algunas excepciones como el cero y los denominados subnormales).
Consideraciones:
1. El IEEE 754 también define representaciones para cero, infinito (positivo y negativo),
NaN (Not a Number) y números subnormales (números muy pequeños que no pueden
ser representados de manera normalizada).
2. La representación en coma flotante, aunque es versátil y puede representar una
amplia gama de números, tiene limitaciones en términos de precisión. Es posible
obtener errores de redondeo, especialmente cuando se realizan operaciones en
números que están cerca de los límites de la representación.
3. Las operaciones en coma flotante son más costosas computacionalmente en
comparación con las operaciones enteras. Sin embargo, el hardware moderno,
especialmente las unidades de punto flotante (FPU), ha optimizado estas operaciones
para ser muy rápidas.
Ejemplos
6 en binario es 110
Paso 2: Normalización
Mueve el punto para que solo haya un bit a la izquierda del punto: 1.1011 (sin mover
realmente en este caso).
Exponente: 10000001
1 10000001 10110000000000000000000
12 en binario es 1100
Paso 2: Normalización
Mueve el punto para que solo haya un bit a la izquierda del punto: 1.100011 (moviendo tres
posiciones a la derecha).
El exponente es 3.
Exponente: 10000000010
0 10000000010 1000110000000000000000000000000000000000000000000000
Actividades
1. Representa los siguientes números en decimal utilizando la notación científica
normalizada:
a. 345044000000000
b. 0,000000044
2. Representa el número 48,297 utilizando el formato normalizado IEEE 754 para coma
flotante de 32 bits (simple precisión).
3. Representa el número en binario – 0,00000111 utilizando el formato normalizado IEEE
754 para coma flotante de 32 bits (simple precisión).
6.3. ALFANUMÉRICA
● Es una clase de representaciones binarias de números decimales en las que cada dígito
decimal es representado por un grupo fijo de bits, generalmente cuatro o ocho.
● Por ejemplo, el número 593 en BCD se representa como 0101 1001 0011.
FIELDATA:
● Es una extensión del Latin-1 de ISO 8859-1 utilizada por defecto en el legado de
Microsoft Windows en idiomas de Europa Occidental, incluyendo extensiones para
caracteres no incluidos en ISO 8859-1.
UNICODE:
● Es un estándar moderno que busca proporcionar un código único para cada carácter,
independientemente del idioma o plataforma.
● Puede representar más de un millón de caracteres distintos, permitiendo la
codificación de prácticamente todos los sistemas de escritura modernos y muchos
históricos.
● UTF-8, UTF-16 y UTF-32 son formas comunes de codificación que implementan el
estándar Unicode, siendo UTF-8 la más popular en la web debido a su compatibilidad
hacia atrás con ASCII.
Estas codificaciones han evolucionado a lo largo del tiempo según las necesidades de la
informática y los sistemas de comunicación. Mientras que algunos, como ASCII, se han
convertido en estándares de facto en ciertos contextos, otros, como Unicode, se están
volviendo cada vez más dominantes debido a la globalización y la necesidad de una
codificación universal.
La información digital se puede presentar de muchas formas, y cada tipo tiene varios formatos
diseñados para su almacenamiento eficiente, su transmisión o para servir a ciertas aplicaciones
en particular. Vamos a explorar los formatos más comunes para almacenar diferentes tipos de
información.
Texto:
Actividades
1. Comprueba en tu procesador de texto los diferentes formatos en que se pueden
guardar los documentos
Multimedia:
Imágenes:
● JPEG (o JPG): Ampliamente utilizado para fotografías. Usa compresión con pérdida.
● PNG: Ideal para gráficos web con soporte para transparencias. Es una compresión sin
pérdida.
● GIF: Soporta animaciones y es comúnmente usado en la web. Tiene una paleta
limitada de 256 colores.
● BMP: Un formato sin compresión desarrollado por Microsoft.
● TIFF: Adecuado para imágenes de alta calidad e impresión. Puede ser comprimido o no
comprimido.
Audio:
Vídeo:
● AVI: Desarrollado por Microsoft, es uno de los formatos más antiguos y comunes.
● MOV: Desarrollado por Apple para QuickTime.
● WMV: Formato de Video de Windows, desarrollado por Microsoft.
● FLV: Usado principalmente para entregar vídeo en la web usando Adobe Flash.
Otros formatos:
● ZIP y RAR: Usados para comprimir archivos y directorios en un archivo más pequeño.
● ISO: Una imagen de disco que representa la estructura y el contenido exactos de un
medio de almacenamiento, como un CD o DVD.
● PDF/A: Variante del PDF diseñada para la preservación a largo plazo de documentos
electrónicos.
Estos formatos, entre otros, son esenciales para la creación, distribución y consumo de
contenidos digitales. La elección del formato adecuado depende del uso previsto, la necesidad
de compresión, la calidad deseada y las capacidades del software o hardware con el que se
está trabajando.