Ejercicio 1

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 13

EJERCICIO 1:

INFORMACIÓN E INFORMÁTICA

Información
Como información denominamos al conjunto de datos, ya procesados y ordenados para su
comprensión, que aportan nuevos conocimientos a un individuo o sistema sobre un asunto,
materia, fenómeno o ente determinado. La palabra, como tal, proviene del latín informatĭo,
informatiōnis, que significa ‘acción y efecto de informar’.

La importancia de la información radica en que, con base en esta, podemos solucionar


problemas, tomar decisiones o determinar cuál alternativa, de un conjunto de ellas, es la
que mejor se adapta a nuestras necesidades. El aprovechamiento que hagamos de la
información, en este sentido, es la base racional del conocimiento.

La consecuencia más importante de la información es cambiar el estado de conocimiento


que un individuo o sistema maneja con respecto a determinado fenómeno o cuestión, todo
lo cual influirá en las acciones, actitudes o decisiones que se tomen a partir de la nueva
información. Por ejemplo, al informarnos sobre el estado del tiempo y enterarnos de que va
a llover, sabremos que nuestra mejor hipótesis para evitar mojarnos es llevar un paraguas
con nosotros al salir.

Por otra parte, algunas de las características fundamentales de la información es que esta
debe tener cierto grado de utilidad, pues, con base en ella, el individuo o sistema modificará
las sucesivas interacciones que realice con su entorno. Asimismo, la información deberá
poseer vigencia o actualidad, pues de nada sirve informarse sobre el estado del tiempo del
día anterior para decidir si llevar paraguas o no. Y, finalmente, la información deberá ser
confiable, pues en la medida en que lo sea se dispondrán una serie de acciones para
confirmarla.
Concepto de informativa
La informática, también llamada computación, es la rama de la ciencia que se encarga de
estudiar la administración de métodos, técnicas y procesos con el fin de almacenar,
procesar y transmitir información y datos en formato digital.

De esta manera, la informática se refiere al procesamiento automático de información


mediante dispositivos electrónicos y sistemas computacionales. Los sistemas informáticos
deben contar con la capacidad de cumplir tres tareas básicas: entrada (input, captación de la
información), procesamiento y salida (transmisión de los resultados). El conjunto de estas
tres tareas se conoce como algoritmo.

No existe una definición consensuada sobre el término. Sin embargo, la Asociación de


Docentes de Informática y Computación de la República Argentina ha tomado una
posición, definiéndola de la siguiente manera: «La informática es la disciplina o campo de
estudio que abarca el conjunto de conocimientos, métodos y técnicas referentes al
tratamiento automático de la información, junto con sus teorías y aplicaciones prácticas,
con el fin de almacenar, procesar y transmitir datos e información en formato digital
utilizando sistemas computacionales. Los datos son la materia prima para que, mediante su
proceso, se obtenga como resultado información. Para ello, la informática crea y/o emplea
sistemas de procesamiento de datos, que incluyen medios físicos (hardware) en interacción
con medios lógicos (software) y las personas que los programan y/o los usan
(humanware)».

Es por lo que se hace distinción entre este término y las ciencias de la computación, puesto
que el segundo engloba la parte más teórica mientras que informática se refiere a la
aplicabilidad de esta anterior en datos usando dispositivos electrónicos. De hecho, se
definen cinco subdisciplinas del campo de la informática: ciencias de la computación,
ingeniería informática, sistemas de información, tecnología de la información e ingeniería
de software.
Antecedentes históricos
La disciplina de la informática es anterior a la creación de las computadoras. Ya en la
antigüedad se conocían métodos para realizar cálculos matemáticos, por ejemplo el
algoritmo de Euclides. En el siglo XVII comenzaron a inventarse máquinas calculadoras.
En el siglo XIX se desarrollaron las primeras máquinas programables, es decir, que el
usuario podría modificar la secuencia de acciones a realizar a través de algoritmos
específicos.

En los inicios del procesamiento automático de la información, con la informática solo se


facilitaban los trabajos repetitivos y monótonos del área administrativa. La automatización
de esos procesos trajo como consecuencia directa una disminución de los costes y un
incremento en la productividad. En la informática convergen los fundamentos de las
ciencias de la computación, la programación y también las metodologías para el desarrollo
de software, la arquitectura de las computadoras, las redes de computadores, la inteligencia
artificial y ciertas cuestiones relacionadas con la electrónica. Se puede entender por
informática a la unión sinérgica de todo este conjunto de disciplinas. Esta disciplina se
aplica a numerosas y variadas áreas del conocimiento o la actividad humana,por ejemplo:
gestión de negocios, almacenamiento y consulta de información; monitorización y control
de procesos, industria, robótica, comunicaciones, control de transportes, investigación,
desarrollo de juegos, diseño computarizado, aplicaciones/herramientas multimedia,
medicina, biología, física, química, meteorología, ingeniería, arte, etc. Puede tanto facilitar
la toma de decisiones a nivel gerencial (en una empresa) como permitir el control de
procesos críticos. Actualmente, es difícil concebir un área que no esté vinculada o requiera
del apoyo de la informática. Esta puede cubrir un enorme abanico de funciones, que van
desde las más simples cuestiones domésticas hasta los cálculos científicos más complejos.
Entre las funciones principales de la informática se enumeran las siguientes:

 Creación de nuevas especificaciones de trabajo.


 Desarrollo e implementación de sistemas informáticos.
 Sistematización de procesos.
 Optimización de los métodos y sistemas informáticos existentes.
 Facilitar la automatización de datos y formatos.

Análogo Vs Digital
Sistema digital y sistema analógico hacen referencia a las dos categorías en la que se
clasifican los circuitos electrónicos. Sistema digital es cualquier sistema que pueda generar,
procesar, transmitir o almacenar señales mediante dígitos y que solo admite valores
discretos, es decir, que solo admite un conjunto limitado de números o valores. Sistema
analógico es cualquier sistema cuyas señales se representan con valores continuos, es decir,
que admite números o valores infinitos. La principal diferencia entre sistema digital y
sistema analógico radica en que el primero es mucho más preciso y la información se puede
almacenar de manera más eficiente y en mayor cantidad que en un sistema analógico.
Sistema digital Sistema analógico

Definición Sistema de manipulación Sistema de manipulación de datos físicos


de datos mediante dígitos representados en valores continuos.
(números).
Valores de Valores discretos Valores continuos (infinitos).
la señal (finitos).
Ventajas  Menor tamaño.  Instantaneidad.
 Eficiencia.  Economía.
 Precisión.  Fidelidad.
 Diseño.
 Estabilidad
Desventaja  Conversión.  Menor tolerancia al ruido.
s  Ancho de banda.  Degradación de la señal.
 Alteración.  Dificultades técnicas.

Ejemplos  Computadoras.  Sistemas de audio y video antiguos.


 Teléfonos  Fotografía analógica.
móviles.  Instrumentos de precisión tradicionales.
 Sistemas de
grabación de
audio y video.
 Instrumentos de
precisión digitales.
Sistemas de numeración y sistema binario
El sistema de numeración binario utiliza sólo dos dígitos, el cero (0) y el uno (1).

En una cifra binaria, cada dígito tiene distinto valor dependiendo de la posición que ocupe.
El valor de cada posición es el de una potencia de base 2, elevada a un exponente igual a la
posición del dígito menos uno. Se puede observar que, tal y como ocurría con el sistema
decimal, la base de la potencia coincide con la cantidad de dígitos utilizados (2) para
representar los números.

De acuerdo con estas reglas, el número binario 1011 tiene un valor que se calcula así:
1*23 + 0*22 + 1*21 + 1*20, es decir:
8 + 0 + 2 + 1 = 11
y para expresar que ambas cifras describen la misma cantidad lo escribimos así:
10112 = 1110

Conversión entre números decimales y binarios


Convertir un número decimal al sistema binario es muy sencillo: basta con
realizar divisiones sucesivas por 2 y escribir los restos obtenidos en cada división en orden
inverso al que han sido obtenidos. Por ejemplo, para convertir al sistema binario el
número 7710 haremos una serie de divisiones que arrojarán los restos siguientes:
77 : 2 = 38 Resto: 1
38 : 2 = 19 Resto: 0
19 : 2 = 9 Resto: 1
9 : 2 = 4 Resto: 1
4 : 2 = 2 Resto: 0
2 : 2 = 1 Resto: 0
1 : 2 = 0 Resto: 1
y, tomando los restos en orden inverso obtenemos la cifra binaria:
7710 = 10011012
El sistema binario es una técnica de numeración donde solo se utilizan dos dígitos, el 0 y el

Suele emplearse particularmente en la informática.


Es decir, este método se vale solo de dos símbolos, la unidad y el cero. Cualquier número
puede expresarse tanto en el sistema decimal como en el binario.

En ese sentido, debemos recordar que para pasar un número del sistema decimal al binario
debemos dividirlo entre 2 hasta que el dividendo sea menor que 2, considerando los
residuos, como vemos a continuación:
37/2=18 residuo 1
18/2=9 residuo 0
9/2=4 residuo 1
4/2 =2 residuo 0
2/2=1 residuo 0
Último cociente: 1

Tomamos entonces los residuos y el último cociente en orden inverso y obtenemos que 37
en el sistema decimal equivaler a 100101 en el sistema binario.

Lo anterior se puede expresar de la siguiente forma:

Asimismo, para cambiar del sistema binario al decimal se tendría que multiplicar cada
dígito por 2 elevado por la respectiva potencial. Es decir, volviendo al ejemplo de arriba
sería:

(1*(2^5))+(0*(2^4))+(0*(2^3))+(1*(2^2))+(0*(2^1))+(1*(2^0))= 32+0+0+4+0+1= 37

Historia del sistema binario


El matemático de origen indio Pingala habría sido el primero en presentar el sistema de
numeración binario en el siglo III A.C.
Asimismo, en la antigua China, en el texto clásico del I Ching, que data de alrededor del
1.200 AC, se utiliza una línea continua para los números impares y una quebrada para los
pares.

En el siglo XV, Francis Bacon y Juan Caramuel, cada uno por su lado, esbozaron lo que
podría un ser un sistema numérico binario.

Luego, Gottfried Leibniz, en el siglo XVII, sentó las bases del sistema binario moderno.
Esto, en su artículo «Explication de l’Arithmétique Binaire». En dicho documento, hace
referencia a los matemáticos chinos y emplea el 0 y el 1.
Asimismo, en el siglo XIX, el matemático británico George Boole, desarrolló el Álgebra de
Boole, donde el sistema binario tuvo un papel fundamental. Esto, en el tema de circuitos
electrónicos.

Bit y Byte
Bit es la abreviación de Binary Digit (digito binario), la cual en términos técnicos es la
menor unidad de información de una computadora. Un bit tiene solamente un valor (que
puede ser 0 o 1). Varios bits combinados entre sí dan origen a otras unidades, como “byte”,
“mega”, “giga” y “tera”.

Toda la información procesada por una computadora es medida y codificada en bits. El


tamaño de los archivos son medidos en bits, las tasas de transferencia son medidas en bit,
toda la información en el lenguaje del usuario es convertida a bits para que la computadora
la "entienda".

Los sistemas de 32 bits o 64 bits


Este número indica la capacidad que tiene la computadora para procesar la cantidad de bits
indicada de una sola vez. También puede significar el número de bits utilizados para
representar una dirección en la memoria.
¿De dónde proviene la palabra Bit?
La palabra bit fue utilizada por primera vez en la década de los 30, sorprendentemente, para
designar partes de información (bits of information). Simplificando, un bit es exactamente
eso: una combinación de dos dígitos que se junta con otros dígitos del mismo tipo para
generar la información completa.

Sin embargo, la definición de bit fue empleada en 1948 por el ingeniero Claude Shannon.
Aquel año, Shannon elaboró el artículo "A Mathematical Theory of Communication" (Una
Teoría Matemática de la Comunicación) y usó la palabra para designar el dígito binario.

Bit: Es la menor unidad de información de la computadora, pudiendo asumir uno de los dos
valores 0 o 1, siendo que, si el nivel de qué energía es bajo es 0 y si el nivel de energía
fuese alto el valor es 1. Si se desea representar números mayores, se deberá combinar bits.

Que es un Byte
Un Byte es un conjunto de 8 bits, formando según una secuencia que representa un
carácter. Se puede hacer una correspondencia biunívoca entre cada número decimal (0 a 9),
las letras mayúsculas y minúsculas (A hasta Z), los símbolos matemáticos, la puntuación, y
demás símbolos, con un respectivo byte.

Es fundamental para cualquier persona con formación en informática, tener muy clara la


diferencia entre lo que es un BIT (un 0 o un 1) y lo que es un Byte (una secuencia de 8 bits
continuos)

Kilobytes, Megabytes y Gigabytes


Kilobyte o Kbyte o Kb: Un Kbyte corresponde a 1024 bytes. P.ej.: un microcomputador
antiguo tipo PC-XT poseía 640 Kbytes de memoria, o sea, 655.360 bytes de memoria,
porque: 640 Kb x 1024 bytes = 655.360 bytes. Esto quiere decir que él podría tener en su
memoria hasta 655.360 caracteres.
Megabyte o Mbyte o Mb: Un Mbyte corresponde a 1024 Kbytes, 1.048.576 bytes.
Gigabyte o Gbyte o Gb: Un Gbyte corresponde la 1024 Mbytes.
Terabyte o Tbyte o Tb: Un Tbyte corresponde la 1024 Gbytes.

Pilares de la informática
Hardware
Corresponde a todas las partes tangibles de una computadora, como sus componentes
eléctricos, electrónicos y mecánicos; sus cables, gabinetes o cualquier otro elemento físico
involucrado.

Las computadoras son aparatos electrónicos capaces de interpretar y ejecutar instrucciones


programadas y almacenadas en su memoria; consisten básicamente en operaciones
aritmético-lógicas y de entrada-salida.

Se reciben las entradas (datos), se las procesa y almacena (procesamiento), y finalmente se


producen las salidas (resultados del procesamiento). Por ende todo sistema informático
tiene, al menos, componentes y dispositivos hardware dedicados a alguna de las funciones
antedichas:
Procesamiento: Unidad Central de Proceso
Almacenamiento: Memorias
Entrada: Periféricos de Entrada
Salida: Periféricos de salida
Entrada/Salida: Periféricos mixtos.

Software
El Software incluye tanto los programas provistos por el fabricante como los creados por un
usuario. El software podría ser denominado como la parte inmaterial e “intangible”. El
software puede ser alterado para la realización de determinadas tareas, lo que no ocurre con
el hardware. Todos los componentes físicos de la computadora no tendrían una utilidad si
no existiera una parte lógica capaz de actuar y darles sentido; esa es pues la función del
software, ya que permite darle consistencia lógica a la parte material de la computadora.
En pocas palabras es un conjunto de programas que permiten el funcionamiento del
Hardware.

El Software se clasifica en dos grandes grupos:


Software Básico
Es el conjunto de programas que el equipo físico necesita para tener la capacidad de
trabajar. Estos programas en su conjunto configuran lo que se denomina un sistema
informático (el sistema operativo OS, operanting System). El sistema operativo es el
encargado de administrar los recursos físicos y lógicos de la computadora, es decir es el
soporte lógico que controla el funcionamiento del equipo físico, ocultando los detalles del
hardware y haciendo más sencillo el uso de la computadora. El sistema operativo está
compuesto por Programas de control y Utilidades. Los programas de control son aquellos
cuya misión es controlar al equipo físico en todos sus aspectos; y la utilidades, son los
programas cuya misión es la de ayudar al usuario en trabajos típicos, como dar formato a
disquetes, manejo de archivos, etc.

Software de aplicación
Es el compuesto por el conjunto de programas que ha sido diseñado para que la
computadora pueda desarrollar un trabajo. Pertenecen a este determinado grupo los
denominados paquetes de software, que consisten en un conjunto de programas que nos
permiten editar textos, guardar datos, sacar informes, sacar cálculos, comunicarnos con
otros usuarios y algunos trabajos típicos en el uso de las computadoras. Por ejemplo
procesadores de palabras, programas contables y financieros, programas de gestión, entre
otros.

Recurso humano o usuario


Es el vínculo del Hardware con el Software. Es un individuo que utiliza un sistema
informático. Quien tiene un conocimiento especifico de software o hardware (es
administrador) es llamado “Usuario Directo”. Y quien sólo hace uso de una aplicación
informática se denomina “Usuario Indirecto”.
Generaciones de los computadores
Primera generación: tubos de vacío (1940-1956)
Los primeros sistemas informáticos usaban tubos de vacío para los circuitos y tambores
magnéticos para la memoria, estos equipos a menudo eran enormes, ocupando salas
enteras. Además eran muy costosos de operar además de utilizar una gran cantidad de
electricidad, los primeros ordenadores generaban mucho calor, que a menudo era la causa
de un mal funcionamiento.

Los ordenadores de primera generación se basaban en el lenguaje de máquina, el lenguaje


de programación de nivel más bajo, para realizar operaciones, y solo podían resolver un
problema a la vez. A los operadores les tomaría días o incluso semanas establecer un nuevo
problema. La entrada de los datos se basó en tarjetas perforadas y cinta de papel, y la salida
se mostró en las impresiones.

UNIVAC y ENIAC son ejemplos de dispositivos informáticos de primera generación. El


UNIVAC fue el primer ordenador comercial entregado a un cliente comercial, la Oficina
del Censo de los Estados Unidos en 1951.

Segunda generación: transistores (1956-1963)


El mundo vería que los transistores reemplazan los tubos de vacío en la segunda
generación de ordenadores. El transistor fue inventado en Bell Labs en 1947, pero no se vio
un uso generalizado hasta finales de la década de 1950. El transistor era muy superior al
tubo de vacío, lo que permitía que los ordenadores se volvieran más pequeños, más rápidos,
más baratos, más eficientes energéticamente y más confiables que sus antecesores de
primera generación. Aunque el transistor aún generaba una gran cantidad de calor, fue una
gran mejora con respecto al tubo de vacío. Los ordenadores de segunda generación aún
dependían de tarjetas perforadas para la entrada y copias impresas para la salida.

Estos equipos pasaron del lenguaje de máquinas binarias crípticas a lenguajes simbólicos o
de ensamblaje, lo que permitió a los programadores especificar instrucciones en palabras.
Los lenguajes de programación de alto nivel también se estaban desarrollando en este
momento, como las primeras versiones de COBOL y FORTRAN. Estos fueron también los
primeros ordenadores que almacenaron sus instrucciones en su memoria, que pasaron de un
tambor magnético a una tecnología de núcleo magnético. Los primeros ordenadores de esta
generación fueron desarrollados para la industria de la energía atómica.

Tercera Generación: Circuitos Integrados (1964-1971)


El desarrollo del circuito integrado fue el sello distintivo de la tercera generación de
ordenadores. Los transistores fueron miniaturizados y colocados en chips de silicio,
llamados semiconductores, que aumentaron drásticamente la velocidad y la eficiencia.

En lugar de tarjetas perforadas e impresiones, los usuarios interactuaron a través de teclados


y monitores, e interactuaron con un sistema operativo, lo que permitió que el dispositivo
ejecutara muchas aplicaciones diferentes a la vez con un programa central que monitoreaba
la memoria. Por primera vez se hicieron accesibles para una audiencia masiva, porque eran
más pequeños y más baratos que sus predecesoras.

Cuarta generación: microprocesadores (1971-presente)


El microprocesador trajo la cuarta generación de ordenadores, ya que miles de circuitos
integrados se construyeron en un solo chip de silicio. Lo que en la primera generación
llenaba una habitación entera, ahora cabía en la palma de la mano. El chip Intel 4004,
desarrollado en 1971, ubicó todos los componentes, desde la unidad de procesamiento
central y la memoria hasta los controles de entrada / salida, en un solo chip.

En 1981, IBM presentó su primer ordenador para el usuario doméstico, y en 1984, Apple
presentó el Macintosh. A medida que se volvieron más poderosos, pudieron vincularse
entre sí para formar redes, lo que finalmente condujo al desarrollo de Internet. Los
ordenadores de cuarta generación también vieron el desarrollo de GUI, el ratón y
dispositivos de mano.
Quinta generación: inteligencia artificial (presente y más allá)
Los dispositivos informáticos de quinta generación, basados en inteligencia artificial, aún
están en desarrollo, aunque hay algunas aplicaciones, como el reconocimiento de voz, que
se están utilizando en la actualidad. El uso de procesamiento paralelo y superconductores
está ayudando a hacer realidad la inteligencia artificial. La computación cuántica y la
nanotecnología molecular cambiarán radicalmente la cara de las computadoras en los años
venideros. El objetivo de la computación de quinta generación es desarrollar dispositivos
que respondan al aporte del lenguaje natural y que sean capaces de aprender y
autoorganizarse.

Ana Jhendry Solís Valdés


BA-18-30121

También podría gustarte