Ejercicio 1
Ejercicio 1
Ejercicio 1
INFORMACIÓN E INFORMÁTICA
Información
Como información denominamos al conjunto de datos, ya procesados y ordenados para su
comprensión, que aportan nuevos conocimientos a un individuo o sistema sobre un asunto,
materia, fenómeno o ente determinado. La palabra, como tal, proviene del latín informatĭo,
informatiōnis, que significa ‘acción y efecto de informar’.
Por otra parte, algunas de las características fundamentales de la información es que esta
debe tener cierto grado de utilidad, pues, con base en ella, el individuo o sistema modificará
las sucesivas interacciones que realice con su entorno. Asimismo, la información deberá
poseer vigencia o actualidad, pues de nada sirve informarse sobre el estado del tiempo del
día anterior para decidir si llevar paraguas o no. Y, finalmente, la información deberá ser
confiable, pues en la medida en que lo sea se dispondrán una serie de acciones para
confirmarla.
Concepto de informativa
La informática, también llamada computación, es la rama de la ciencia que se encarga de
estudiar la administración de métodos, técnicas y procesos con el fin de almacenar,
procesar y transmitir información y datos en formato digital.
Es por lo que se hace distinción entre este término y las ciencias de la computación, puesto
que el segundo engloba la parte más teórica mientras que informática se refiere a la
aplicabilidad de esta anterior en datos usando dispositivos electrónicos. De hecho, se
definen cinco subdisciplinas del campo de la informática: ciencias de la computación,
ingeniería informática, sistemas de información, tecnología de la información e ingeniería
de software.
Antecedentes históricos
La disciplina de la informática es anterior a la creación de las computadoras. Ya en la
antigüedad se conocían métodos para realizar cálculos matemáticos, por ejemplo el
algoritmo de Euclides. En el siglo XVII comenzaron a inventarse máquinas calculadoras.
En el siglo XIX se desarrollaron las primeras máquinas programables, es decir, que el
usuario podría modificar la secuencia de acciones a realizar a través de algoritmos
específicos.
Análogo Vs Digital
Sistema digital y sistema analógico hacen referencia a las dos categorías en la que se
clasifican los circuitos electrónicos. Sistema digital es cualquier sistema que pueda generar,
procesar, transmitir o almacenar señales mediante dígitos y que solo admite valores
discretos, es decir, que solo admite un conjunto limitado de números o valores. Sistema
analógico es cualquier sistema cuyas señales se representan con valores continuos, es decir,
que admite números o valores infinitos. La principal diferencia entre sistema digital y
sistema analógico radica en que el primero es mucho más preciso y la información se puede
almacenar de manera más eficiente y en mayor cantidad que en un sistema analógico.
Sistema digital Sistema analógico
En una cifra binaria, cada dígito tiene distinto valor dependiendo de la posición que ocupe.
El valor de cada posición es el de una potencia de base 2, elevada a un exponente igual a la
posición del dígito menos uno. Se puede observar que, tal y como ocurría con el sistema
decimal, la base de la potencia coincide con la cantidad de dígitos utilizados (2) para
representar los números.
De acuerdo con estas reglas, el número binario 1011 tiene un valor que se calcula así:
1*23 + 0*22 + 1*21 + 1*20, es decir:
8 + 0 + 2 + 1 = 11
y para expresar que ambas cifras describen la misma cantidad lo escribimos así:
10112 = 1110
En ese sentido, debemos recordar que para pasar un número del sistema decimal al binario
debemos dividirlo entre 2 hasta que el dividendo sea menor que 2, considerando los
residuos, como vemos a continuación:
37/2=18 residuo 1
18/2=9 residuo 0
9/2=4 residuo 1
4/2 =2 residuo 0
2/2=1 residuo 0
Último cociente: 1
Tomamos entonces los residuos y el último cociente en orden inverso y obtenemos que 37
en el sistema decimal equivaler a 100101 en el sistema binario.
Asimismo, para cambiar del sistema binario al decimal se tendría que multiplicar cada
dígito por 2 elevado por la respectiva potencial. Es decir, volviendo al ejemplo de arriba
sería:
(1*(2^5))+(0*(2^4))+(0*(2^3))+(1*(2^2))+(0*(2^1))+(1*(2^0))= 32+0+0+4+0+1= 37
En el siglo XV, Francis Bacon y Juan Caramuel, cada uno por su lado, esbozaron lo que
podría un ser un sistema numérico binario.
Luego, Gottfried Leibniz, en el siglo XVII, sentó las bases del sistema binario moderno.
Esto, en su artículo «Explication de l’Arithmétique Binaire». En dicho documento, hace
referencia a los matemáticos chinos y emplea el 0 y el 1.
Asimismo, en el siglo XIX, el matemático británico George Boole, desarrolló el Álgebra de
Boole, donde el sistema binario tuvo un papel fundamental. Esto, en el tema de circuitos
electrónicos.
Bit y Byte
Bit es la abreviación de Binary Digit (digito binario), la cual en términos técnicos es la
menor unidad de información de una computadora. Un bit tiene solamente un valor (que
puede ser 0 o 1). Varios bits combinados entre sí dan origen a otras unidades, como “byte”,
“mega”, “giga” y “tera”.
Sin embargo, la definición de bit fue empleada en 1948 por el ingeniero Claude Shannon.
Aquel año, Shannon elaboró el artículo "A Mathematical Theory of Communication" (Una
Teoría Matemática de la Comunicación) y usó la palabra para designar el dígito binario.
Bit: Es la menor unidad de información de la computadora, pudiendo asumir uno de los dos
valores 0 o 1, siendo que, si el nivel de qué energía es bajo es 0 y si el nivel de energía
fuese alto el valor es 1. Si se desea representar números mayores, se deberá combinar bits.
Que es un Byte
Un Byte es un conjunto de 8 bits, formando según una secuencia que representa un
carácter. Se puede hacer una correspondencia biunívoca entre cada número decimal (0 a 9),
las letras mayúsculas y minúsculas (A hasta Z), los símbolos matemáticos, la puntuación, y
demás símbolos, con un respectivo byte.
Pilares de la informática
Hardware
Corresponde a todas las partes tangibles de una computadora, como sus componentes
eléctricos, electrónicos y mecánicos; sus cables, gabinetes o cualquier otro elemento físico
involucrado.
Software
El Software incluye tanto los programas provistos por el fabricante como los creados por un
usuario. El software podría ser denominado como la parte inmaterial e “intangible”. El
software puede ser alterado para la realización de determinadas tareas, lo que no ocurre con
el hardware. Todos los componentes físicos de la computadora no tendrían una utilidad si
no existiera una parte lógica capaz de actuar y darles sentido; esa es pues la función del
software, ya que permite darle consistencia lógica a la parte material de la computadora.
En pocas palabras es un conjunto de programas que permiten el funcionamiento del
Hardware.
Software de aplicación
Es el compuesto por el conjunto de programas que ha sido diseñado para que la
computadora pueda desarrollar un trabajo. Pertenecen a este determinado grupo los
denominados paquetes de software, que consisten en un conjunto de programas que nos
permiten editar textos, guardar datos, sacar informes, sacar cálculos, comunicarnos con
otros usuarios y algunos trabajos típicos en el uso de las computadoras. Por ejemplo
procesadores de palabras, programas contables y financieros, programas de gestión, entre
otros.
Estos equipos pasaron del lenguaje de máquinas binarias crípticas a lenguajes simbólicos o
de ensamblaje, lo que permitió a los programadores especificar instrucciones en palabras.
Los lenguajes de programación de alto nivel también se estaban desarrollando en este
momento, como las primeras versiones de COBOL y FORTRAN. Estos fueron también los
primeros ordenadores que almacenaron sus instrucciones en su memoria, que pasaron de un
tambor magnético a una tecnología de núcleo magnético. Los primeros ordenadores de esta
generación fueron desarrollados para la industria de la energía atómica.
En 1981, IBM presentó su primer ordenador para el usuario doméstico, y en 1984, Apple
presentó el Macintosh. A medida que se volvieron más poderosos, pudieron vincularse
entre sí para formar redes, lo que finalmente condujo al desarrollo de Internet. Los
ordenadores de cuarta generación también vieron el desarrollo de GUI, el ratón y
dispositivos de mano.
Quinta generación: inteligencia artificial (presente y más allá)
Los dispositivos informáticos de quinta generación, basados en inteligencia artificial, aún
están en desarrollo, aunque hay algunas aplicaciones, como el reconocimiento de voz, que
se están utilizando en la actualidad. El uso de procesamiento paralelo y superconductores
está ayudando a hacer realidad la inteligencia artificial. La computación cuántica y la
nanotecnología molecular cambiarán radicalmente la cara de las computadoras en los años
venideros. El objetivo de la computación de quinta generación es desarrollar dispositivos
que respondan al aporte del lenguaje natural y que sean capaces de aprender y
autoorganizarse.