Que Es Computación
Que Es Computación
Que Es Computación
Qué es Computación:
Computación en la nube
Computación ubicua
La computación ubicua es un concepto de tecnología futurista, desarrollado
inicialmente por Mark Weiser, que pretende la integración de los sistemas
informáticos en todas las facetas de la vida humana de una manera tan natural,
bajo mecanismos de interacción tan intuitivos, que pueda decirse que forman parte
del entorno de las personas de una forma prácticamente invisible, por ello es
también conocida como inteligencia ambiental. Como la palabra lo indica, la
computación ubicua está en todos los aspectos de la vida cotidiana. Situaciones
como ir de compras, preparar café, obtener una dirección o información del tráfico,
estarían todas integradas por dispositivos computacionales interconectados con el
objetivo de facilitar las tareas cotidianas a las personas, creando una revolución en
nuestro modo de vida.
Computación cuántica
Computación gráfica
Computación distribuida
La computación distribuida es un concepto que se refiere al empleo de una amplia
red de computadoras interconectadas para la realización de tareas determinadas.
En este sentido, este sistema, también conocido como informática en malla,
aprovecha los recursos disponibles en un gran número de computadores
personales y los pone a trabajar de manera coordinada y conjunta para resolver
problemas informáticos de gran magnitud, como si se tratara de una
supercomputadora.
NTICX
Sin embargo, las computadoras capaces de realizar múltiples procesos (o sea, que
no se limitaban a los cálculos de tipo matemático) comenzaron a surgir en la década
del ’40. El uso masivo y doméstico de estas máquinas llegaría recién en los ’80, con
la producción de las computadoras personales o PC. El fin del siglo XX, con el auge
de Internet, representó un nuevo impulso para todo lo relacionado con las ciencias
de la computación.
En cuanto a la teoría de la computación, hay que decir que está considerada como
una ciencia centrada en el estudio y la definición formal de los cómputos. Esta
disciplina define al cómputo como el producto de una solución o de un resultado, en
especial en el sentido matemático/aritmético del concepto, utilizando un proceso o
algoritmo.
Definición principal
Evolución de la computación
El término “informática” debe su creación al alemán Karl Steinbuch, en 1957, al
añadir esta palabra a su publicación denominada “Informática: procesamiento
automático de información”.
Sistemas computacionales
Los sistemas informáticos permiten el procesamiento automático de la información,
así como su tratamiento, almacenaje y elaboración de una respuesta. Por lo tanto,
todos deben ser capaces de generar una entrada, es decir, captar la información
entrante; realizar un proceso en conjunto de la información entrante con la ya
almacenada; y, generar una salida dando una respuesta adecuada a esa
información entrante. Estas son las tres tareas más básicas que todo sistema
computacional debe cumplir.
Teoría de la computación
Existen muchos otros tipos de autómatas como las máquinas de acceso aleatorio,
autómatas celulares, máquinas ábaco y las máquinas de estado abstracto; sin
embargo en todos los casos se ha mostrado que estos modelos no son más
generales que la máquina de Turing, pues la máquina de Turing tiene la capacidad
de simular cada uno de estos autómatas. Esto da lugar a que se piense en la
máquina de Turing como el modelo universal de computadora.
Teoría de la computabilidad
Los computables son aquellos para los cuales sí existe un algoritmo que siempre
los resuelve cuando hay una solución y además es capaz de distinguir los casos
que no la tienen. También se les conoce como decidibles, resolubles o recursivos.
Los semicomputables son aquellos para los cuales hay un algoritmo que es capaz
encontrar una solución si es que existe, pero ningún algoritmo que determine
cuando la solución no existe (en cuyo caso el algoritmo para encontrar la solución
entraría a un bucle infinito). El ejemplo clásico por excelencia es el problema de la
parada. A estos problemas también se les conoce como listables, recursivamente
enumerables o reconocibles, porque si se enlistan todos los casos posibles del
problema, es posible reconocer a aquellos que sí tienen solución.
Los incomputables son aquellos para los cuales no hay ningún algoritmo que los
pueda resolver, no importando que tengan o no solución. El ejemplo clásico por
excelencia es el problema de la implicación lógica, que consiste en determinar
cuándo una proposición lógica es un teorema; para este problema no hay ningún
algoritmo que en todos los casos pueda distinguir si una proposición o su negación
es un teorema.
Hay una versión más general de esta clasificación, donde los problemas
incomputables se subdividen a su vez en problemas más difíciles que otros. La
herramienta principal para lograr estas clasificaciones es el concepto de
reducibilidad: Un problema A {\displaystyle A} A se reduce al problema B
{\displaystyle B} B si bajo la suposición de que se sabe resolver el problema B
{\displaystyle B} B es posible resolver al problema A {\displaystyle A} A; esto se
denota por A ≤ t B {\displaystyle A\leq _{t}B} {\displaystyle A\leq _{t}B}, e
informalmente significa que el problema A {\displaystyle A} A no es más difícil de
resolver que el problema B {\displaystyle B} B. Por ejemplo, bajo la suposición de
que una persona sabe sumar, es muy fácil enseñarle a multiplicar haciendo sumas
repetidas, de manera que multiplicar se reduce a sumar.
Aun cuando un problema sea computable, puede que no sea posible resolverlo en
la práctica si se requiere mucha memoria o tiempo de ejecución. La teoría de la
complejidad computacional estudia las necesidades de memoria, tiempo y otros
recursos computacionales para resolver problemas; de esta manera es posible
explicar por qué unos problemas son más difíciles de resolver que otros. Uno de los
mayores logros de esta rama es la clasificación de problemas, similar a la tabla
periódica, de acuerdo a su dificultad. En esta clasificación los problemas se separan
por clases de complejidad.
Esta teoría tiene aplicación en casi todas las áreas de conocimiento donde se desee
resolver un problema computacionalmente, porque los investigadores no solo
desean utilizar un método para resolver un problema, sino utilizar el más rápido. La
teoría de la complejidad computacional también tiene aplicaciones en áreas como
la criptografía, donde se espera que descifrar un código secreto sea un problema
muy difícil a menos que se tenga la contraseña, en cuyo caso el problema se vuelve
fácil.
Otras subramas
La Teoría del aprendizaje computacional busca algoritmos que hagan que las
computadoras modifiquen sus comportamientos de manera autónoma con base en
datos empíricos, y concretamente en ejemplos y contraejemplos. A este tipo de
aprendizaje se le llama aprendizaje supervisado. De forma análoga a la teoría de la
complejidad computacional, en esta teoría las funciones se clasifican por su grado
de dificultad de ser aprendidas.