Redes 20

Descargar como txt, pdf o txt
Descargar como txt, pdf o txt
Está en la página 1de 69

En 1957, Karl Steinbuch añadió la palabra alemana Informatik en la publicación de

un documento denominado Informatik: Automatische Informationsverarbeitung


(Informática: procesamiento automático de información).10 El soviético Alexander
Ivanovich Mikhailov fue el primero en utilizar Informatik con el significado de
«estudio, organización y diseminación de la información científica», que sigue
siendo su significado en dicha lengua.10 En inglés, la palabra informatics fue
acuñada independiente y casi simultáneamente por Walter F. Bauer, en 1962, cuando
Bauer cofundó la empresa Informatics General, Inc.10

Toma una encuesta corta y ayúdanos a mejorar Wikipedia

Visita la encuestaNo, gracias


Datos de la encuesta manejados por una tercera parte. Privacidad.
Orígenes de la informática
Artículo principal: Anexo:Historia de la computación
La disciplina de la informática es anterior a la creación de las computadoras. Ya
en la antigüedad se conocían métodos para realizar cálculos matemáticos, por
ejemplo el algoritmo de Euclides. En el siglo xvii comenzaron a inventarse máquinas
calculadoras. La herramienta más antigua conocida para su uso en computación es el
ábaco, y se cree que fue inventado en Babilonia alrededor del 2400 a. C. Su diseño
original de uso fue por líneas dibujadas en arena con guijarros. Esta fue la
primera ayuda de cálculo conocida, precediendo a los métodos griegos por 2000 años.

En el siglo xix se desarrollaron las primeras máquinas programables, es decir, que


el usuario podría modificar la secuencia de acciones a realizar a través de
algoritmos específicos. La primera propuesta registrada para el uso de la
electrónica digital en la informática fue el artículo de 1931 "El uso de tiratrones
para el conteo automático de fenómenos físicos a alta velocidad" de C. E. Wynn-
Williams.11 El artículo de 1938 de Claude Shannon "Un análisis simbólico de los
circuitos de conmutación y relés" introdujo la idea de utilizar la electrónica para
las operaciones de álgebra booleana.

En los inicios del procesamiento automático de la información, con la informática


solo se facilitaban los trabajos repetitivos y monótonos del área administrativa.
La automatización de esos procesos trajo como consecuencia directa una disminución
de los costes y un incremento en la productividad. En la informática convergen los
fundamentos de las ciencias de la computación, la programación y también las
metodologías para el desarrollo de software, la arquitectura de las computadoras,
las redes de computadores, la inteligencia artificial y ciertas cuestiones
relacionadas con la electrónica. Se puede entender por informática a la unión
sinérgica de todo este conjunto de disciplinas. Esta disciplina se aplica a
numerosas y variadas áreas del conocimiento o la actividad humana, por ejemplo:
gestión de negocios, almacenamiento y consulta de información; monitorización y
control de procesos, industria, robótica, comunicaciones, control de transportes,
investigación, desarrollo de juegos, diseño computarizado,
aplicaciones/herramientas multimedia, medicina, biología, física, química,
meteorología, ingeniería, arte, etc. Puede tanto facilitar la toma de decisiones a
nivel gerencial (en una empresa) como permitir el control de procesos críticos.
Actualmente, es difícil concebir un área que no esté vinculada o requiera del apoyo
de la informática. Esta puede cubrir un enorme abanico de funciones, que van desde
las más simples cuestiones domésticas hasta los cálculos científicos más complejos.
Entre las funciones principales de la informática se enumeran las siguientes:

Creación de nuevas especificaciones de trabajo.


Desarrollo e implementación de sistemas informáticos.
Sistematización de procesos.
Optimización de los métodos y sistemas informáticos existentes.
Facilitar la automatización de datos y formatos.22
Sistemas de tratamiento de la información

Proceso: tratamiento de la información. Se realiza a través de programas y


aplicaciones diseñadas por programadores que indican de forma secuencial cómo
resolver un requerimiento.
Código ASCII es un método para la correspondencia de cadenas de bits permitiendo de
esta forma la comunicación entre dispositivos digitales así como su proceso y
almacenamiento, en la actualidad todos los sistemas informáticos utilizan el código
ASCII para representar textos, gráficos, audio e infinidad de información para el
control y manipulación de dispositivos digitales.
En un editor de texto presionando las teclas Alt + el número del código ASCII,
aparecerá el carácter correspondiente, solamente funciona en un teclado que tenga
las teclas numéricas.

Véase también
Historia de las ciencias de la computación
Anexo:Historia de la computación
Computadora
Ciencias de la computación
Teoría de la computación
Generaciones de computadoras
Primera generación de computadoras
Historia de las computadoras personales
Software
Mujeres en informática
Tecnología
Internet
Computadoras en la ciencia ficción
Internet en la ciencia ficción
Ver el portal sobre Informática Portal:Informática. Contenido relacionado con
Informática.
Referencias
«CIP user site». nces.ed.gov. Consultado el 22 de noviembre de 2019.
Real Academia Española. «Computación». Diccionario de la lengua española (23.ª
edición). Consultado el 13 de agosto de 2014.
«Definition of computer science | Dictionary.com». www.dictionary.com (en inglés).
Consultado el 3 de junio de 2022.
Denning, P.J.; Comer, D.E.; Gries, D.; Mulder, M.C.; Tucker, A.; Turner, A.J.;
Young, P.R. (1989-02). «Computing as a discipline». Computer 22 (2): 63-70. ISSN
0018-9162. doi:10.1109/2.19833. Consultado el 3 de junio de 2022.
«ADICRA: ¿De qué hablamos cuando hablamos de Informática?».
«Curricula Recommendations». Association for Computing Machinery. 2005. Consultado
el 30 de noviembre de 2012.
"Informática, información, y comunicación", en 'Documentación Social: Revista de
Estudios Sociales y de Tecnología Aplicada', n° 108, julio-septiembre 1999
(consultar texto en línea pp. 76-82)
Diego Dikygs, Tratamiento (Automático) de la Información, sitio digital 'Nociones
de Informática', 12 de abril de 2011.
Historia de la Computación, sitio digital 'Monografías'.
Patricio Villalva, ¿Qué es la Informática?, sitio digital 'Informática avanzada'.
Wynn-Williams, C. E. (2 de julio de 1931), «The Use of Thyratrons for High Speed
Automatic Counting of Physical Phenomena», Proceedings of the Royal Society A 132
(819): 295-310, Bibcode:1931RSPSA.132..295W, doi:10.1098/rspa.1931.0102.
Lee, Thomas H. (2003). The Design of CMOS Radio-Frequency Integrated Circuits.
Cambridge University Press. ISBN 9781139643771. Archivado desde el original el 9 de
diciembre de 2019. Consultado el 16 de septiembre de 2019.
Puers, Robert; Baldi, Livio; Voorde, Marcel Van de; Nooten, Sebastiaan E. van
(2017). Nanoelectronics: Materials, Devices, Applications, 2 Volumes. John Wiley &
Sons. p. 14. ISBN 9783527340538.
Lavington, Simon (1998), A History of Manchester Computers (2 edición), Swindon:
The British Computer Society, pp. 34-35.
Moskowitz, Sanford L. (2016). Advanced Materials Innovation: Managing Global
Technology in the 21st century. John Wiley & Sons. pp. 165-167. ISBN 9780470508923.
«1960 - Metal Oxide Semiconductor (MOS) Transistor Demonstrated». The Silicon
Engine (Computer History Museum).
Lojek, Bo (2007). History of Semiconductor Engineering. Springer Science &
Business Media. pp. 321–3. ISBN 9783540342588.
«Who Invented the Transistor?». Computer History Museum. 4 de diciembre de 2013.
Consultado el 20 de julio de 2019.
Hittinger, William C. (1973). «Metal-Oxide-Semiconductor Technology». Scientific
American 229 (2): 48-59. Bibcode:1973SciAm.229b..48H. ISSN 0036-8733. JSTOR
24923169. doi:10.1038/scientificamerican0873-48.

La informática,1 también llamada computación,2 es el área de la ciencia que se


encarga de estudiar la administración de métodos, técnicas y procesos con el fin de
almacenar, procesar y transmitir información y datos en formato digital. La
informática abarca desde disciplinas teóricas (como algoritmos, teoría de la
computación y teoría de la información) hasta disciplinas prácticas (incluido el
diseño y la implementación de hardware y software).3 La informática generalmente se
considera un área de investigación académica y distinta de la programación
informática.4

De esa manera, la informática se refiere al procesamiento automático de


información, dispositivos electrónicos, sistemas computacionales.

El término informática también es sinónimo de contar y calcular. En sus inicios, se


utilizaba para referirse a la acción realizada por máquinas mecánicas de cómputo y,
antes de eso, a calculadoras humanas.

Los sistemas informáticos deben contar con la capacidad de cumplir tres tareas
básicas: entrada (input, captación de la información), procesamiento y salida
(transmisión de los resultados).

No existe una definición consensuada sobre el término. Sin embargo, la Asociación


de Docentes de Informática y Computación de la República Argentina ha tomado una
posición, definiéndola de la siguiente manera: «La informática es la disciplina o
campo de estudio que abarca el conjunto de conocimientos, métodos y técnicas
referentes al tratamiento automático de la información, junto con sus teorías y
aplicaciones prácticas, con el fin de almacenar, procesar y transmitir datos e
información en formato digital utilizando sistemas computacionales. Los datos son
la materia prima para que, mediante su proceso, se obtenga como resultado
información. Para ello, la informática crea y/o emplea sistemas de procesamiento de
datos, que incluyen medios físicos (hardware) en interacción con medios lógicos
(software) y las personas que los programan y/o los usan (humanware)».5

Es por lo que se hace distinción entre este término y las ciencias de la


computación, puesto que el segundo engloba la parte más teórica mientras que
informática se refiere a la aplicabilidad de esta anterior en datos usando
dispositivos electrónicos. De hecho, se definen cinco subdisciplinas del campo de
la informática: ciencias de la computación, ingeniería informática, sistemas de
información, tecnología de la información e ingeniería de software.6

La informática es la forma científica de procesar la información. Este


procesamiento consiste en ordenar, seleccionar, ejecutar cálculos de forma que nos
permita extraer conclusiones de la información manipulada. Procesar información es
transformar datos primarios en información organizada, significativa y útil, que a
su vez está compuesta de datos. La informática, que se ha desarrollado rápidamente
a partir de la segunda mitad del siglo xx con la aparición de tecnologías como el
circuito integrado, el Internet y el teléfono móvil,7 es la rama de la tecnología
que estudia el tratamiento automático de la información.89

En 1957, Karl Steinbuch añadió la palabra alemana Informatik en la publicación de


un documento denominado Informatik: Automatische Informationsverarbeitung
(Informática: procesamiento automático de información).10 El soviético Alexander
Ivanovich Mikhailov fue el primero en utilizar Informatik con el significado de
«estudio, organización y diseminación de la información científica», que sigue
siendo su significado en dicha lengua.10 En inglés, la palabra informatics fue
acuñada independiente y casi simultáneamente por Walter F. Bauer, en 1962, cuando
Bauer cofundó la empresa Informatics General, Inc.10

Toma una encuesta corta y ayúdanos a mejorar Wikipedia

Visita la encuestaNo, gracias


Datos de la encuesta manejados por una tercera parte. Privacidad.
Orígenes de la informática
Artículo principal: Anexo:Historia de la computación
La disciplina de la informática es anterior a la creación de las computadoras. Ya
en la antigüedad se conocían métodos para realizar cálculos matemáticos, por
ejemplo el algoritmo de Euclides. En el siglo xvii comenzaron a inventarse máquinas
calculadoras. La herramienta más antigua conocida para su uso en computación es el
ábaco, y se cree que fue inventado en Babilonia alrededor del 2400 a. C. Su diseño
original de uso fue por líneas dibujadas en arena con guijarros. Esta fue la
primera ayuda de cálculo conocida, precediendo a los métodos griegos por 2000 años.

En el siglo xix se desarrollaron las primeras máquinas programables, es decir, que


el usuario podría modificar la secuencia de acciones a realizar a través de
algoritmos específicos. La primera propuesta registrada para el uso de la
electrónica digital en la informática fue el artículo de 1931 "El uso de tiratrones
para el conteo automático de fenómenos físicos a alta velocidad" de C. E. Wynn-
Williams.11 El artículo de 1938 de Claude Shannon "Un análisis simbólico de los
circuitos de conmutación y relés" introdujo la idea de utilizar la electrónica para
las operaciones de álgebra booleana.

Caja de ordenador con un procesador LGA775 de Intel, con la tarjeta madre, el


ventilador del procesador, la alimentación eléctrica, y la memoria.
El concepto de un transistor de efecto de campo fue propuesto por Julius Edgar
Lilienfeld en 1925. John Bardeen y Walter Brattain, mientras trabajaban con William
Shockley en Bell Labs, construyó el primer transistor en funcionamiento, el
transistor de contacto puntual, en 1947.1213 En 1953, la Universidad de Mánchester
construyó la primera ordenador transistorizado, llamada ordenador de
transistores.14 Sin embargo, los primeros transistores de unión eran dispositivos
relativamente voluminosos que eran difíciles de producir en masa, lo que los
limitaba a una serie de aplicaciones especializadas.15 El transistor de efecto de
campo de óxido de metal-silicio (MOSFET, o transistor MOS) fue inventado por
Mohamed Atalla y Dawon Kahng en Bell Labs en 1959.1617 Fue el primer transistor
verdaderamente compacto que podía ser miniaturizado y producido en masa para una
amplia gama de usos.15 El MOSFET hizo posible construir chiìs de circuitos
integrados de alta densidad,1819 dando lugar a lo que se conoce como la revolución
informática20 o revolución de la microcomputadora.21

En los inicios del procesamiento automático de la información, con la informática


solo se facilitaban los trabajos repetitivos y monótonos del área administrativa.
La automatización de esos procesos trajo como consecuencia directa una disminución
de los costes y un incremento en la productividad. En la informática convergen los
fundamentos de las ciencias de la computación, la programación y también las
metodologías para el desarrollo de software, la arquitectura de las computadoras,
las redes de computadores, la inteligencia artificial y ciertas cuestiones
relacionadas con la electrónica. Se puede entender por informática a la unión
sinérgica de todo este conjunto de disciplinas. Esta disciplina se aplica a
numerosas y variadas áreas del conocimiento o la actividad humana, por ejemplo:
gestión de negocios, almacenamiento y consulta de información; monitorización y
control de procesos, industria, robótica, comunicaciones, control de transportes,
investigación, desarrollo de juegos, diseño computarizado,
aplicaciones/herramientas multimedia, medicina, biología, física, química,
meteorología, ingeniería, arte, etc. Puede tanto facilitar la toma de decisiones a
nivel gerencial (en una empresa) como permitir el control de procesos críticos.
Actualmente, es difícil concebir un área que no esté vinculada o requiera del apoyo
de la informática. Esta puede cubrir un enorme abanico de funciones, que van desde
las más simples cuestiones domésticas hasta los cálculos científicos más complejos.
Entre las funciones principales de la informática se enumeran las siguientes:

Creación de nuevas especificaciones de trabajo.


Desarrollo e implementación de sistemas informáticos.
Sistematización de procesos.
Optimización de los métodos y sistemas informáticos existentes.
Facilitar la automatización de datos y formatos.22
Sistemas de tratamiento de la información
Los sistemas computacionales, generalmente implementados como dispositivos
electrónicos, permiten el procesamiento automático de la información. Conforme a
ello, los sistemas informáticos deben realizar las siguientes tres tareas básicas:

Entrada: captación de la información. Normalmente son datos y órdenes ingresadas


por los usuarios a través de cualquier dispositivo de entrada conectado a la
computadora.
Proceso: tratamiento de la información. Se realiza a través de programas y
aplicaciones diseñadas por programadores que indican de forma secuencial cómo
resolver un requerimiento.
Salida: transmisión de resultados. A través de los dispositivos de salida los
usuarios pueden visualizar los resultados que surgen del procesamiento de los
datos.
Sistema operativo es un conjunto de programas que permite interactuar al usuario
con la computadora.
Sistemas de mando y control, son sistemas basados en la mecánica y motricidad de
dispositivos que permiten al usuario localizar, dentro de la logística, los
elementos que se demandan. Están basados en la electricidad, o sea, no en el
control del flujo del electrón, sino en la continuidad o discontinuidad de una
corriente eléctrica, si es alterna o continua o si es inducida, contra inducida, en
fase o desfase (ver periférico de entrada).
Sistemas de archivo, son sistemas que permiten el almacenamiento a largo plazo de
información que no se demandará por un largo lapso. Estos sistemas usan los
conceptos de biblioteca para localizar la información demandada.
Código ASCII es un método para la correspondencia de cadenas de bits permitiendo de
esta forma la comunicación entre dispositivos digitales así como su proceso y
almacenamiento, en la actualidad todos los sistemas informáticos utilizan el código
ASCII para representar textos, gráficos, audio e infinidad de información para el
control y manipulación de dispositivos digitales.
En un editor de texto presionando las teclas Alt + el número del código ASCII,
aparecerá el carácter correspondiente, solamente funciona en un teclado que tenga
las teclas numéricas.

Véase también
Historia de las ciencias de la computación
Anexo:Historia de la computación
Computadora
Ciencias de la computación
Teoría de la computación
Generaciones de computadoras
Primera generación de computadoras
Historia de las computadoras personales
Software
Mujeres en informática
Tecnología
Internet
Computadoras en la ciencia ficción
Internet en la ciencia ficción
Ver el portal sobre Informática Portal:Informática. Contenido relacionado con
Informática.
Referencias
«CIP user site». nces.ed.gov. Consultado el 22 de noviembre de 2019.
Real Academia Española. «Computación». Diccionario de la lengua española (23.ª
edición). Consultado el 13 de agosto de 2014.
«Definition of computer science | Dictionary.com». www.dictionary.com (en inglés).
Consultado el 3 de junio de 2022.
Denning, P.J.; Comer, D.E.; Gries, D.; Mulder, M.C.; Tucker, A.; Turner, A.J.;
Young, P.R. (1989-02). «Computing as a discipline». Computer 22 (2): 63-70. ISSN
0018-9162. doi:10.1109/2.19833. Consultado el 3 de junio de 2022.
«ADICRA: ¿De qué hablamos cuando hablamos de Informática?».
«Curricula Recommendations». Association for Computing Machinery. 2005. Consultado
el 30 de noviembre de 2012.
"Informática, información, y comunicación", en 'Documentación Social: Revista de
Estudios Sociales y de Tecnología Aplicada', n° 108, julio-septiembre 1999
(consultar texto en línea pp. 76-82)
Diego Dikygs, Tratamiento (Automático) de la Información, sitio digital 'Nociones
de Informática', 12 de abril de 2011.
Historia de la Computación, sitio digital 'Monografías'.
Patricio Villalva, ¿Qué es la Informática?, sitio digital 'Informática avanzada'.
Wynn-Williams, C. E. (2 de julio de 1931), «The Use of Thyratrons for High Speed
Automatic Counting of Physical Phenomena», Proceedings of the Royal Society A 132
(819): 295-310, Bibcode:1931RSPSA.132..295W, doi:10.1098/rspa.1931.0102.
Lee, Thomas H. (2003). The Design of CMOS Radio-Frequency Integrated Circuits.
Cambridge University Press. ISBN 9781139643771. Archivado desde el original el 9 de
diciembre de 2019. Consultado el 16 de septiembre de 2019.
Puers, Robert; Baldi, Livio; Voorde, Marcel Van de; Nooten, Sebastiaan E. van
(2017). Nanoelectronics: Materials, Devices, Applications, 2 Volumes. John Wiley &
Sons. p. 14. ISBN 9783527340538.
Lavington, Simon (1998), A History of Manchester Computers (2 edición), Swindon:
The British Computer Society, pp. 34-35.
Moskowitz, Sanford L. (2016). Advanced Materials Innovation: Managing Global
Technology in the 21st century. John Wiley & Sons. pp. 165-167. ISBN 9780470508923.
«1960 - Metal Oxide Semiconductor (MOS) Transistor Demonstrated». The Silicon
Engine (Computer History Museum).
Lojek, Bo (2007). History of Semiconductor Engineering. Springer Science &
Business Media. pp. 321–3. ISBN 9783540342588.
«Who Invented the Transistor?». Computer History Museum. 4 de diciembre de 2013.
Consultado el 20 de julio de 2019.
Hittinger, William C. (1973). «Metal-Oxide-Semiconductor Technology». Scientific
American 229 (2): 48-59. Bibcode:1973SciAm.229b..48H. ISSN 0036-8733. JSTOR
24923169. doi:10.1038/scientificamerican0873-48.
Fossum, Jerry G.; Trivedi, Vishal P. (2013). Fundamentals of Ultra-Thin-Body
MOSFETs and FinFETs. Cambridge University Press. p. vii. ISBN 9781107434493.
Malmstadt, Howard V.; Enke, Christie G.; Crouch, Stanley R. (1994). Making the
Right Connections: Microcomputers and Electronic Instrumentation. American Chemical
Society. p. 389. ISBN 9780841228610. «The relative simplicity and low power
requirements of MOSFETs have fostered today's microcomputer revolution. »
Salamanca Al Día (9 de enero de 2020). «Informática, un sector con salidas
únicas». Archivado desde el original el 9 de marzo de 2018. Consultado el 6 de
marzo de

La informática,1 también llamada computación,2 es el área de la ciencia que se


encarga de estudiar la administración de métodos, técnicas y procesos con el fin de
almacenar, procesar y transmitir información y datos en formato digital. La
informática abarca desde disciplinas teóricas (como algoritmos, teoría de la
computación y teoría de la información) hasta disciplinas prácticas (incluido el
diseño y la implementación de hardware y software).3 La informática generalmente se
considera un área de investigación académica y distinta de la programación
informática.4

De esa manera, la informática se refiere al procesamiento automático de


información, dispositivos electrónicos, sistemas computacionales.

El término informática también es sinónimo de contar y calcular. En sus inicios, se


utilizaba para referirse a la acción realizada por máquinas mecánicas de cómputo y,
antes de eso, a calculadoras humanas.

Los sistemas informáticos deben contar con la capacidad de cumplir tres tareas
básicas: entrada (input, captación de la información), procesamiento y salida
(transmisión de los resultados).

No existe una definición consensuada sobre el término. Sin embargo, la Asociación


de Docentes de Informática y Computación de la República Argentina ha tomado una
posición, definiéndola de la siguiente manera: «La informática es la disciplina o
campo de estudio que abarca el conjunto de conocimientos, métodos y técnicas
referentes al tratamiento automático de la información, junto con sus teorías y
aplicaciones prácticas, con el fin de almacenar, procesar y transmitir datos e
información en formato digital utilizando sistemas computacionales. Los datos son
la materia prima para que, mediante su proceso, se obtenga como resultado
información. Para ello, la informática crea y/o emplea sistemas de procesamiento de
datos, que incluyen medios físicos (hardware) en interacción con medios lógicos
(software) y las personas que los programan y/o los usan (humanware)».5

Es por lo que se hace distinción entre este término y las ciencias de la


computación, puesto que el segundo engloba la parte más teórica mientras que
informática se refiere a la aplicabilidad de esta anterior en datos usando
dispositivos electrónicos. De hecho, se definen cinco subdisciplinas del campo de
la informática: ciencias de la computación, ingeniería informática, sistemas de
información, tecnología de la información e ingeniería de software.6

La informática es la forma científica de procesar la información. Este


procesamiento consiste en ordenar, seleccionar, ejecutar cálculos de forma que nos
permita extraer conclusiones de la información manipulada. Procesar información es
transformar datos primarios en información organizada, significativa y útil, que a
su vez está compuesta de datos. La informática, que se ha desarrollado rápidamente
a partir de la segunda mitad del siglo xx con la aparición de tecnologías como el
circuito integrado, el Internet y el teléfono móvil,7 es la rama de la tecnología
que estudia el tratamiento automático de la información.89

En 1957, Karl Steinbuch añadió la palabra alemana Informatik en la publicación de


un documento denominado Informatik: Automatische Informationsverarbeitung
(Informática: procesamiento automático de información).10 El soviético Alexander
Ivanovich Mikhailov fue el primero en utilizar Informatik con el significado de
«estudio, organización y diseminación de la información científica», que sigue
siendo su significado en dicha lengua.10 En inglés, la palabra informatics fue
acuñada independiente y casi simultáneamente por Walter F. Bauer, en 1962, cuando
Bauer cofundó la empresa Informatics General, Inc.10

Toma una encuesta corta y ayúdanos a mejorar Wikipedia

Visita la encuestaNo, gracias


Datos de la encuesta manejados por una tercera parte. Privacidad.
Orígenes de la informática
Artículo principal: Anexo:Historia de la computación
La disciplina de la informática es anterior a la creación de las computadoras. Ya
en la antigüedad se conocían métodos para realizar cálculos matemáticos, por
ejemplo el algoritmo de Euclides. En el siglo xvii comenzaron a inventarse máquinas
calculadoras. La herramienta más antigua conocida para su uso en computación es el
ábaco, y se cree que fue inventado en Babilonia alrededor del 2400 a. C. Su diseño
original de uso fue por líneas dibujadas en arena con guijarros. Esta fue la
primera ayuda de cálculo conocida, precediendo a los métodos griegos por 2000 años.

En el siglo xix se desarrollaron las primeras máquinas programables, es decir, que


el usuario podría modificar la secuencia de acciones a realizar a través de
algoritmos específicos. La primera propuesta registrada para el uso de la
electrónica digital en la informática fue el artículo de 1931 "El uso de tiratrones
para el conteo automático de fenómenos físicos a alta velocidad" de C. E. Wynn-
Williams.11 El artículo de 1938 de Claude Shannon "Un análisis simbólico de los
circuitos de conmutación y relés" introdujo la idea de utilizar la electrónica para
las operaciones de álgebra booleana.

Caja de ordenador con un procesador LGA775 de Intel, con la tarjeta madre, el


ventilador del procesador, la alimentación eléctrica, y la memoria.
El concepto de un transistor de efecto de campo fue propuesto por Julius Edgar
Lilienfeld en 1925. John Bardeen y Walter Brattain, mientras trabajaban con William
Shockley en Bell Labs, construyó el primer transistor en funcionamiento, el
transistor de contacto puntual, en 1947.1213 En 1953, la Universidad de Mánchester
construyó la primera ordenador transistorizado, llamada ordenador de
transistores.14 Sin embargo, los primeros transistores de unión eran dispositivos
relativamente voluminosos que eran difíciles de producir en masa, lo que los
limitaba a una serie de aplicaciones especializadas.15 El transistor de efecto de
campo de óxido de metal-silicio (MOSFET, o transistor MOS) fue inventado por
Mohamed Atalla y Dawon Kahng en Bell Labs en 1959.1617 Fue el primer transistor
verdaderamente compacto que podía ser miniaturizado y producido en masa para una
amplia gama de usos.15 El MOSFET hizo posible construir chiìs de circuitos
integrados de alta densidad,1819 dando lugar a lo que se conoce como la revolución
informática20 o revolución de la microcomputadora.21

En los inicios del procesamiento automático de la información, con la informática


solo se facilitaban los trabajos repetitivos y monótonos del área administrativa.
La automatización de esos procesos trajo como consecuencia directa una disminución
de los costes y un incremento en la productividad. En la informática convergen los
fundamentos de las ciencias de la computación, la programación y también las
metodologías para el desarrollo de software, la arquitectura de las computadoras,
las redes de computadores, la inteligencia artificial y ciertas cuestiones
relacionadas con la electrónica. Se puede entender por informática a la unión
sinérgica de todo este conjunto de disciplinas. Esta disciplina se aplica a
numerosas y variadas áreas del conocimiento o la actividad humana, por ejemplo:
gestión de negocios, almacenamiento y consulta de información; monitorización y
control de procesos, industria, robótica, comunicaciones, control de transportes,
investigación, desarrollo de juegos, diseño computarizado,
aplicaciones/herramientas multimedia, medicina, biología, física, química,
meteorología, ingeniería, arte, etc. Puede tanto facilitar la toma de decisiones a
nivel gerencial (en una empresa) como permitir el control de procesos críticos.
Actualmente, es difícil concebir un área que no esté vinculada o requiera del apoyo
de la informática. Esta puede cubrir un enorme abanico de funciones, que van desde
las más simples cuestiones domésticas hasta los cálculos científicos más complejos.
Entre las funciones principales de la informática se enumeran las siguientes:

Creación de nuevas especificaciones de trabajo.


Desarrollo e implementación de sistemas informáticos.
Sistematización de procesos.
Optimización de los métodos y sistemas informáticos existentes.
Facilitar la automatización de datos y formatos.22
Sistemas de tratamiento de la información
Los sistemas computacionales, generalmente implementados como dispositivos
electrónicos, permiten el procesamiento automático de la información. Conforme a
ello, los sistemas informáticos deben realizar las siguientes tres tareas básicas:

Entrada: captación de la información. Normalmente son datos y órdenes ingresadas


por los usuarios a través de cualquier dispositivo de entrada conectado a la
computadora.
Proceso: tratamiento de la información. Se realiza a través de programas y
aplicaciones diseñadas por programadores que indican de forma secuencial cómo
resolver un requerimiento.
Salida: transmisión de resultados. A través de los dispositivos de salida los
usuarios pueden visualizar los resultados que surgen del procesamiento de los
datos.
Sistema operativo es un conjunto de programas que permite interactuar al usuario
con la computadora.
Sistemas de mando y control, son sistemas basados en la mecánica y motricidad de
dispositivos que permiten al usuario localizar, dentro de la logística, los
elementos que se demandan. Están basados en la electricidad, o sea, no en el
control del flujo del electrón, sino en la continuidad o discontinuidad de una
corriente eléctrica, si es alterna o continua o si es inducida, contra inducida, en
fase o desfase (ver periférico de entrada).
Sistemas de archivo, son sistemas que permiten el almacenamiento a largo plazo de
información que no se demandará por un largo lapso. Estos sistemas usan los
conceptos de biblioteca para localizar la información demandada.
Código ASCII es un método para la correspondencia de cadenas de bits permitiendo de
esta forma la comunicación entre dispositivos digitales así como su proceso y
almacenamiento, en la actualidad todos los sistemas informáticos utilizan el código
ASCII para representar textos, gráficos, audio e infinidad de información para el
control y manipulación de dispositivos digitales.
En un editor de texto presionando las teclas Alt + el número del código ASCII,
aparecerá el carácter correspondiente, solamente funciona en un teclado que tenga
las teclas numéricas.

Véase también
Historia de las ciencias de la computación
Anexo:Historia de la computación
Computadora
Ciencias de la computación
Teoría de la computación
Generaciones de computadoras
Primera generación de computadoras
Historia de las computadoras personales
Software
Mujeres en informática
Tecnología
Internet
Computadoras en la ciencia ficción
Internet en la ciencia ficción
Ver el portal sobre Informática Portal:Informática. Contenido relacionado con
Informática.
Referencias
«CIP user site». nces.ed.gov. Consultado el 22 de noviembre de 2019.
Real Academia Española. «Computación». Diccionario de la lengua española (23.ª
edición). Consultado el 13 de agosto de 2014.
«Definition of computer science | Dictionary.com». www.dictionary.com (en inglés).
Consultado el 3 de junio de 2022.
Denning, P.J.; Comer, D.E.; Gries, D.; Mulder, M.C.; Tucker, A.; Turner, A.J.;
Young, P.R. (1989-02). «Computing as a discipline». Computer 22 (2): 63-70. ISSN
0018-9162. doi:10.1109/2.19833. Consultado el 3 de junio de 2022.
«ADICRA: ¿De qué hablamos cuando hablamos de Informática?».
«Curricula Recommendations». Association for Computing Machinery. 2005. Consultado
el 30 de noviembre de 2012.
"Informática, información, y comunicación", en 'Documentación Social: Revista de
Estudios Sociales y de Tecnología Aplicada', n° 108, julio-septiembre 1999
(consultar texto en línea pp. 76-82)
Diego Dikygs, Tratamiento (Automático) de la Información, sitio digital 'Nociones
de Informática', 12 de abril de 2011.
Historia de la Computación, sitio digital 'Monografías'.
Patricio Villalva, ¿Qué es la Informática?, sitio digital 'Informática avanzada'.
Wynn-Williams, C. E. (2 de julio de 1931), «The Use of Thyratrons for High Speed
Automatic Counting of Physical Phenomena», Proceedings of the Royal Society A 132
(819): 295-310, Bibcode:1931RSPSA.132..295W, doi:10.1098/rspa.1931.0102.
Lee, Thomas H. (2003). The Design of CMOS Radio-Frequency Integrated Circuits.
Cambridge University Press. ISBN 9781139643771. Archivado desde el original el 9 de
diciembre de 2019. Consultado el 16 de septiembre de 2019.
Puers, Robert; Baldi, Livio; Voorde, Marcel Van de; Nooten, Sebastiaan E. van
(2017). Nanoelectronics: Materials, Devices, Applications, 2 Volumes. John Wiley &
Sons. p. 14. ISBN 9783527340538.
Lavington, Simon (1998), A History of Manchester Computers (2 edición), Swindon:
The British Computer Society, pp. 34-35.
Moskowitz, Sanford L. (2016). Advanced Materials Innovation: Managing Global
Technology in the 21st century. John Wiley & Sons. pp. 165-167. ISBN 9780470508923.
«1960 - Metal Oxide Semiconductor (MOS) Transistor Demonstrated». The Silicon
Engine (Computer History Museum).
Lojek, Bo (2007). History of Semiconductor Engineering. Springer Science &
Business Media. pp. 321–3. ISBN 9783540342588.
«Who Invented the Transistor?». Computer History Museum. 4 de diciembre de 2013.
Consultado el 20 de julio de 2019.
Hittinger, William C. (1973). «Metal-Oxide-Semiconductor Technology». Scientific
American 229 (2): 48-59. Bibcode:1973SciAm.229b..48H. ISSN 0036-8733. JSTOR
24923169. doi:10.1038/scientificamerican0873-48.
Fossum, Jerry G.; Trivedi, Vishal P. (2013). Fundamentals of Ultra-Thin-Body
MOSFETs and FinFETs. Cambridge University Press. p. vii. ISBN 9781107434493.
Malmstadt, Howard V.; Enke, Christie G.; Crouch, Stanley R. (1994). Making the
Right Connections: Microcomputers and Electronic Instrumentation. American Chemical
Society. p. 389. ISBN 9780841228610. «The relative simplicity and low power
requirements of MOSFETs have fostered today's microcomputer revolution. »
Salamanca Al Día (9 de enero de 2020). «Informática, un sector con salidas
únicas». Archivado desde el original el 9 de marzo de 2018. Consultado el 6 de
marzo de
Fossum, Jerry G.; Trivedi, Vishal P. (2013). Fundamentals of Ultra-Thin-Body
MOSFETs and FinFETs. Cambridge University Press. p. vii. ISBN 9781107434493.
Malmstadt, Howard V.; Enke, Christie G.; Crouch, Stanley R. (1994). Making the
Right Connections: Microcomputers and Electronic Instrumentation. American Chemical
Society. p. 389. ISBN 9780841228610. «The relative simplicity and low power
requirements of MOSFETs have fostered today's microcomputer revolution. »

La informática,1 también llamada computación,2 es el área de la ciencia que se


encarga de estudiar la administración de métodos, técnicas y procesos con el fin de
almacenar, procesar y transmitir información y datos en formato digital. La
informática abarca desde disciplinas teóricas (como algoritmos, teoría de la
computación y teoría de la información) hasta disciplinas prácticas (incluido el
diseño y la implementación de hardware y software).3 La informática generalmente se
considera un área de investigación académica y distinta de la programación
informática.4

De esa manera, la informática se refiere al procesamiento automático de


información, dispositivos electrónicos, sistemas computacionales.

El término informática también es sinónimo de contar y calcular. En sus inicios, se


utilizaba para referirse a la acción realizada por máquinas mecánicas de cómputo y,
antes de eso, a calculadoras humanas.

Los sistemas informáticos deben contar con la capacidad de cumplir tres tareas
básicas: entrada (input, captación de la información), procesamiento y salida
(transmisión de los resultados).

No existe una definición consensuada sobre el término. Sin embargo, la Asociación


de Docentes de Informática y Computación de la República Argentina ha tomado una
posición, definiéndola de la siguiente manera: «La informática es la disciplina o
campo de estudio que abarca el conjunto de conocimientos, métodos y técnicas
referentes al tratamiento automático de la información, junto con sus teorías y
aplicaciones prácticas, con el fin de almacenar, procesar y transmitir datos e
información en formato digital utilizando sistemas computacionales. Los datos son
la materia prima para que, mediante su proceso, se obtenga como resultado
información. Para ello, la informática crea y/o emplea sistemas de procesamiento de
datos, que incluyen medios físicos (hardware) en interacción con medios lógicos
(software) y las personas que los programan y/o los usan (humanware)».5

Es por lo que se hace distinción entre este término y las ciencias de la


computación, puesto que el segundo engloba la parte más teórica mientras que
informática se refiere a la aplicabilidad de esta anterior en datos usando
dispositivos electrónicos. De hecho, se definen cinco subdisciplinas del campo de
la informática: ciencias de la computación, ingeniería informática, sistemas de
información, tecnología de la información e ingeniería de software.6

La informática es la forma científica de procesar la información. Este


procesamiento consiste en ordenar, seleccionar, ejecutar cálculos de forma que nos
permita extraer conclusiones de la información manipulada. Procesar información es
transformar datos primarios en información organizada, significativa y útil, que a
su vez está compuesta de datos. La informática, que se ha desarrollado rápidamente
a partir de la segunda mitad del siglo xx con la aparición de tecnologías como el
circuito integrado, el Internet y el teléfono móvil,7 es la rama de la tecnología
que estudia el tratamiento automático de la información.89

En 1957, Karl Steinbuch añadió la palabra alemana Informatik en la publicación de


un documento denominado Informatik: Automatische Informationsverarbeitung
(Informática: procesamiento automático de información).10 El soviético Alexander
Ivanovich Mikhailov fue el primero en utilizar Informatik con el significado de
«estudio, organización y diseminación de la información científica», que sigue
siendo su significado en dicha lengua.10 En inglés, la palabra informatics fue
acuñada independiente y casi simultáneamente por Walter F. Bauer, en 1962, cuando
Bauer cofundó la empresa Informatics General, Inc.10

Toma una encuesta corta y ayúdanos a mejorar Wikipedia

Visita la encuestaNo, gracias


Datos de la encuesta manejados por una tercera parte. Privacidad.
Orígenes de la informática
Artículo principal: Anexo:Historia de la computación
La disciplina de la informática es anterior a la creación de las computadoras. Ya
en la antigüedad se conocían métodos para realizar cálculos matemáticos, por
ejemplo el algoritmo de Euclides. En el siglo xvii comenzaron a inventarse máquinas
calculadoras. La herramienta más antigua conocida para su uso en computación es el
ábaco, y se cree que fue inventado en Babilonia alrededor del 2400 a. C. Su diseño
original de uso fue por líneas dibujadas en arena con guijarros. Esta fue la
primera ayuda de cálculo conocida, precediendo a los métodos griegos por 2000 años.

En el siglo xix se desarrollaron las primeras máquinas programables, es decir, que


el usuario podría modificar la secuencia de acciones a realizar a través de
algoritmos específicos. La primera propuesta registrada para el uso de la
electrónica digital en la informática fue el artículo de 1931 "El uso de tiratrones
para el conteo automático de fenómenos físicos a alta velocidad" de C. E. Wynn-
Williams.11 El artículo de 1938 de Claude Shannon "Un análisis simbólico de los
circuitos de conmutación y relés" introdujo la idea de utilizar la electrónica para
las operaciones de álgebra booleana.

Caja de ordenador con un procesador LGA775 de Intel, con la tarjeta madre, el


ventilador del procesador, la alimentación eléctrica, y la memoria.
El concepto de un transistor de efecto de campo fue propuesto por Julius Edgar
Lilienfeld en 1925. John Bardeen y Walter Brattain, mientras trabajaban con William
Shockley en Bell Labs, construyó el primer transistor en funcionamiento, el
transistor de contacto puntual, en 1947.1213 En 1953, la Universidad de Mánchester
construyó la primera ordenador transistorizado, llamada ordenador de
transistores.14 Sin embargo, los primeros transistores de unión eran dispositivos
relativamente voluminosos que eran difíciles de producir en masa, lo que los
limitaba a una serie de aplicaciones especializadas.15 El transistor de efecto de
campo de óxido de metal-silicio (MOSFET, o transistor MOS) fue inventado por
Mohamed Atalla y Dawon Kahng en Bell Labs en 1959.1617 Fue el primer transistor
verdaderamente compacto que podía ser miniaturizado y producido en masa para una
amplia gama de usos.15 El MOSFET hizo posible construir chiìs de circuitos
integrados de alta densidad,1819 dando lugar a lo que se conoce como la revolución
informática20 o revolución de la microcomputadora.21

En los inicios del procesamiento automático de la información, con la informática


solo se facilitaban los trabajos repetitivos y monótonos del área administrativa.
La automatización de esos procesos trajo como consecuencia directa una disminución
de los costes y un incremento en la productividad. En la informática convergen los
fundamentos de las ciencias de la computación, la programación y también las
metodologías para el desarrollo de software, la arquitectura de las computadoras,
las redes de computadores, la inteligencia artificial y ciertas cuestiones
relacionadas con la electrónica. Se puede entender por informática a la unión
sinérgica de todo este conjunto de disciplinas. Esta disciplina se aplica a
numerosas y variadas áreas del conocimiento o la actividad humana, por ejemplo:
gestión de negocios, almacenamiento y consulta de información; monitorización y
control de procesos, industria, robótica, comunicaciones, control de transportes,
investigación, desarrollo de juegos, diseño computarizado,
aplicaciones/herramientas multimedia, medicina, biología, física, química,
meteorología, ingeniería, arte, etc. Puede tanto facilitar la toma de decisiones a
nivel gerencial (en una empresa) como permitir el control de procesos críticos.
Actualmente, es difícil concebir un área que no esté vinculada o requiera del apoyo
de la informática. Esta puede cubrir un enorme abanico de funciones, que van desde
las más simples cuestiones domésticas hasta los cálculos científicos más complejos.
Entre las funciones principales de la informática se enumeran las siguientes:

Creación de nuevas especificaciones de trabajo.


Desarrollo e implementación de sistemas informáticos.
Sistematización de procesos.
Optimización de los métodos y sistemas informáticos existentes.
Facilitar la automatización de datos y formatos.22
Sistemas de tratamiento de la información
Los sistemas computacionales, generalmente implementados como dispositivos
electrónicos, permiten el procesamiento automático de la información. Conforme a
ello, los sistemas informáticos deben realizar las siguientes tres tareas básicas:

Entrada: captación de la información. Normalmente son datos y órdenes ingresadas


por los usuarios a través de cualquier dispositivo de entrada conectado a la
computadora.
Proceso: tratamiento de la información. Se realiza a través de programas y
aplicaciones diseñadas por programadores que indican de forma secuencial cómo
resolver un requerimiento.
Salida: transmisión de resultados. A través de los dispositivos de salida los
usuarios pueden visualizar los resultados que surgen del procesamiento de los
datos.
Sistema operativo es un conjunto de programas que permite interactuar al usuario
con la computadora.
Sistemas de mando y control, son sistemas basados en la mecánica y motricidad de
dispositivos que permiten al usuario localizar, dentro de la logística, los
elementos que se demandan. Están basados en la electricidad, o sea, no en el
control del flujo del electrón, sino en la continuidad o discontinuidad de una
corriente eléctrica, si es alterna o continua o si es inducida, contra inducida, en
fase o desfase (ver periférico de entrada).
Sistemas de archivo, son sistemas que permiten el almacenamiento a largo plazo de
información que no se demandará por un largo lapso. Estos sistemas usan los
conceptos de biblioteca para localizar la información demandada.
Código ASCII es un método para la correspondencia de cadenas de bits permitiendo de
esta forma la comunicación entre dispositivos digitales así como su proceso y
almacenamiento, en la actualidad todos los sistemas informáticos utilizan el código
ASCII para representar textos, gráficos, audio e infinidad de información para el
control y manipulación de dispositivos digitales.
En un editor de texto presionando las teclas Alt + el número del código ASCII,
aparecerá el carácter correspondiente, solamente funciona en un teclado que tenga
las teclas numéricas.

Véase también
Historia de las ciencias de la computación
Anexo:Historia de la computación
Computadora
Ciencias de la computación
Teoría de la computación
Generaciones de computadoras
Primera generación de computadoras
Historia de las computadoras personales
Software
Mujeres en informática
Tecnología
Internet
Computadoras en la ciencia ficción
Internet en la ciencia ficción
Ver el portal sobre Informática Portal:Informática. Contenido relacionado con
Informática.
Referencias
«CIP user site». nces.ed.gov. Consultado el 22 de noviembre de 2019.
Real Academia Española. «Computación». Diccionario de la lengua española (23.ª
edición). Consultado el 13 de agosto de 2014.
«Definition of computer science | Dictionary.com». www.dictionary.com (en inglés).
Consultado el 3 de junio de 2022.
Denning, P.J.; Comer, D.E.; Gries, D.; Mulder, M.C.; Tucker, A.; Turner, A.J.;
Young, P.R. (1989-02). «Computing as a discipline». Computer 22 (2): 63-70. ISSN
0018-9162. doi:10.1109/2.19833. Consultado el 3 de junio de 2022.
«ADICRA: ¿De qué hablamos cuando hablamos de Informática?».
«Curricula Recommendations». Association for Computing Machinery. 2005. Consultado
el 30 de noviembre de 2012.
"Informática, información, y comunicación", en 'Documentación Social: Revista de
Estudios Sociales y de Tecnología Aplicada', n° 108, julio-septiembre 1999
(consultar texto en línea pp. 76-82)
Diego Dikygs, Tratamiento (Automático) de la Información, sitio digital 'Nociones
de Informática', 12 de abril de 2011.
Historia de la Computación, sitio digital 'Monografías'.
Patricio Villalva, ¿Qué es la Informática?, sitio digital 'Informática avanzada'.
Wynn-Williams, C. E. (2 de julio de 1931), «The Use of Thyratrons for High Speed
Automatic Counting of Physical Phenomena», Proceedings of the Royal Society A 132
(819): 295-310, Bibcode:1931RSPSA.132..295W, doi:10.1098/rspa.1931.0102.
Lee, Thomas H. (2003). The Design of CMOS Radio-Frequency Integrated Circuits.
Cambridge University Press. ISBN 9781139643771. Archivado desde el original el 9 de
diciembre de 2019. Consultado el 16 de septiembre de 2019.
Puers, Robert; Baldi, Livio; Voorde, Marcel Van de; Nooten, Sebastiaan E. van
(2017). Nanoelectronics: Materials, Devices, Applications, 2 Volumes. John Wiley &
Sons. p. 14. ISBN 9783527340538.
Lavington, Simon (1998), A History of Manchester Computers (2 edición), Swindon:
The British Computer Society, pp. 34-35.
Moskowitz, Sanford L. (2016). Advanced Materials Innovation: Managing Global
Technology in the 21st century. John Wiley & Sons. pp. 165-167. ISBN 9780470508923.
«1960 - Metal Oxide Semiconductor (MOS) Transistor Demonstrated». The Silicon
Engine (Computer History Museum).
Lojek, Bo (2007). History of Semiconductor Engineering. Springer Science &
Business Media. pp. 321–3. ISBN 9783540342588.
«Who Invented the Transistor?». Computer History Museum. 4 de diciembre de 2013.
Consultado el 20 de julio de 2019.
Hittinger, William C. (1973). «Metal-Oxide-Semiconductor Technology». Scientific
American 229 (2): 48-59. Bibcode:1973SciAm.229b..48H. ISSN 0036-8733. JSTOR
24923169. doi:10.1038/scientificamerican0873-48.

La informática,1 también llamada computación,2 es el área de la ciencia que se


encarga de estudiar la administración de métodos, técnicas y procesos con el fin de
almacenar, procesar y transmitir información y datos en formato digital. La
informática abarca desde disciplinas teóricas (como algoritmos, teoría de la
computación y teoría de la información) hasta disciplinas prácticas (incluido el
diseño y la implementación de hardware y software).3 La informática generalmente se
considera un área de investigación académica y distinta de la programación
informática.4

De esa manera, la informática se refiere al procesamiento automático de


información, dispositivos electrónicos, sistemas computacionales.
El término informática también es sinónimo de contar y calcular. En sus inicios, se
utilizaba para referirse a la acción realizada por máquinas mecánicas de cómputo y,
antes de eso, a calculadoras humanas.

Los sistemas informáticos deben contar con la capacidad de cumplir tres tareas
básicas: entrada (input, captación de la información), procesamiento y salida
(transmisión de los resultados).

No existe una definición consensuada sobre el término. Sin embargo, la Asociación


de Docentes de Informática y Computación de la República Argentina ha tomado una
posición, definiéndola de la siguiente manera: «La informática es la disciplina o
campo de estudio que abarca el conjunto de conocimientos, métodos y técnicas
referentes al tratamiento automático de la información, junto con sus teorías y
aplicaciones prácticas, con el fin de almacenar, procesar y transmitir datos e
información en formato digital utilizando sistemas computacionales. Los datos son
la materia prima para que, mediante su proceso, se obtenga como resultado
información. Para ello, la informática crea y/o emplea sistemas de procesamiento de
datos, que incluyen medios físicos (hardware) en interacción con medios lógicos
(software) y las personas que los programan y/o los usan (humanware)».5

Es por lo que se hace distinción entre este término y las ciencias de la


computación, puesto que el segundo engloba la parte más teórica mientras que
informática se refiere a la aplicabilidad de esta anterior en datos usando
dispositivos electrónicos. De hecho, se definen cinco subdisciplinas del campo de
la informática: ciencias de la computación, ingeniería informática, sistemas de
información, tecnología de la información e ingeniería de software.6

La informática es la forma científica de procesar la información. Este


procesamiento consiste en ordenar, seleccionar, ejecutar cálculos de forma que nos
permita extraer conclusiones de la información manipulada. Procesar información es
transformar datos primarios en información organizada, significativa y útil, que a
su vez está compuesta de datos. La informática, que se ha desarrollado rápidamente
a partir de la segunda mitad del siglo xx con la aparición de tecnologías como el
circuito integrado, el Internet y el teléfono móvil,7 es la rama de la tecnología
que estudia el tratamiento automático de la información.89

En 1957, Karl Steinbuch añadió la palabra alemana Informatik en la publicación de


un documento denominado Informatik: Automatische Informationsverarbeitung
(Informática: procesamiento automático de información).10 El soviético Alexander
Ivanovich Mikhailov fue el primero en utilizar Informatik con el significado de
«estudio, organización y diseminación de la información científica», que sigue
siendo su significado en dicha lengua.10 En inglés, la palabra informatics fue
acuñada independiente y casi simultáneamente por Walter F. Bauer, en 1962, cuando
Bauer cofundó la empresa Informatics General, Inc.10

Toma una encuesta corta y ayúdanos a mejorar Wikipedia

Visita la encuestaNo, gracias


Datos de la encuesta manejados por una tercera parte. Privacidad.
Orígenes de la informática
Artículo principal: Anexo:Historia de la computación
La disciplina de la informática es anterior a la creación de las computadoras. Ya
en la antigüedad se conocían métodos para realizar cálculos matemáticos, por
ejemplo el algoritmo de Euclides. En el siglo xvii comenzaron a inventarse máquinas
calculadoras. La herramienta más antigua conocida para su uso en computación es el
ábaco, y se cree que fue inventado en Babilonia alrededor del 2400 a. C. Su diseño
original de uso fue por líneas dibujadas en arena con guijarros. Esta fue la
primera ayuda de cálculo conocida, precediendo a los métodos griegos por 2000 años.
En el siglo xix se desarrollaron las primeras máquinas programables, es decir, que
el usuario podría modificar la secuencia de acciones a realizar a través de
algoritmos específicos. La primera propuesta registrada para el uso de la
electrónica digital en la informática fue el artículo de 1931 "El uso de tiratrones
para el conteo automático de fenómenos físicos a alta velocidad" de C. E. Wynn-
Williams.11 El artículo de 1938 de Claude Shannon "Un análisis simbólico de los
circuitos de conmutación y relés" introdujo la idea de utilizar la electrónica para
las operaciones de álgebra booleana.

Caja de ordenador con un procesador LGA775 de Intel, con la tarjeta madre, el


ventilador del procesador, la alimentación eléctrica, y la memoria.
El concepto de un transistor de efecto de campo fue propuesto por Julius Edgar
Lilienfeld en 1925. John Bardeen y Walter Brattain, mientras trabajaban con William
Shockley en Bell Labs, construyó el primer transistor en funcionamiento, el
transistor de contacto puntual, en 1947.1213 En 1953, la Universidad de Mánchester
construyó la primera ordenador transistorizado, llamada ordenador de
transistores.14 Sin embargo, los primeros transistores de unión eran dispositivos
relativamente voluminosos que eran difíciles de producir en masa, lo que los
limitaba a una serie de aplicaciones especializadas.15 El transistor de efecto de
campo de óxido de metal-silicio (MOSFET, o transistor MOS) fue inventado por
Mohamed Atalla y Dawon Kahng en Bell Labs en 1959.1617 Fue el primer transistor
verdaderamente compacto que podía ser miniaturizado y producido en masa para una
amplia gama de usos.15 El MOSFET hizo posible construir chiìs de circuitos
integrados de alta densidad,1819 dando lugar a lo que se conoce como la revolución
informática20 o revolución de la microcomputadora.21

En los inicios del procesamiento automático de la información, con la informática


solo se facilitaban los trabajos repetitivos y monótonos del área administrativa.
La automatización de esos procesos trajo como consecuencia directa una disminución
de los costes y un incremento en la productividad. En la informática convergen los
fundamentos de las ciencias de la computación, la programación y también las
metodologías para el desarrollo de software, la arquitectura de las computadoras,
las redes de computadores, la inteligencia artificial y ciertas cuestiones
relacionadas con la electrónica. Se puede entender por informática a la unión
sinérgica de todo este conjunto de disciplinas. Esta disciplina se aplica a
numerosas y variadas áreas del conocimiento o la actividad humana, por ejemplo:
gestión de negocios, almacenamiento y consulta de información; monitorización y
control de procesos, industria, robótica, comunicaciones, control de transportes,
investigación, desarrollo de juegos, diseño computarizado,
aplicaciones/herramientas multimedia, medicina, biología, física, química,
meteorología, ingeniería, arte, etc. Puede tanto facilitar la toma de decisiones a
nivel gerencial (en una empresa) como permitir el control de procesos críticos.
Actualmente, es difícil concebir un área que no esté vinculada o requiera del apoyo
de la informática. Esta puede cubrir un enorme abanico de funciones, que van desde
las más simples cuestiones domésticas hasta los cálculos científicos más complejos.
Entre las funciones principales de la informática se enumeran las siguientes:

Creación de nuevas especificaciones de trabajo.


Desarrollo e implementación de sistemas informáticos.
Sistematización de procesos.
Optimización de los métodos y sistemas informáticos existentes.
Facilitar la automatización de datos y formatos.22
Sistemas de tratamiento de la información
Los sistemas computacionales, generalmente implementados como dispositivos
electrónicos, permiten el procesamiento automático de la información. Conforme a
ello, los sistemas informáticos deben realizar las siguientes tres tareas básicas:

Entrada: captación de la información. Normalmente son datos y órdenes ingresadas


por los usuarios a través de cualquier dispositivo de entrada conectado a la
computadora.
Proceso: tratamiento de la información. Se realiza a través de programas y
aplicaciones diseñadas por programadores que indican de forma secuencial cómo
resolver un requerimiento.
Salida: transmisión de resultados. A través de los dispositivos de salida los
usuarios pueden visualizar los resultados que surgen del procesamiento de los
datos.
Sistema operativo es un conjunto de programas que permite interactuar al usuario
con la computadora.
Sistemas de mando y control, son sistemas basados en la mecánica y motricidad de
dispositivos que permiten al usuario localizar, dentro de la logística, los
elementos que se demandan. Están basados en la electricidad, o sea, no en el
control del flujo del electrón, sino en la continuidad o discontinuidad de una
corriente eléctrica, si es alterna o continua o si es inducida, contra inducida, en
fase o desfase (ver periférico de entrada).
Sistemas de archivo, son sistemas que permiten el almacenamiento a largo plazo de
información que no se demandará por un largo lapso. Estos sistemas usan los
conceptos de biblioteca para localizar la información demandada.
Código ASCII es un método para la correspondencia de cadenas de bits permitiendo de
esta forma la comunicación entre dispositivos digitales así como su proceso y
almacenamiento, en la actualidad todos los sistemas informáticos utilizan el código
ASCII para representar textos, gráficos, audio e infinidad de información para el
control y manipulación de dispositivos digitales.
En un editor de texto presionando las teclas Alt + el número del código ASCII,
aparecerá el carácter correspondiente, solamente funciona en un teclado que tenga
las teclas numéricas.

Véase también
Historia de las ciencias de la computación
Anexo:Historia de la computación
Computadora
Ciencias de la computación
Teoría de la computación
Generaciones de computadoras
Primera generación de computadoras
Historia de las computadoras personales
Software
Mujeres en informática
Tecnología
Internet
Computadoras en la ciencia ficción
Internet en la ciencia ficción
Ver el portal sobre Informática Portal:Informática. Contenido relacionado con
Informática.
Referencias
«CIP user site». nces.ed.gov. Consultado el 22 de noviembre de 2019.
Real Academia Española. «Computación». Diccionario de la lengua española (23.ª
edición). Consultado el 13 de agosto de 2014.
«Definition of computer science | Dictionary.com». www.dictionary.com (en inglés).
Consultado el 3 de junio de 2022.
Denning, P.J.; Comer, D.E.; Gries, D.; Mulder, M.C.; Tucker, A.; Turner, A.J.;
Young, P.R. (1989-02). «Computing as a discipline». Computer 22 (2): 63-70. ISSN
0018-9162. doi:10.1109/2.19833. Consultado el 3 de junio de 2022.
«ADICRA: ¿De qué hablamos cuando hablamos de Informática?».
«Curricula Recommendations». Association for Computing Machinery. 2005. Consultado
el 30 de noviembre de 2012.
"Informática, información, y comunicación", en 'Documentación Social: Revista de
Estudios Sociales y de Tecnología Aplicada', n° 108, julio-septiembre 1999
(consultar texto en línea pp. 76-82)
Diego Dikygs, Tratamiento (Automático) de la Información, sitio digital 'Nociones
de Informática', 12 de abril de 2011.
Historia de la Computación, sitio digital 'Monografías'.
Patricio Villalva, ¿Qué es la Informática?, sitio digital 'Informática avanzada'.
Wynn-Williams, C. E. (2 de julio de 1931), «The Use of Thyratrons for High Speed
Automatic Counting of Physical Phenomena», Proceedings of the Royal Society A 132
(819): 295-310, Bibcode:1931RSPSA.132..295W, doi:10.1098/rspa.1931.0102.
Lee, Thomas H. (2003). The Design of CMOS Radio-Frequency Integrated Circuits.
Cambridge University Press. ISBN 9781139643771. Archivado desde el original el 9 de
diciembre de 2019. Consultado el 16 de septiembre de 2019.
Puers, Robert; Baldi, Livio; Voorde, Marcel Van de; Nooten, Sebastiaan E. van
(2017). Nanoelectronics: Materials, Devices, Applications, 2 Volumes. John Wiley &
Sons. p. 14. ISBN 9783527340538.
Lavington, Simon (1998), A History of Manchester Computers (2 edición), Swindon:
The British Computer Society, pp. 34-35.
Moskowitz, Sanford L. (2016). Advanced Materials Innovation: Managing Global
Technology in the 21st century. John Wiley & Sons. pp. 165-167. ISBN 9780470508923.
«1960 - Metal Oxide Semiconductor (MOS) Transistor Demonstrated». The Silicon
Engine (Computer History Museum).
Lojek, Bo (2007). History of Semiconductor Engineering. Springer Science &
Business Media. pp. 321–3. ISBN 9783540342588.
«Who Invented the Transistor?». Computer History Museum. 4 de diciembre de 2013.
Consultado el 20 de julio de 2019.
Hittinger, William C. (1973). «Metal-Oxide-Semiconductor Technology». Scientific
American 229 (2): 48-59. Bibcode:1973SciAm.229b..48H. ISSN 0036-8733. JSTOR
24923169. doi:10.1038/scientificamerican0873-48.
Fossum, Jerry G.; Trivedi, Vishal P. (2013). Fundamentals of Ultra-Thin-Body
MOSFETs and FinFETs. Cambridge University Press. p. vii. ISBN 9781107434493.
Malmstadt, Howard V.; Enke, Christie G.; Crouch, Stanley R. (1994). Making the
Right Connections: Microcomputers and Electronic Instrumentation. American Chemical
Society. p. 389. ISBN 9780841228610. «The relative simplicity and low power
requirements of MOSFETs have fostered today's microcomputer revolution. »
Salamanca Al Día (9 de enero de 2020). «Informática, un sector con salidas
únicas». Archivado desde el original el 9 de marzo de 2018. Consultado el 6 de
marzo de

La informática,1 también llamada computación,2 es el área de la ciencia que se


encarga de estudiar la administración de métodos, técnicas y procesos con el fin de
almacenar, procesar y transmitir información y datos en formato digital. La
informática abarca desde disciplinas teóricas (como algoritmos, teoría de la
computación y teoría de la información) hasta disciplinas prácticas (incluido el
diseño y la implementación de hardware y software).3 La informática generalmente se
considera un área de investigación académica y distinta de la programación
informática.4

De esa manera, la informática se refiere al procesamiento automático de


información, dispositivos electrónicos, sistemas computacionales.

El término informática también es sinónimo de contar y calcular. En sus inicios, se


utilizaba para referirse a la acción realizada por máquinas mecánicas de cómputo y,
antes de eso, a calculadoras humanas.

Los sistemas informáticos deben contar con la capacidad de cumplir tres tareas
básicas: entrada (input, captación de la información), procesamiento y salida
(transmisión de los resultados).

No existe una definición consensuada sobre el término. Sin embargo, la Asociación


de Docentes de Informática y Computación de la República Argentina ha tomado una
posición, definiéndola de la siguiente manera: «La informática es la disciplina o
campo de estudio que abarca el conjunto de conocimientos, métodos y técnicas
referentes al tratamiento automático de la información, junto con sus teorías y
aplicaciones prácticas, con el fin de almacenar, procesar y transmitir datos e
información en formato digital utilizando sistemas computacionales. Los datos son
la materia prima para que, mediante su proceso, se obtenga como resultado
información. Para ello, la informática crea y/o emplea sistemas de procesamiento de
datos, que incluyen medios físicos (hardware) en interacción con medios lógicos
(software) y las personas que los programan y/o los usan (humanware)».5

Es por lo que se hace distinción entre este término y las ciencias de la


computación, puesto que el segundo engloba la parte más teórica mientras que
informática se refiere a la aplicabilidad de esta anterior en datos usando
dispositivos electrónicos. De hecho, se definen cinco subdisciplinas del campo de
la informática: ciencias de la computación, ingeniería informática, sistemas de
información, tecnología de la información e ingeniería de software.6

La informática es la forma científica de procesar la información. Este


procesamiento consiste en ordenar, seleccionar, ejecutar cálculos de forma que nos
permita extraer conclusiones de la información manipulada. Procesar información es
transformar datos primarios en información organizada, significativa y útil, que a
su vez está compuesta de datos. La informática, que se ha desarrollado rápidamente
a partir de la segunda mitad del siglo xx con la aparición de tecnologías como el
circuito integrado, el Internet y el teléfono móvil,7 es la rama de la tecnología
que estudia el tratamiento automático de la información.89

En 1957, Karl Steinbuch añadió la palabra alemana Informatik en la publicación de


un documento denominado Informatik: Automatische Informationsverarbeitung
(Informática: procesamiento automático de información).10 El soviético Alexander
Ivanovich Mikhailov fue el primero en utilizar Informatik con el significado de
«estudio, organización y diseminación de la información científica», que sigue
siendo su significado en dicha lengua.10 En inglés, la palabra informatics fue
acuñada independiente y casi simultáneamente por Walter F. Bauer, en 1962, cuando
Bauer cofundó la empresa Informatics General, Inc.10

Toma una encuesta corta y ayúdanos a mejorar Wikipedia

Visita la encuestaNo, gracias


Datos de la encuesta manejados por una tercera parte. Privacidad.
Orígenes de la informática
Artículo principal: Anexo:Historia de la computación
La disciplina de la informática es anterior a la creación de las computadoras. Ya
en la antigüedad se conocían métodos para realizar cálculos matemáticos, por
ejemplo el algoritmo de Euclides. En el siglo xvii comenzaron a inventarse máquinas
calculadoras. La herramienta más antigua conocida para su uso en computación es el
ábaco, y se cree que fue inventado en Babilonia alrededor del 2400 a. C. Su diseño
original de uso fue por líneas dibujadas en arena con guijarros. Esta fue la
primera ayuda de cálculo conocida, precediendo a los métodos griegos por 2000 años.

En el siglo xix se desarrollaron las primeras máquinas programables, es decir, que


el usuario podría modificar la secuencia de acciones a realizar a través de
algoritmos específicos. La primera propuesta registrada para el uso de la
electrónica digital en la informática fue el artículo de 1931 "El uso de tiratrones
para el conteo automático de fenómenos físicos a alta velocidad" de C. E. Wynn-
Williams.11 El artículo de 1938 de Claude Shannon "Un análisis simbólico de los
circuitos de conmutación y relés" introdujo la idea de utilizar la electrónica para
las operaciones de álgebra booleana.
Caja de ordenador con un procesador LGA775 de Intel, con la tarjeta madre, el
ventilador del procesador, la alimentación eléctrica, y la memoria.
El concepto de un transistor de efecto de campo fue propuesto por Julius Edgar
Lilienfeld en 1925. John Bardeen y Walter Brattain, mientras trabajaban con William
Shockley en Bell Labs, construyó el primer transistor en funcionamiento, el
transistor de contacto puntual, en 1947.1213 En 1953, la Universidad de Mánchester
construyó la primera ordenador transistorizado, llamada ordenador de
transistores.14 Sin embargo, los primeros transistores de unión eran dispositivos
relativamente voluminosos que eran difíciles de producir en masa, lo que los
limitaba a una serie de aplicaciones especializadas.15 El transistor de efecto de
campo de óxido de metal-silicio (MOSFET, o transistor MOS) fue inventado por
Mohamed Atalla y Dawon Kahng en Bell Labs en 1959.1617 Fue el primer transistor
verdaderamente compacto que podía ser miniaturizado y producido en masa para una
amplia gama de usos.15 El MOSFET hizo posible construir chiìs de circuitos
integrados de alta densidad,1819 dando lugar a lo que se conoce como la revolución
informática20 o revolución de la microcomputadora.21

En los inicios del procesamiento automático de la información, con la informática


solo se facilitaban los trabajos repetitivos y monótonos del área administrativa.
La automatización de esos procesos trajo como consecuencia directa una disminución
de los costes y un incremento en la productividad. En la informática convergen los
fundamentos de las ciencias de la computación, la programación y también las
metodologías para el desarrollo de software, la arquitectura de las computadoras,
las redes de computadores, la inteligencia artificial y ciertas cuestiones
relacionadas con la electrónica. Se puede entender por informática a la unión
sinérgica de todo este conjunto de disciplinas. Esta disciplina se aplica a
numerosas y variadas áreas del conocimiento o la actividad humana, por ejemplo:
gestión de negocios, almacenamiento y consulta de información; monitorización y
control de procesos, industria, robótica, comunicaciones, control de transportes,
investigación, desarrollo de juegos, diseño computarizado,
aplicaciones/herramientas multimedia, medicina, biología, física, química,
meteorología, ingeniería, arte, etc. Puede tanto facilitar la toma de decisiones a
nivel gerencial (en una empresa) como permitir el control de procesos críticos.
Actualmente, es difícil concebir un área que no esté vinculada o requiera del apoyo
de la informática. Esta puede cubrir un enorme abanico de funciones, que van desde
las más simples cuestiones domésticas hasta los cálculos científicos más complejos.
Entre las funciones principales de la informática se enumeran las siguientes:

Creación de nuevas especificaciones de trabajo.


Desarrollo e implementación de sistemas informáticos.
Sistematización de procesos.
Optimización de los métodos y sistemas informáticos existentes.
Facilitar la automatización de datos y formatos.22
Sistemas de tratamiento de la información
Los sistemas computacionales, generalmente implementados como dispositivos
electrónicos, permiten el procesamiento automático de la información. Conforme a
ello, los sistemas informáticos deben realizar las siguientes tres tareas básicas:

Entrada: captación de la información. Normalmente son datos y órdenes ingresadas


por los usuarios a través de cualquier dispositivo de entrada conectado a la
computadora.
Proceso: tratamiento de la información. Se realiza a través de programas y
aplicaciones diseñadas por programadores que indican de forma secuencial cómo
resolver un requerimiento.
Salida: transmisión de resultados. A través de los dispositivos de salida los
usuarios pueden visualizar los resultados que surgen del procesamiento de los
datos.
Sistema operativo es un conjunto de programas que permite interactuar al usuario
con la computadora.
Sistemas de mando y control, son sistemas basados en la mecánica y motricidad de
dispositivos que permiten al usuario localizar, dentro de la logística, los
elementos que se demandan. Están basados en la electricidad, o sea, no en el
control del flujo del electrón, sino en la continuidad o discontinuidad de una
corriente eléctrica, si es alterna o continua o si es inducida, contra inducida, en
fase o desfase (ver periférico de entrada).
Sistemas de archivo, son sistemas que permiten el almacenamiento a largo plazo de
información que no se demandará por un largo lapso. Estos sistemas usan los
conceptos de biblioteca para localizar la información demandada.
Código ASCII es un método para la correspondencia de cadenas de bits permitiendo de
esta forma la comunicación entre dispositivos digitales así como su proceso y
almacenamiento, en la actualidad todos los sistemas informáticos utilizan el código
ASCII para representar textos, gráficos, audio e infinidad de información para el
control y manipulación de dispositivos digitales.
En un editor de texto presionando las teclas Alt + el número del código ASCII,
aparecerá el carácter correspondiente, solamente funciona en un teclado que tenga
las teclas numéricas.

Véase también
Historia de las ciencias de la computación
Anexo:Historia de la computación
Computadora
Ciencias de la computación
Teoría de la computación
Generaciones de computadoras
Primera generación de computadoras
Historia de las computadoras personales
Software
Mujeres en informática
Tecnología
Internet
Computadoras en la ciencia ficción
Internet en la ciencia ficción
Ver el portal sobre Informática Portal:Informática. Contenido relacionado con
Informática.
Referencias
«CIP user site». nces.ed.gov. Consultado el 22 de noviembre de 2019.
Real Academia Española. «Computación». Diccionario de la lengua española (23.ª
edición). Consultado el 13 de agosto de 2014.
«Definition of computer science | Dictionary.com». www.dictionary.com (en inglés).
Consultado el 3 de junio de 2022.
Denning, P.J.; Comer, D.E.; Gries, D.; Mulder, M.C.; Tucker, A.; Turner, A.J.;
Young, P.R. (1989-02). «Computing as a discipline». Computer 22 (2): 63-70. ISSN
0018-9162. doi:10.1109/2.19833. Consultado el 3 de junio de 2022.
«ADICRA: ¿De qué hablamos cuando hablamos de Informática?».
«Curricula Recommendations». Association for Computing Machinery. 2005. Consultado
el 30 de noviembre de 2012.
"Informática, información, y comunicación", en 'Documentación Social: Revista de
Estudios Sociales y de Tecnología Aplicada', n° 108, julio-septiembre 1999
(consultar texto en línea pp. 76-82)
Diego Dikygs, Tratamiento (Automático) de la Información, sitio digital 'Nociones
de Informática', 12 de abril de 2011.
Historia de la Computación, sitio digital 'Monografías'.
Patricio Villalva, ¿Qué es la Informática?, sitio digital 'Informática avanzada'.
Wynn-Williams, C. E. (2 de julio de 1931), «The Use of Thyratrons for High Speed
Automatic Counting of Physical Phenomena», Proceedings of the Royal Society A 132
(819): 295-310, Bibcode:1931RSPSA.132..295W, doi:10.1098/rspa.1931.0102.
Lee, Thomas H. (2003). The Design of CMOS Radio-Frequency Integrated Circuits.
Cambridge University Press. ISBN 9781139643771. Archivado desde el original el 9 de
diciembre de 2019. Consultado el 16 de septiembre de 2019.
Puers, Robert; Baldi, Livio; Voorde, Marcel Van de; Nooten, Sebastiaan E. van
(2017). Nanoelectronics: Materials, Devices, Applications, 2 Volumes. John Wiley &
Sons. p. 14. ISBN 9783527340538.
Lavington, Simon (1998), A History of Manchester Computers (2 edición), Swindon:
The British Computer Society, pp. 34-35.
Moskowitz, Sanford L. (2016). Advanced Materials Innovation: Managing Global
Technology in the 21st century. John Wiley & Sons. pp. 165-167. ISBN 9780470508923.
«1960 - Metal Oxide Semiconductor (MOS) Transistor Demonstrated». The Silicon
Engine (Computer History Museum).
Lojek, Bo (2007). History of Semiconductor Engineering. Springer Science &
Business Media. pp. 321–3. ISBN 9783540342588.
«Who Invented the Transistor?». Computer History Museum. 4 de diciembre de 2013.
Consultado el 20 de julio de 2019.
Hittinger, William C. (1973). «Metal-Oxide-Semiconductor Technology». Scientific
American 229 (2): 48-59. Bibcode:1973SciAm.229b..48H. ISSN 0036-8733. JSTOR
24923169. doi:10.1038/scientificamerican0873-48.
Fossum, Jerry G.; Trivedi, Vishal P. (2013). Fundamentals of Ultra-Thin-Body
MOSFETs and FinFETs. Cambridge University Press. p. vii. ISBN 9781107434493.
Malmstadt, Howard V.; Enke, Christie G.; Crouch, Stanley R. (1994). Making the
Right Connections: Microcomputers and Electronic Instrumentation. American Chemical
Society. p. 389. ISBN 9780841228610. «The relative simplicity and low power
requirements of MOSFETs have fostered today's microcomputer revolution. »
Salamanca Al Día (9 de enero de 2020). «Informática, un sector con salidas
únicas». Archivado desde el original el 9 de marzo de 2018. Consultado el 6 de
marzo de
Fossum, Jerry G.; Trivedi, Vishal P. (2013). Fundamentals of Ultra-Thin-Body
MOSFETs and FinFETs. Cambridge University Press. p. vii. ISBN 9781107434493.
Malmstadt, Howard V.; Enke, Christie G.; Crouch, Stanley R. (1994). Making the
Right Connections: Microcomputers and Electronic Instrumentation. American Chemical
Society. p. 389. ISBN 9780841228610. «The relative simplicity and low power
requirements of MOSFETs have fostered today's microcomputer revolution. »
Salamanca Al Día (9 de enero de 2020). «Informática, un sector con salidas
únicas». Archivado desde el original el 9 de marzo de 2018. Consultado el 6 de
marzo de
Salamanca Al Día (9 de enero de 2020). «Informática, un sector con salidas
únicas». Archivado desde el original el 9 de marzo de 2018. Consultado el 6 de
marzo de

La informática,1 también llamada computación,2 es el área de la ciencia que se


encarga de estudiar la administración de métodos, técnicas y procesos con el fin de
almacenar, procesar y transmitir información y datos en formato digital. La
informática abarca desde disciplinas teóricas (como algoritmos, teoría de la
computación y teoría de la información) hasta disciplinas prácticas (incluido el
diseño y la implementación de hardware y software).3 La informática generalmente se
considera un área de investigación académica y distinta de la programación
informática.4

La informática,1 también llamada computación,2 es el área de la ciencia que se


encarga de estudiar la administración de métodos, técnicas y procesos con el fin de
almacenar, procesar y transmitir información y datos en formato digital. La
informática abarca desde disciplinas teóricas (como algoritmos, teoría de la
computación y teoría de la información) hasta disciplinas prácticas (incluido el
diseño y la implementación de hardware y software).3 La informática generalmente se
considera un área de investigación académica y distinta de la programación
informática.4

De esa manera, la informática se refiere al procesamiento automático de


información, dispositivos electrónicos, sistemas computacionales.

El término informática también es sinónimo de contar y calcular. En sus inicios, se


utilizaba para referirse a la acción realizada por máquinas mecánicas de cómputo y,
antes de eso, a calculadoras humanas.

Los sistemas informáticos deben contar con la capacidad de cumplir tres tareas
básicas: entrada (input, captación de la información), procesamiento y salida
(transmisión de los resultados).

No existe una definición consensuada sobre el término. Sin embargo, la Asociación


de Docentes de Informática y Computación de la República Argentina ha tomado una
posición, definiéndola de la siguiente manera: «La informática es la disciplina o
campo de estudio que abarca el conjunto de conocimientos, métodos y técnicas
referentes al tratamiento automático de la información, junto con sus teorías y
aplicaciones prácticas, con el fin de almacenar, procesar y transmitir datos e
información en formato digital utilizando sistemas computacionales. Los datos son
la materia prima para que, mediante su proceso, se obtenga como resultado
información. Para ello, la informática crea y/o emplea sistemas de procesamiento de
datos, que incluyen medios físicos (hardware) en interacción con medios lógicos
(software) y las personas que los programan y/o los usan (humanware)».5

Es por lo que se hace distinción entre este término y las ciencias de la


computación, puesto que el segundo engloba la parte más teórica mientras que
informática se refiere a la aplicabilidad de esta anterior en datos usando
dispositivos electrónicos. De hecho, se definen cinco subdisciplinas del campo de
la informática: ciencias de la computación, ingeniería informática, sistemas de
información, tecnología de la información e ingeniería de software.6

La informática es la forma científica de procesar la información. Este


procesamiento consiste en ordenar, seleccionar, ejecutar cálculos de forma que nos
permita extraer conclusiones de la información manipulada. Procesar información es
transformar datos primarios en información organizada, significativa y útil, que a
su vez está compuesta de datos. La informática, que se ha desarrollado rápidamente
a partir de la segunda mitad del siglo xx con la aparición de tecnologías como el
circuito integrado, el Internet y el teléfono móvil,7 es la rama de la tecnología
que estudia el tratamiento automático de la información.89

En 1957, Karl Steinbuch añadió la palabra alemana Informatik en la publicación de


un documento denominado Informatik: Automatische Informationsverarbeitung
(Informática: procesamiento automático de información).10 El soviético Alexander
Ivanovich Mikhailov fue el primero en utilizar Informatik con el significado de
«estudio, organización y diseminación de la información científica», que sigue
siendo su significado en dicha lengua.10 En inglés, la palabra informatics fue
acuñada independiente y casi simultáneamente por Walter F. Bauer, en 1962, cuando
Bauer cofundó la empresa Informatics General, Inc.10

Toma una encuesta corta y ayúdanos a mejorar Wikipedia

Visita la encuestaNo, gracias


Datos de la encuesta manejados por una tercera parte. Privacidad.
Orígenes de la informática
Artículo principal: Anexo:Historia de la computación
La disciplina de la informática es anterior a la creación de las computadoras. Ya
en la antigüedad se conocían métodos para realizar cálculos matemáticos, por
ejemplo el algoritmo de Euclides. En el siglo xvii comenzaron a inventarse máquinas
calculadoras. La herramienta más antigua conocida para su uso en computación es el
ábaco, y se cree que fue inventado en Babilonia alrededor del 2400 a. C. Su diseño
original de uso fue por líneas dibujadas en arena con guijarros. Esta fue la
primera ayuda de cálculo conocida, precediendo a los métodos griegos por 2000 años.

En el siglo xix se desarrollaron las primeras máquinas programables, es decir, que


el usuario podría modificar la secuencia de acciones a realizar a través de
algoritmos específicos. La primera propuesta registrada para el uso de la
electrónica digital en la informática fue el artículo de 1931 "El uso de tiratrones
para el conteo automático de fenómenos físicos a alta velocidad" de C. E. Wynn-
Williams.11 El artículo de 1938 de Claude Shannon "Un análisis simbólico de los
circuitos de conmutación y relés" introdujo la idea de utilizar la electrónica para
las operaciones de álgebra booleana.

Caja de ordenador con un procesador LGA775 de Intel, con la tarjeta madre, el


ventilador del procesador, la alimentación eléctrica, y la memoria.
El concepto de un transistor de efecto de campo fue propuesto por Julius Edgar
Lilienfeld en 1925. John Bardeen y Walter Brattain, mientras trabajaban con William
Shockley en Bell Labs, construyó el primer transistor en funcionamiento, el
transistor de contacto puntual, en 1947.1213 En 1953, la Universidad de Mánchester
construyó la primera ordenador transistorizado, llamada ordenador de
transistores.14 Sin embargo, los primeros transistores de unión eran dispositivos
relativamente voluminosos que eran difíciles de producir en masa, lo que los
limitaba a una serie de aplicaciones especializadas.15 El transistor de efecto de
campo de óxido de metal-silicio (MOSFET, o transistor MOS) fue inventado por
Mohamed Atalla y Dawon Kahng en Bell Labs en 1959.1617 Fue el primer transistor
verdaderamente compacto que podía ser miniaturizado y producido en masa para una
amplia gama de usos.15 El MOSFET hizo posible construir chiìs de circuitos
integrados de alta densidad,1819 dando lugar a lo que se conoce como la revolución
informática20 o revolución de la microcomputadora.21

En los inicios del procesamiento automático de la información, con la informática


solo se facilitaban los trabajos repetitivos y monótonos del área administrativa.
La automatización de esos procesos trajo como consecuencia directa una disminución
de los costes y un incremento en la productividad. En la informática convergen los
fundamentos de las ciencias de la computación, la programación y también las
metodologías para el desarrollo de software, la arquitectura de las computadoras,
las redes de computadores, la inteligencia artificial y ciertas cuestiones
relacionadas con la electrónica. Se puede entender por informática a la unión
sinérgica de todo este conjunto de disciplinas. Esta disciplina se aplica a
numerosas y variadas áreas del conocimiento o la actividad humana, por ejemplo:
gestión de negocios, almacenamiento y consulta de información; monitorización y
control de procesos, industria, robótica, comunicaciones, control de transportes,
investigación, desarrollo de juegos, diseño computarizado,
aplicaciones/herramientas multimedia, medicina, biología, física, química,
meteorología, ingeniería, arte, etc. Puede tanto facilitar la toma de decisiones a
nivel gerencial (en una empresa) como permitir el control de procesos críticos.
Actualmente, es difícil concebir un área que no esté vinculada o requiera del apoyo
de la informática. Esta puede cubrir un enorme abanico de funciones, que van desde
las más simples cuestiones domésticas hasta los cálculos científicos más complejos.
Entre las funciones principales de la informática se enumeran las siguientes:

Creación de nuevas especificaciones de trabajo.


Desarrollo e implementación de sistemas informáticos.
Sistematización de procesos.
Optimización de los métodos y sistemas informáticos existentes.
Facilitar la automatización de datos y formatos.22
Sistemas de tratamiento de la información
Los sistemas computacionales, generalmente implementados como dispositivos
electrónicos, permiten el procesamiento automático de la información. Conforme a
ello, los sistemas informáticos deben realizar las siguientes tres tareas básicas:

Entrada: captación de la información. Normalmente son datos y órdenes ingresadas


por los usuarios a través de cualquier dispositivo de entrada conectado a la
computadora.
Proceso: tratamiento de la información. Se realiza a través de programas y
aplicaciones diseñadas por programadores que indican de forma secuencial cómo
resolver un requerimiento.
Salida: transmisión de resultados. A través de los dispositivos de salida los
usuarios pueden visualizar los resultados que surgen del procesamiento de los
datos.
Sistema operativo es un conjunto de programas que permite interactuar al usuario
con la computadora.
Sistemas de mando y control, son sistemas basados en la mecánica y motricidad de
dispositivos que permiten al usuario localizar, dentro de la logística, los
elementos que se demandan. Están basados en la electricidad, o sea, no en el
control del flujo del electrón, sino en la continuidad o discontinuidad de una
corriente eléctrica, si es alterna o continua o si es inducida, contra inducida, en
fase o desfase (ver periférico de entrada).
Sistemas de archivo, son sistemas que permiten el almacenamiento a largo plazo de
información que no se demandará por un largo lapso. Estos sistemas usan los
conceptos de biblioteca para localizar la información demandada.
Código ASCII es un método para la correspondencia de cadenas de bits permitiendo de
esta forma la comunicación entre dispositivos digitales así como su proceso y
almacenamiento, en la actualidad todos los sistemas informáticos utilizan el código
ASCII para representar textos, gráficos, audio e infinidad de información para el
control y manipulación de dispositivos digitales.
En un editor de texto presionando las teclas Alt + el número del código ASCII,
aparecerá el carácter correspondiente, solamente funciona en un teclado que tenga
las teclas numéricas.

Véase también
Historia de las ciencias de la computación
Anexo:Historia de la computación
Computadora
Ciencias de la computación
Teoría de la computación
Generaciones de computadoras
Primera generación de computadoras
Historia de las computadoras personales
Software
Mujeres en informática
Tecnología
Internet
Computadoras en la ciencia ficción
Internet en la ciencia ficción
Ver el portal sobre Informática Portal:Informática. Contenido relacionado con
Informática.
Referencias
«CIP user site». nces.ed.gov. Consultado el 22 de noviembre de 2019.
Real Academia Española. «Computación». Diccionario de la lengua española (23.ª
edición). Consultado el 13 de agosto de 2014.
«Definition of computer science | Dictionary.com». www.dictionary.com (en inglés).
Consultado el 3 de junio de 2022.
Denning, P.J.; Comer, D.E.; Gries, D.; Mulder, M.C.; Tucker, A.; Turner, A.J.;
Young, P.R. (1989-02). «Computing as a discipline». Computer 22 (2): 63-70. ISSN
0018-9162. doi:10.1109/2.19833. Consultado el 3 de junio de 2022.
«ADICRA: ¿De qué hablamos cuando hablamos de Informática?».
«Curricula Recommendations». Association for Computing Machinery. 2005. Consultado
el 30 de noviembre de 2012.
"Informática, información, y comunicación", en 'Documentación Social: Revista de
Estudios Sociales y de Tecnología Aplicada', n° 108, julio-septiembre 1999
(consultar texto en línea pp. 76-82)
Diego Dikygs, Tratamiento (Automático) de la Información, sitio digital 'Nociones
de Informática', 12 de abril de 2011.
Historia de la Computación, sitio digital 'Monografías'.
Patricio Villalva, ¿Qué es la Informática?, sitio digital 'Informática avanzada'.
Wynn-Williams, C. E. (2 de julio de 1931), «The Use of Thyratrons for High Speed
Automatic Counting of Physical Phenomena», Proceedings of the Royal Society A 132
(819): 295-310, Bibcode:1931RSPSA.132..295W, doi:10.1098/rspa.1931.0102.
Lee, Thomas H. (2003). The Design of CMOS Radio-Frequency Integrated Circuits.
Cambridge University Press. ISBN 9781139643771. Archivado desde el original el 9 de
diciembre de 2019. Consultado el 16 de septiembre de 2019.
Puers, Robert; Baldi, Livio; Voorde, Marcel Van de; Nooten, Sebastiaan E. van
(2017). Nanoelectronics: Materials, Devices, Applications, 2 Volumes. John Wiley &
Sons. p. 14. ISBN 9783527340538.
Lavington, Simon (1998), A History of Manchester Computers (2 edición), Swindon:
The British Computer Society, pp. 34-35.
Moskowitz, Sanford L. (2016). Advanced Materials Innovation: Managing Global
Technology in the 21st century. John Wiley & Sons. pp. 165-167. ISBN 9780470508923.
«1960 - Metal Oxide Semiconductor (MOS) Transistor Demonstrated». The Silicon
Engine (Computer History Museum).
Lojek, Bo (2007). History of Semiconductor Engineering. Springer Science &
Business Media. pp. 321–3. ISBN 9783540342588.
«Who Invented the Transistor?». Computer History Museum. 4 de diciembre de 2013.
Consultado el 20 de julio de 2019.
Hittinger, William C. (1973). «Metal-Oxide-Semiconductor Technology». Scientific
American 229 (2): 48-59. Bibcode:1973SciAm.229b..48H. ISSN 0036-8733. JSTOR
24923169. doi:10.1038/scientificamerican0873-48.

La informática,1 también llamada computación,2 es el área de la ciencia que se


encarga de estudiar la administración de métodos, técnicas y procesos con el fin de
almacenar, procesar y transmitir información y datos en formato digital. La
informática abarca desde disciplinas teóricas (como algoritmos, teoría de la
computación y teoría de la información) hasta disciplinas prácticas (incluido el
diseño y la implementación de hardware y software).3 La informática generalmente se
considera un área de investigación académica y distinta de la programación
informática.4

De esa manera, la informática se refiere al procesamiento automático de


información, dispositivos electrónicos, sistemas computacionales.

El término informática también es sinónimo de contar y calcular. En sus inicios, se


utilizaba para referirse a la acción realizada por máquinas mecánicas de cómputo y,
antes de eso, a calculadoras humanas.

Los sistemas informáticos deben contar con la capacidad de cumplir tres tareas
básicas: entrada (input, captación de la información), procesamiento y salida
(transmisión de los resultados).

No existe una definición consensuada sobre el término. Sin embargo, la Asociación


de Docentes de Informática y Computación de la República Argentina ha tomado una
posición, definiéndola de la siguiente manera: «La informática es la disciplina o
campo de estudio que abarca el conjunto de conocimientos, métodos y técnicas
referentes al tratamiento automático de la información, junto con sus teorías y
aplicaciones prácticas, con el fin de almacenar, procesar y transmitir datos e
información en formato digital utilizando sistemas computacionales. Los datos son
la materia prima para que, mediante su proceso, se obtenga como resultado
información. Para ello, la informática crea y/o emplea sistemas de procesamiento de
datos, que incluyen medios físicos (hardware) en interacción con medios lógicos
(software) y las personas que los programan y/o los usan (humanware)».5

Es por lo que se hace distinción entre este término y las ciencias de la


computación, puesto que el segundo engloba la parte más teórica mientras que
informática se refiere a la aplicabilidad de esta anterior en datos usando
dispositivos electrónicos. De hecho, se definen cinco subdisciplinas del campo de
la informática: ciencias de la computación, ingeniería informática, sistemas de
información, tecnología de la información e ingeniería de software.6

La informática es la forma científica de procesar la información. Este


procesamiento consiste en ordenar, seleccionar, ejecutar cálculos de forma que nos
permita extraer conclusiones de la información manipulada. Procesar información es
transformar datos primarios en información organizada, significativa y útil, que a
su vez está compuesta de datos. La informática, que se ha desarrollado rápidamente
a partir de la segunda mitad del siglo xx con la aparición de tecnologías como el
circuito integrado, el Internet y el teléfono móvil,7 es la rama de la tecnología
que estudia el tratamiento automático de la información.89

En 1957, Karl Steinbuch añadió la palabra alemana Informatik en la publicación de


un documento denominado Informatik: Automatische Informationsverarbeitung
(Informática: procesamiento automático de información).10 El soviético Alexander
Ivanovich Mikhailov fue el primero en utilizar Informatik con el significado de
«estudio, organización y diseminación de la información científica», que sigue
siendo su significado en dicha lengua.10 En inglés, la palabra informatics fue
acuñada independiente y casi simultáneamente por Walter F. Bauer, en 1962, cuando
Bauer cofundó la empresa Informatics General, Inc.10

Toma una encuesta corta y ayúdanos a mejorar Wikipedia

Visita la encuestaNo, gracias


Datos de la encuesta manejados por una tercera parte. Privacidad.
Orígenes de la informática
Artículo principal: Anexo:Historia de la computación
La disciplina de la informática es anterior a la creación de las computadoras. Ya
en la antigüedad se conocían métodos para realizar cálculos matemáticos, por
ejemplo el algoritmo de Euclides. En el siglo xvii comenzaron a inventarse máquinas
calculadoras. La herramienta más antigua conocida para su uso en computación es el
ábaco, y se cree que fue inventado en Babilonia alrededor del 2400 a. C. Su diseño
original de uso fue por líneas dibujadas en arena con guijarros. Esta fue la
primera ayuda de cálculo conocida, precediendo a los métodos griegos por 2000 años.

En el siglo xix se desarrollaron las primeras máquinas programables, es decir, que


el usuario podría modificar la secuencia de acciones a realizar a través de
algoritmos específicos. La primera propuesta registrada para el uso de la
electrónica digital en la informática fue el artículo de 1931 "El uso de tiratrones
para el conteo automático de fenómenos físicos a alta velocidad" de C. E. Wynn-
Williams.11 El artículo de 1938 de Claude Shannon "Un análisis simbólico de los
circuitos de conmutación y relés" introdujo la idea de utilizar la electrónica para
las operaciones de álgebra booleana.

Caja de ordenador con un procesador LGA775 de Intel, con la tarjeta madre, el


ventilador del procesador, la alimentación eléctrica, y la memoria.
El concepto de un transistor de efecto de campo fue propuesto por Julius Edgar
Lilienfeld en 1925. John Bardeen y Walter Brattain, mientras trabajaban con William
Shockley en Bell Labs, construyó el primer transistor en funcionamiento, el
transistor de contacto puntual, en 1947.1213 En 1953, la Universidad de Mánchester
construyó la primera ordenador transistorizado, llamada ordenador de
transistores.14 Sin embargo, los primeros transistores de unión eran dispositivos
relativamente voluminosos que eran difíciles de producir en masa, lo que los
limitaba a una serie de aplicaciones especializadas.15 El transistor de efecto de
campo de óxido de metal-silicio (MOSFET, o transistor MOS) fue inventado por
Mohamed Atalla y Dawon Kahng en Bell Labs en 1959.1617 Fue el primer transistor
verdaderamente compacto que podía ser miniaturizado y producido en masa para una
amplia gama de usos.15 El MOSFET hizo posible construir chiìs de circuitos
integrados de alta densidad,1819 dando lugar a lo que se conoce como la revolución
informática20 o revolución de la microcomputadora.21

En los inicios del procesamiento automático de la información, con la informática


solo se facilitaban los trabajos repetitivos y monótonos del área administrativa.
La automatización de esos procesos trajo como consecuencia directa una disminución
de los costes y un incremento en la productividad. En la informática convergen los
fundamentos de las ciencias de la computación, la programación y también las
metodologías para el desarrollo de software, la arquitectura de las computadoras,
las redes de computadores, la inteligencia artificial y ciertas cuestiones
relacionadas con la electrónica. Se puede entender por informática a la unión
sinérgica de todo este conjunto de disciplinas. Esta disciplina se aplica a
numerosas y variadas áreas del conocimiento o la actividad humana, por ejemplo:
gestión de negocios, almacenamiento y consulta de información; monitorización y
control de procesos, industria, robótica, comunicaciones, control de transportes,
investigación, desarrollo de juegos, diseño computarizado,
aplicaciones/herramientas multimedia, medicina, biología, física, química,
meteorología, ingeniería, arte, etc. Puede tanto facilitar la toma de decisiones a
nivel gerencial (en una empresa) como permitir el control de procesos críticos.
Actualmente, es difícil concebir un área que no esté vinculada o requiera del apoyo
de la informática. Esta puede cubrir un enorme abanico de funciones, que van desde
las más simples cuestiones domésticas hasta los cálculos científicos más complejos.
Entre las funciones principales de la informática se enumeran las siguientes:

Creación de nuevas especificaciones de trabajo.


Desarrollo e implementación de sistemas informáticos.
Sistematización de procesos.
Optimización de los métodos y sistemas informáticos existentes.
Facilitar la automatización de datos y formatos.22
Sistemas de tratamiento de la información
Los sistemas computacionales, generalmente implementados como dispositivos
electrónicos, permiten el procesamiento automático de la información. Conforme a
ello, los sistemas informáticos deben realizar las siguientes tres tareas básicas:

Entrada: captación de la información. Normalmente son datos y órdenes ingresadas


por los usuarios a través de cualquier dispositivo de entrada conectado a la
computadora.
Proceso: tratamiento de la información. Se realiza a través de programas y
aplicaciones diseñadas por programadores que indican de forma secuencial cómo
resolver un requerimiento.
Salida: transmisión de resultados. A través de los dispositivos de salida los
usuarios pueden visualizar los resultados que surgen del procesamiento de los
datos.
Sistema operativo es un conjunto de programas que permite interactuar al usuario
con la computadora.
Sistemas de mando y control, son sistemas basados en la mecánica y motricidad de
dispositivos que permiten al usuario localizar, dentro de la logística, los
elementos que se demandan. Están basados en la electricidad, o sea, no en el
control del flujo del electrón, sino en la continuidad o discontinuidad de una
corriente eléctrica, si es alterna o continua o si es inducida, contra inducida, en
fase o desfase (ver periférico de entrada).
Sistemas de archivo, son sistemas que permiten el almacenamiento a largo plazo de
información que no se demandará por un largo lapso. Estos sistemas usan los
conceptos de biblioteca para localizar la información demandada.
Código ASCII es un método para la correspondencia de cadenas de bits permitiendo de
esta forma la comunicación entre dispositivos digitales así como su proceso y
almacenamiento, en la actualidad todos los sistemas informáticos utilizan el código
ASCII para representar textos, gráficos, audio e infinidad de información para el
control y manipulación de dispositivos digitales.
En un editor de texto presionando las teclas Alt + el número del código ASCII,
aparecerá el carácter correspondiente, solamente funciona en un teclado que tenga
las teclas numéricas.

Véase también
Historia de las ciencias de la computación
Anexo:Historia de la computación
Computadora
Ciencias de la computación
Teoría de la computación
Generaciones de computadoras
Primera generación de computadoras
Historia de las computadoras personales
Software
Mujeres en informática
Tecnología
Internet
Computadoras en la ciencia ficción
Internet en la ciencia ficción
Ver el portal sobre Informática Portal:Informática. Contenido relacionado con
Informática.
Referencias
«CIP user site». nces.ed.gov. Consultado el 22 de noviembre de 2019.
Real Academia Española. «Computación». Diccionario de la lengua española (23.ª
edición). Consultado el 13 de agosto de 2014.
«Definition of computer science | Dictionary.com». www.dictionary.com (en inglés).
Consultado el 3 de junio de 2022.
Denning, P.J.; Comer, D.E.; Gries, D.; Mulder, M.C.; Tucker, A.; Turner, A.J.;
Young, P.R. (1989-02). «Computing as a discipline». Computer 22 (2): 63-70. ISSN
0018-9162. doi:10.1109/2.19833. Consultado el 3 de junio de 2022.
«ADICRA: ¿De qué hablamos cuando hablamos de Informática?».
«Curricula Recommendations». Association for Computing Machinery. 2005. Consultado
el 30 de noviembre de 2012.
"Informática, información, y comunicación", en 'Documentación Social: Revista de
Estudios Sociales y de Tecnología Aplicada', n° 108, julio-septiembre 1999
(consultar texto en línea pp. 76-82)
Diego Dikygs, Tratamiento (Automático) de la Información, sitio digital 'Nociones
de Informática', 12 de abril de 2011.
Historia de la Computación, sitio digital 'Monografías'.
Patricio Villalva, ¿Qué es la Informática?, sitio digital 'Informática avanzada'.
Wynn-Williams, C. E. (2 de julio de 1931), «The Use of Thyratrons for High Speed
Automatic Counting of Physical Phenomena», Proceedings of the Royal Society A 132
(819): 295-310, Bibcode:1931RSPSA.132..295W, doi:10.1098/rspa.1931.0102.
Lee, Thomas H. (2003). The Design of CMOS Radio-Frequency Integrated Circuits.
Cambridge University Press. ISBN 9781139643771. Archivado desde el original el 9 de
diciembre de 2019. Consultado el 16 de septiembre de 2019.
Puers, Robert; Baldi, Livio; Voorde, Marcel Van de; Nooten, Sebastiaan E. van
(2017). Nanoelectronics: Materials, Devices, Applications, 2 Volumes. John Wiley &
Sons. p. 14. ISBN 9783527340538.
Lavington, Simon (1998), A History of Manchester Computers (2 edición), Swindon:
The British Computer Society, pp. 34-35.
Moskowitz, Sanford L. (2016). Advanced Materials Innovation: Managing Global
Technology in the 21st century. John Wiley & Sons. pp. 165-167. ISBN 9780470508923.
«1960 - Metal Oxide Semiconductor (MOS) Transistor Demonstrated». The Silicon
Engine (Computer History Museum).
Lojek, Bo (2007). History of Semiconductor Engineering. Springer Science &
Business Media. pp. 321–3. ISBN 9783540342588.
«Who Invented the Transistor?». Computer History Museum. 4 de diciembre de 2013.
Consultado el 20 de julio de 2019.
Hittinger, William C. (1973). «Metal-Oxide-Semiconductor Technology». Scientific
American 229 (2): 48-59. Bibcode:1973SciAm.229b..48H. ISSN 0036-8733. JSTOR
24923169. doi:10.1038/scientificamerican0873-48.
Fossum, Jerry G.; Trivedi, Vishal P. (2013). Fundamentals of Ultra-Thin-Body
MOSFETs and FinFETs. Cambridge University Press. p. vii. ISBN 9781107434493.
Malmstadt, Howard V.; Enke, Christie G.; Crouch, Stanley R. (1994). Making the
Right Connections: Microcomputers and Electronic Instrumentation. American Chemical
Society. p. 389. ISBN 9780841228610. «The relative simplicity and low power
requirements of MOSFETs have fostered today's microcomputer revolution. »
Salamanca Al Día (9 de enero de 2020). «Informática, un sector con salidas
únicas». Archivado desde el original el 9 de marzo de 2018. Consultado el 6 de
marzo de

La informática,1 también llamada computación,2 es el área de la ciencia que se


encarga de estudiar la administración de métodos, técnicas y procesos con el fin de
almacenar, procesar y transmitir información y datos en formato digital. La
informática abarca desde disciplinas teóricas (como algoritmos, teoría de la
computación y teoría de la información) hasta disciplinas prácticas (incluido el
diseño y la implementación de hardware y software).3 La informática generalmente se
considera un área de investigación académica y distinta de la programación
informática.4

De esa manera, la informática se refiere al procesamiento automático de


información, dispositivos electrónicos, sistemas computacionales.

El término informática también es sinónimo de contar y calcular. En sus inicios, se


utilizaba para referirse a la acción realizada por máquinas mecánicas de cómputo y,
antes de eso, a calculadoras humanas.

Los sistemas informáticos deben contar con la capacidad de cumplir tres tareas
básicas: entrada (input, captación de la información), procesamiento y salida
(transmisión de los resultados).

No existe una definición consensuada sobre el término. Sin embargo, la Asociación


de Docentes de Informática y Computación de la República Argentina ha tomado una
posición, definiéndola de la siguiente manera: «La informática es la disciplina o
campo de estudio que abarca el conjunto de conocimientos, métodos y técnicas
referentes al tratamiento automático de la información, junto con sus teorías y
aplicaciones prácticas, con el fin de almacenar, procesar y transmitir datos e
información en formato digital utilizando sistemas computacionales. Los datos son
la materia prima para que, mediante su proceso, se obtenga como resultado
información. Para ello, la informática crea y/o emplea sistemas de procesamiento de
datos, que incluyen medios físicos (hardware) en interacción con medios lógicos
(software) y las personas que los programan y/o los usan (humanware)».5

Es por lo que se hace distinción entre este término y las ciencias de la


computación, puesto que el segundo engloba la parte más teórica mientras que
informática se refiere a la aplicabilidad de esta anterior en datos usando
dispositivos electrónicos. De hecho, se definen cinco subdisciplinas del campo de
la informática: ciencias de la computación, ingeniería informática, sistemas de
información, tecnología de la información e ingeniería de software.6

La informática es la forma científica de procesar la información. Este


procesamiento consiste en ordenar, seleccionar, ejecutar cálculos de forma que nos
permita extraer conclusiones de la información manipulada. Procesar información es
transformar datos primarios en información organizada, significativa y útil, que a
su vez está compuesta de datos. La informática, que se ha desarrollado rápidamente
a partir de la segunda mitad del siglo xx con la aparición de tecnologías como el
circuito integrado, el Internet y el teléfono móvil,7 es la rama de la tecnología
que estudia el tratamiento automático de la información.89

En 1957, Karl Steinbuch añadió la palabra alemana Informatik en la publicación de


un documento denominado Informatik: Automatische Informationsverarbeitung
(Informática: procesamiento automático de información).10 El soviético Alexander
Ivanovich Mikhailov fue el primero en utilizar Informatik con el significado de
«estudio, organización y diseminación de la información científica», que sigue
siendo su significado en dicha lengua.10 En inglés, la palabra informatics fue
acuñada independiente y casi simultáneamente por Walter F. Bauer, en 1962, cuando
Bauer cofundó la empresa Informatics General, Inc.10

Toma una encuesta corta y ayúdanos a mejorar Wikipedia

Visita la encuestaNo, gracias


Datos de la encuesta manejados por una tercera parte. Privacidad.
Orígenes de la informática
Artículo principal: Anexo:Historia de la computación
La disciplina de la informática es anterior a la creación de las computadoras. Ya
en la antigüedad se conocían métodos para realizar cálculos matemáticos, por
ejemplo el algoritmo de Euclides. En el siglo xvii comenzaron a inventarse máquinas
calculadoras. La herramienta más antigua conocida para su uso en computación es el
ábaco, y se cree que fue inventado en Babilonia alrededor del 2400 a. C. Su diseño
original de uso fue por líneas dibujadas en arena con guijarros. Esta fue la
primera ayuda de cálculo conocida, precediendo a los métodos griegos por 2000 años.

En el siglo xix se desarrollaron las primeras máquinas programables, es decir, que


el usuario podría modificar la secuencia de acciones a realizar a través de
algoritmos específicos. La primera propuesta registrada para el uso de la
electrónica digital en la informática fue el artículo de 1931 "El uso de tiratrones
para el conteo automático de fenómenos físicos a alta velocidad" de C. E. Wynn-
Williams.11 El artículo de 1938 de Claude Shannon "Un análisis simbólico de los
circuitos de conmutación y relés" introdujo la idea de utilizar la electrónica para
las operaciones de álgebra booleana.

Caja de ordenador con un procesador LGA775 de Intel, con la tarjeta madre, el


ventilador del procesador, la alimentación eléctrica, y la memoria.
El concepto de un transistor de efecto de campo fue propuesto por Julius Edgar
Lilienfeld en 1925. John Bardeen y Walter Brattain, mientras trabajaban con William
Shockley en Bell Labs, construyó el primer transistor en funcionamiento, el
transistor de contacto puntual, en 1947.1213 En 1953, la Universidad de Mánchester
construyó la primera ordenador transistorizado, llamada ordenador de
transistores.14 Sin embargo, los primeros transistores de unión eran dispositivos
relativamente voluminosos que eran difíciles de producir en masa, lo que los
limitaba a una serie de aplicaciones especializadas.15 El transistor de efecto de
campo de óxido de metal-silicio (MOSFET, o transistor MOS) fue inventado por
Mohamed Atalla y Dawon Kahng en Bell Labs en 1959.1617 Fue el primer transistor
verdaderamente compacto que podía ser miniaturizado y producido en masa para una
amplia gama de usos.15 El MOSFET hizo posible construir chiìs de circuitos
integrados de alta densidad,1819 dando lugar a lo que se conoce como la revolución
informática20 o revolución de la microcomputadora.21

En los inicios del procesamiento automático de la información, con la informática


solo se facilitaban los trabajos repetitivos y monótonos del área administrativa.
La automatización de esos procesos trajo como consecuencia directa una disminución
de los costes y un incremento en la productividad. En la informática convergen los
fundamentos de las ciencias de la computación, la programación y también las
metodologías para el desarrollo de software, la arquitectura de las computadoras,
las redes de computadores, la inteligencia artificial y ciertas cuestiones
relacionadas con la electrónica. Se puede entender por informática a la unión
sinérgica de todo este conjunto de disciplinas. Esta disciplina se aplica a
numerosas y variadas áreas del conocimiento o la actividad humana, por ejemplo:
gestión de negocios, almacenamiento y consulta de información; monitorización y
control de procesos, industria, robótica, comunicaciones, control de transportes,
investigación, desarrollo de juegos, diseño computarizado,
aplicaciones/herramientas multimedia, medicina, biología, física, química,
meteorología, ingeniería, arte, etc. Puede tanto facilitar la toma de decisiones a
nivel gerencial (en una empresa) como permitir el control de procesos críticos.
Actualmente, es difícil concebir un área que no esté vinculada o requiera del apoyo
de la informática. Esta puede cubrir un enorme abanico de funciones, que van desde
las más simples cuestiones domésticas hasta los cálculos científicos más complejos.
Entre las funciones principales de la informática se enumeran las siguientes:

Creación de nuevas especificaciones de trabajo.


Desarrollo e implementación de sistemas informáticos.
Sistematización de procesos.
Optimización de los métodos y sistemas informáticos existentes.
Facilitar la automatización de datos y formatos.22
Sistemas de tratamiento de la información
Los sistemas computacionales, generalmente implementados como dispositivos
electrónicos, permiten el procesamiento automático de la información. Conforme a
ello, los sistemas informáticos deben realizar las siguientes tres tareas básicas:

Entrada: captación de la información. Normalmente son datos y órdenes ingresadas


por los usuarios a través de cualquier dispositivo de entrada conectado a la
computadora.
Proceso: tratamiento de la información. Se realiza a través de programas y
aplicaciones diseñadas por programadores que indican de forma secuencial cómo
resolver un requerimiento.
Salida: transmisión de resultados. A través de los dispositivos de salida los
usuarios pueden visualizar los resultados que surgen del procesamiento de los
datos.
Sistema operativo es un conjunto de programas que permite interactuar al usuario
con la computadora.
Sistemas de mando y control, son sistemas basados en la mecánica y motricidad de
dispositivos que permiten al usuario localizar, dentro de la logística, los
elementos que se demandan. Están basados en la electricidad, o sea, no en el
control del flujo del electrón, sino en la continuidad o discontinuidad de una
corriente eléctrica, si es alterna o continua o si es inducida, contra inducida, en
fase o desfase (ver periférico de entrada).
Sistemas de archivo, son sistemas que permiten el almacenamiento a largo plazo de
información que no se demandará por un largo lapso. Estos sistemas usan los
conceptos de biblioteca para localizar la información demandada.
Código ASCII es un método para la correspondencia de cadenas de bits permitiendo de
esta forma la comunicación entre dispositivos digitales así como su proceso y
almacenamiento, en la actualidad todos los sistemas informáticos utilizan el código
ASCII para representar textos, gráficos, audio e infinidad de información para el
control y manipulación de dispositivos digitales.
En un editor de texto presionando las teclas Alt + el número del código ASCII,
aparecerá el carácter correspondiente, solamente funciona en un teclado que tenga
las teclas numéricas.

Véase también
Historia de las ciencias de la computación
Anexo:Historia de la computación
Computadora
Ciencias de la computación
Teoría de la computación
Generaciones de computadoras
Primera generación de computadoras
Historia de las computadoras personales
Software
Mujeres en informática
Tecnología
Internet
Computadoras en la ciencia ficción
Internet en la ciencia ficción
Ver el portal sobre Informática Portal:Informática. Contenido relacionado con
Informática.
Referencias
«CIP user site». nces.ed.gov. Consultado el 22 de noviembre de 2019.
Real Academia Española. «Computación». Diccionario de la lengua española (23.ª
edición). Consultado el 13 de agosto de 2014.
«Definition of computer science | Dictionary.com». www.dictionary.com (en inglés).
Consultado el 3 de junio de 2022.
Denning, P.J.; Comer, D.E.; Gries, D.; Mulder, M.C.; Tucker, A.; Turner, A.J.;
Young, P.R. (1989-02). «Computing as a discipline». Computer 22 (2): 63-70. ISSN
0018-9162. doi:10.1109/2.19833. Consultado el 3 de junio de 2022.
«ADICRA: ¿De qué hablamos cuando hablamos de Informática?».
«Curricula Recommendations». Association for Computing Machinery. 2005. Consultado
el 30 de noviembre de 2012.
"Informática, información, y comunicación", en 'Documentación Social: Revista de
Estudios Sociales y de Tecnología Aplicada', n° 108, julio-septiembre 1999
(consultar texto en línea pp. 76-82)
Diego Dikygs, Tratamiento (Automático) de la Información, sitio digital 'Nociones
de Informática', 12 de abril de 2011.
Historia de la Computación, sitio digital 'Monografías'.
Patricio Villalva, ¿Qué es la Informática?, sitio digital 'Informática avanzada'.
Wynn-Williams, C. E. (2 de julio de 1931), «The Use of Thyratrons for High Speed
Automatic Counting of Physical Phenomena», Proceedings of the Royal Society A 132
(819): 295-310, Bibcode:1931RSPSA.132..295W, doi:10.1098/rspa.1931.0102.
Lee, Thomas H. (2003). The Design of CMOS Radio-Frequency Integrated Circuits.
Cambridge University Press. ISBN 9781139643771. Archivado desde el original el 9 de
diciembre de 2019. Consultado el 16 de septiembre de 2019.
Puers, Robert; Baldi, Livio; Voorde, Marcel Van de; Nooten, Sebastiaan E. van
(2017). Nanoelectronics: Materials, Devices, Applications, 2 Volumes. John Wiley &
Sons. p. 14. ISBN 9783527340538.
Lavington, Simon (1998), A History of Manchester Computers (2 edición), Swindon:
The British Computer Society, pp. 34-35.
Moskowitz, Sanford L. (2016). Advanced Materials Innovation: Managing Global
Technology in the 21st century. John Wiley & Sons. pp. 165-167. ISBN 9780470508923.
«1960 - Metal Oxide Semiconductor (MOS) Transistor Demonstrated». The Silicon
Engine (Computer History Museum).
Lojek, Bo (2007). History of Semiconductor Engineering. Springer Science &
Business Media. pp. 321–3. ISBN 9783540342588.
«Who Invented the Transistor?». Computer History Museum. 4 de diciembre de 2013.
Consultado el 20 de julio de 2019.
Hittinger, William C. (1973). «Metal-Oxide-Semiconductor Technology». Scientific
American 229 (2): 48-59. Bibcode:1973SciAm.229b..48H. ISSN 0036-8733. JSTOR
24923169. doi:10.1038/scientificamerican0873-48.
Fossum, Jerry G.; Trivedi, Vishal P. (2013). Fundamentals of Ultra-Thin-Body
MOSFETs and FinFETs. Cambridge University Press. p. vii. ISBN 9781107434493.
Malmstadt, Howard V.; Enke, Christie G.; Crouch, Stanley R. (1994). Making the
Right Connections: Microcomputers and Electronic Instrumentation. American Chemical
Society. p. 389. ISBN 9780841228610. «The relative simplicity and low power
requirements of MOSFETs have fostered today's microcomputer revolution. »
Salamanca Al Día (9 de enero de 2020). «Informática, un sector con salidas
únicas». Archivado desde el original el 9 de marzo de 2018. Consultado el 6 de
marzo de
Fossum, Jerry G.; Trivedi, Vishal P. (2013). Fundamentals of Ultra-Thin-Body
MOSFETs and FinFETs. Cambridge University Press. p. vii. ISBN 9781107434493.
Malmstadt, Howard V.; Enke, Christie G.; Crouch, Stanley R. (1994). Making the
Right Connections: Microcomputers and Electronic Instrumentation. American Chemical
Society. p. 389. ISBN 9780841228610. «The relative simplicity and low power
requirements of MOSFETs have fostered today's microcomputer revolution. »

La informática,1 también llamada computación,2 es el área de la ciencia que se


encarga de estudiar la administración de métodos, técnicas y procesos con el fin de
almacenar, procesar y transmitir información y datos en formato digital. La
informática abarca desde disciplinas teóricas (como algoritmos, teoría de la
computación y teoría de la información) hasta disciplinas prácticas (incluido el
diseño y la implementación de hardware y software).3 La informática generalmente se
considera un área de investigación académica y distinta de la programación
informática.4

De esa manera, la informática se refiere al procesamiento automático de


información, dispositivos electrónicos, sistemas computacionales.

El término informática también es sinónimo de contar y calcular. En sus inicios, se


utilizaba para referirse a la acción realizada por máquinas mecánicas de cómputo y,
antes de eso, a calculadoras humanas.

Los sistemas informáticos deben contar con la capacidad de cumplir tres tareas
básicas: entrada (input, captación de la información), procesamiento y salida
(transmisión de los resultados).

No existe una definición consensuada sobre el término. Sin embargo, la Asociación


de Docentes de Informática y Computación de la República Argentina ha tomado una
posición, definiéndola de la siguiente manera: «La informática es la disciplina o
campo de estudio que abarca el conjunto de conocimientos, métodos y técnicas
referentes al tratamiento automático de la información, junto con sus teorías y
aplicaciones prácticas, con el fin de almacenar, procesar y transmitir datos e
información en formato digital utilizando sistemas computacionales. Los datos son
la materia prima para que, mediante su proceso, se obtenga como resultado
información. Para ello, la informática crea y/o emplea sistemas de procesamiento de
datos, que incluyen medios físicos (hardware) en interacción con medios lógicos
(software) y las personas que los programan y/o los usan (humanware)».5

Es por lo que se hace distinción entre este término y las ciencias de la


computación, puesto que el segundo engloba la parte más teórica mientras que
informática se refiere a la aplicabilidad de esta anterior en datos usando
dispositivos electrónicos. De hecho, se definen cinco subdisciplinas del campo de
la informática: ciencias de la computación, ingeniería informática, sistemas de
información, tecnología de la información e ingeniería de software.6

La informática es la forma científica de procesar la información. Este


procesamiento consiste en ordenar, seleccionar, ejecutar cálculos de forma que nos
permita extraer conclusiones de la información manipulada. Procesar información es
transformar datos primarios en información organizada, significativa y útil, que a
su vez está compuesta de datos. La informática, que se ha desarrollado rápidamente
a partir de la segunda mitad del siglo xx con la aparición de tecnologías como el
circuito integrado, el Internet y el teléfono móvil,7 es la rama de la tecnología
que estudia el tratamiento automático de la información.89

En 1957, Karl Steinbuch añadió la palabra alemana Informatik en la publicación de


un documento denominado Informatik: Automatische Informationsverarbeitung
(Informática: procesamiento automático de información).10 El soviético Alexander
Ivanovich Mikhailov fue el primero en utilizar Informatik con el significado de
«estudio, organización y diseminación de la información científica», que sigue
siendo su significado en dicha lengua.10 En inglés, la palabra informatics fue
acuñada independiente y casi simultáneamente por Walter F. Bauer, en 1962, cuando
Bauer cofundó la empresa Informatics General, Inc.10

Toma una encuesta corta y ayúdanos a mejorar Wikipedia

Visita la encuestaNo, gracias


Datos de la encuesta manejados por una tercera parte. Privacidad.
Orígenes de la informática
Artículo principal: Anexo:Historia de la computación
La disciplina de la informática es anterior a la creación de las computadoras. Ya
en la antigüedad se conocían métodos para realizar cálculos matemáticos, por
ejemplo el algoritmo de Euclides. En el siglo xvii comenzaron a inventarse máquinas
calculadoras. La herramienta más antigua conocida para su uso en computación es el
ábaco, y se cree que fue inventado en Babilonia alrededor del 2400 a. C. Su diseño
original de uso fue por líneas dibujadas en arena con guijarros. Esta fue la
primera ayuda de cálculo conocida, precediendo a los métodos griegos por 2000 años.

En el siglo xix se desarrollaron las primeras máquinas programables, es decir, que


el usuario podría modificar la secuencia de acciones a realizar a través de
algoritmos específicos. La primera propuesta registrada para el uso de la
electrónica digital en la informática fue el artículo de 1931 "El uso de tiratrones
para el conteo automático de fenómenos físicos a alta velocidad" de C. E. Wynn-
Williams.11 El artículo de 1938 de Claude Shannon "Un análisis simbólico de los
circuitos de conmutación y relés" introdujo la idea de utilizar la electrónica para
las operaciones de álgebra booleana.

Caja de ordenador con un procesador LGA775 de Intel, con la tarjeta madre, el


ventilador del procesador, la alimentación eléctrica, y la memoria.
El concepto de un transistor de efecto de campo fue propuesto por Julius Edgar
Lilienfeld en 1925. John Bardeen y Walter Brattain, mientras trabajaban con William
Shockley en Bell Labs, construyó el primer transistor en funcionamiento, el
transistor de contacto puntual, en 1947.1213 En 1953, la Universidad de Mánchester
construyó la primera ordenador transistorizado, llamada ordenador de
transistores.14 Sin embargo, los primeros transistores de unión eran dispositivos
relativamente voluminosos que eran difíciles de producir en masa, lo que los
limitaba a una serie de aplicaciones especializadas.15 El transistor de efecto de
campo de óxido de metal-silicio (MOSFET, o transistor MOS) fue inventado por
Mohamed Atalla y Dawon Kahng en Bell Labs en 1959.1617 Fue el primer transistor
verdaderamente compacto que podía ser miniaturizado y producido en masa para una
amplia gama de usos.15 El MOSFET hizo posible construir chiìs de circuitos
integrados de alta densidad,1819 dando lugar a lo que se conoce como la revolución
informática20 o revolución de la microcomputadora.21

En los inicios del procesamiento automático de la información, con la informática


solo se facilitaban los trabajos repetitivos y monótonos del área administrativa.
La automatización de esos procesos trajo como consecuencia directa una disminución
de los costes y un incremento en la productividad. En la informática convergen los
fundamentos de las ciencias de la computación, la programación y también las
metodologías para el desarrollo de software, la arquitectura de las computadoras,
las redes de computadores, la inteligencia artificial y ciertas cuestiones
relacionadas con la electrónica. Se puede entender por informática a la unión
sinérgica de todo este conjunto de disciplinas. Esta disciplina se aplica a
numerosas y variadas áreas del conocimiento o la actividad humana, por ejemplo:
gestión de negocios, almacenamiento y consulta de información; monitorización y
control de procesos, industria, robótica, comunicaciones, control de transportes,
investigación, desarrollo de juegos, diseño computarizado,
aplicaciones/herramientas multimedia, medicina, biología, física, química,
meteorología, ingeniería, arte, etc. Puede tanto facilitar la toma de decisiones a
nivel gerencial (en una empresa) como permitir el control de procesos críticos.
Actualmente, es difícil concebir un área que no esté vinculada o requiera del apoyo
de la informática. Esta puede cubrir un enorme abanico de funciones, que van desde
las más simples cuestiones domésticas hasta los cálculos científicos más complejos.
Entre las funciones principales de la informática se enumeran las siguientes:

Creación de nuevas especificaciones de trabajo.


Desarrollo e implementación de sistemas informáticos.
Sistematización de procesos.
Optimización de los métodos y sistemas informáticos existentes.
Facilitar la automatización de datos y formatos.22
Sistemas de tratamiento de la información
Los sistemas computacionales, generalmente implementados como dispositivos
electrónicos, permiten el procesamiento automático de la información. Conforme a
ello, los sistemas informáticos deben realizar las siguientes tres tareas básicas:

Entrada: captación de la información. Normalmente son datos y órdenes ingresadas


por los usuarios a través de cualquier dispositivo de entrada conectado a la
computadora.
Proceso: tratamiento de la información. Se realiza a través de programas y
aplicaciones diseñadas por programadores que indican de forma secuencial cómo
resolver un requerimiento.
Salida: transmisión de resultados. A través de los dispositivos de salida los
usuarios pueden visualizar los resultados que surgen del procesamiento de los
datos.
Sistema operativo es un conjunto de programas que permite interactuar al usuario
con la computadora.
Sistemas de mando y control, son sistemas basados en la mecánica y motricidad de
dispositivos que permiten al usuario localizar, dentro de la logística, los
elementos que se demandan. Están basados en la electricidad, o sea, no en el
control del flujo del electrón, sino en la continuidad o discontinuidad de una
corriente eléctrica, si es alterna o continua o si es inducida, contra inducida, en
fase o desfase (ver periférico de entrada).
Sistemas de archivo, son sistemas que permiten el almacenamiento a largo plazo de
información que no se demandará por un largo lapso. Estos sistemas usan los
conceptos de biblioteca para localizar la información demandada.
Código ASCII es un método para la correspondencia de cadenas de bits permitiendo de
esta forma la comunicación entre dispositivos digitales así como su proceso y
almacenamiento, en la actualidad todos los sistemas informáticos utilizan el código
ASCII para representar textos, gráficos, audio e infinidad de información para el
control y manipulación de dispositivos digitales.
En un editor de texto presionando las teclas Alt + el número del código ASCII,
aparecerá el carácter correspondiente, solamente funciona en un teclado que tenga
las teclas numéricas.

Véase también
Historia de las ciencias de la computación
Anexo:Historia de la computación
Computadora
Ciencias de la computación
Teoría de la computación
Generaciones de computadoras
Primera generación de computadoras
Historia de las computadoras personales
Software
Mujeres en informática
Tecnología
Internet
Computadoras en la ciencia ficción
Internet en la ciencia ficción
Ver el portal sobre Informática Portal:Informática. Contenido relacionado con
Informática.
Referencias
«CIP user site». nces.ed.gov. Consultado el 22 de noviembre de 2019.
Real Academia Española. «Computación». Diccionario de la lengua española (23.ª
edición). Consultado el 13 de agosto de 2014.
«Definition of computer science | Dictionary.com». www.dictionary.com (en inglés).
Consultado el 3 de junio de 2022.
Denning, P.J.; Comer, D.E.; Gries, D.; Mulder, M.C.; Tucker, A.; Turner, A.J.;
Young, P.R. (1989-02). «Computing as a discipline». Computer 22 (2): 63-70. ISSN
0018-9162. doi:10.1109/2.19833. Consultado el 3 de junio de 2022.
«ADICRA: ¿De qué hablamos cuando hablamos de Informática?».
«Curricula Recommendations». Association for Computing Machinery. 2005. Consultado
el 30 de noviembre de 2012.
"Informática, información, y comunicación", en 'Documentación Social: Revista de
Estudios Sociales y de Tecnología Aplicada', n° 108, julio-septiembre 1999
(consultar texto en línea pp. 76-82)
Diego Dikygs, Tratamiento (Automático) de la Información, sitio digital 'Nociones
de Informática', 12 de abril de 2011.
Historia de la Computación, sitio digital 'Monografías'.
Patricio Villalva, ¿Qué es la Informática?, sitio digital 'Informática avanzada'.
Wynn-Williams, C. E. (2 de julio de 1931), «The Use of Thyratrons for High Speed
Automatic Counting of Physical Phenomena», Proceedings of the Royal Society A 132
(819): 295-310, Bibcode:1931RSPSA.132..295W, doi:10.1098/rspa.1931.0102.
Lee, Thomas H. (2003). The Design of CMOS Radio-Frequency Integrated Circuits.
Cambridge University Press. ISBN 9781139643771. Archivado desde el original el 9 de
diciembre de 2019. Consultado el 16 de septiembre de 2019.
Puers, Robert; Baldi, Livio; Voorde, Marcel Van de; Nooten, Sebastiaan E. van
(2017). Nanoelectronics: Materials, Devices, Applications, 2 Volumes. John Wiley &
Sons. p. 14. ISBN 9783527340538.
Lavington, Simon (1998), A History of Manchester Computers (2 edición), Swindon:
The British Computer Society, pp. 34-35.
Moskowitz, Sanford L. (2016). Advanced Materials Innovation: Managing Global
Technology in the 21st century. John Wiley & Sons. pp. 165-167. ISBN 9780470508923.
«1960 - Metal Oxide Semiconductor (MOS) Transistor Demonstrated». The Silicon
Engine (Computer History Museum).
Lojek, Bo (2007). History of Semiconductor Engineering. Springer Science &
Business Media. pp. 321–3. ISBN 9783540342588.
«Who Invented the Transistor?». Computer History Museum. 4 de diciembre de 2013.
Consultado el 20 de julio de 2019.
Hittinger, William C. (1973). «Metal-Oxide-Semiconductor Technology». Scientific
American 229 (2): 48-59. Bibcode:1973SciAm.229b..48H. ISSN 0036-8733. JSTOR
24923169. doi:10.1038/scientificamerican0873-48.

La informática,1 también llamada computación,2 es el área de la ciencia que se


encarga de estudiar la administración de métodos, técnicas y procesos con el fin de
almacenar, procesar y transmitir información y datos en formato digital. La
informática abarca desde disciplinas teóricas (como algoritmos, teoría de la
computación y teoría de la información) hasta disciplinas prácticas (incluido el
diseño y la implementación de hardware y software).3 La informática generalmente se
considera un área de investigación académica y distinta de la programación
informática.4

De esa manera, la informática se refiere al procesamiento automático de


información, dispositivos electrónicos, sistemas computacionales.

El término informática también es sinónimo de contar y calcular. En sus inicios, se


utilizaba para referirse a la acción realizada por máquinas mecánicas de cómputo y,
antes de eso, a calculadoras humanas.

Los sistemas informáticos deben contar con la capacidad de cumplir tres tareas
básicas: entrada (input, captación de la información), procesamiento y salida
(transmisión de los resultados).

No existe una definición consensuada sobre el término. Sin embargo, la Asociación


de Docentes de Informática y Computación de la República Argentina ha tomado una
posición, definiéndola de la siguiente manera: «La informática es la disciplina o
campo de estudio que abarca el conjunto de conocimientos, métodos y técnicas
referentes al tratamiento automático de la información, junto con sus teorías y
aplicaciones prácticas, con el fin de almacenar, procesar y transmitir datos e
información en formato digital utilizando sistemas computacionales. Los datos son
la materia prima para que, mediante su proceso, se obtenga como resultado
información. Para ello, la informática crea y/o emplea sistemas de procesamiento de
datos, que incluyen medios físicos (hardware) en interacción con medios lógicos
(software) y las personas que los programan y/o los usan (humanware)».5

Es por lo que se hace distinción entre este término y las ciencias de la


computación, puesto que el segundo engloba la parte más teórica mientras que
informática se refiere a la aplicabilidad de esta anterior en datos usando
dispositivos electrónicos. De hecho, se definen cinco subdisciplinas del campo de
la informática: ciencias de la computación, ingeniería informática, sistemas de
información, tecnología de la información e ingeniería de software.6

La informática es la forma científica de procesar la información. Este


procesamiento consiste en ordenar, seleccionar, ejecutar cálculos de forma que nos
permita extraer conclusiones de la información manipulada. Procesar información es
transformar datos primarios en información organizada, significativa y útil, que a
su vez está compuesta de datos. La informática, que se ha desarrollado rápidamente
a partir de la segunda mitad del siglo xx con la aparición de tecnologías como el
circuito integrado, el Internet y el teléfono móvil,7 es la rama de la tecnología
que estudia el tratamiento automático de la información.89

En 1957, Karl Steinbuch añadió la palabra alemana Informatik en la publicación de


un documento denominado Informatik: Automatische Informationsverarbeitung
(Informática: procesamiento automático de información).10 El soviético Alexander
Ivanovich Mikhailov fue el primero en utilizar Informatik con el significado de
«estudio, organización y diseminación de la información científica», que sigue
siendo su significado en dicha lengua.10 En inglés, la palabra informatics fue
acuñada independiente y casi simultáneamente por Walter F. Bauer, en 1962, cuando
Bauer cofundó la empresa Informatics General, Inc.10
Toma una encuesta corta y ayúdanos a mejorar Wikipedia

Visita la encuestaNo, gracias


Datos de la encuesta manejados por una tercera parte. Privacidad.
Orígenes de la informática
Artículo principal: Anexo:Historia de la computación
La disciplina de la informática es anterior a la creación de las computadoras. Ya
en la antigüedad se conocían métodos para realizar cálculos matemáticos, por
ejemplo el algoritmo de Euclides. En el siglo xvii comenzaron a inventarse máquinas
calculadoras. La herramienta más antigua conocida para su uso en computación es el
ábaco, y se cree que fue inventado en Babilonia alrededor del 2400 a. C. Su diseño
original de uso fue por líneas dibujadas en arena con guijarros. Esta fue la
primera ayuda de cálculo conocida, precediendo a los métodos griegos por 2000 años.

En el siglo xix se desarrollaron las primeras máquinas programables, es decir, que


el usuario podría modificar la secuencia de acciones a realizar a través de
algoritmos específicos. La primera propuesta registrada para el uso de la
electrónica digital en la informática fue el artículo de 1931 "El uso de tiratrones
para el conteo automático de fenómenos físicos a alta velocidad" de C. E. Wynn-
Williams.11 El artículo de 1938 de Claude Shannon "Un análisis simbólico de los
circuitos de conmutación y relés" introdujo la idea de utilizar la electrónica para
las operaciones de álgebra booleana.

Caja de ordenador con un procesador LGA775 de Intel, con la tarjeta madre, el


ventilador del procesador, la alimentación eléctrica, y la memoria.
El concepto de un transistor de efecto de campo fue propuesto por Julius Edgar
Lilienfeld en 1925. John Bardeen y Walter Brattain, mientras trabajaban con William
Shockley en Bell Labs, construyó el primer transistor en funcionamiento, el
transistor de contacto puntual, en 1947.1213 En 1953, la Universidad de Mánchester
construyó la primera ordenador transistorizado, llamada ordenador de
transistores.14 Sin embargo, los primeros transistores de unión eran dispositivos
relativamente voluminosos que eran difíciles de producir en masa, lo que los
limitaba a una serie de aplicaciones especializadas.15 El transistor de efecto de
campo de óxido de metal-silicio (MOSFET, o transistor MOS) fue inventado por
Mohamed Atalla y Dawon Kahng en Bell Labs en 1959.1617 Fue el primer transistor
verdaderamente compacto que podía ser miniaturizado y producido en masa para una
amplia gama de usos.15 El MOSFET hizo posible construir chiìs de circuitos
integrados de alta densidad,1819 dando lugar a lo que se conoce como la revolución
informática20 o revolución de la microcomputadora.21

En los inicios del procesamiento automático de la información, con la informática


solo se facilitaban los trabajos repetitivos y monótonos del área administrativa.
La automatización de esos procesos trajo como consecuencia directa una disminución
de los costes y un incremento en la productividad. En la informática convergen los
fundamentos de las ciencias de la computación, la programación y también las
metodologías para el desarrollo de software, la arquitectura de las computadoras,
las redes de computadores, la inteligencia artificial y ciertas cuestiones
relacionadas con la electrónica. Se puede entender por informática a la unión
sinérgica de todo este conjunto de disciplinas. Esta disciplina se aplica a
numerosas y variadas áreas del conocimiento o la actividad humana, por ejemplo:
gestión de negocios, almacenamiento y consulta de información; monitorización y
control de procesos, industria, robótica, comunicaciones, control de transportes,
investigación, desarrollo de juegos, diseño computarizado,
aplicaciones/herramientas multimedia, medicina, biología, física, química,
meteorología, ingeniería, arte, etc. Puede tanto facilitar la toma de decisiones a
nivel gerencial (en una empresa) como permitir el control de procesos críticos.
Actualmente, es difícil concebir un área que no esté vinculada o requiera del apoyo
de la informática. Esta puede cubrir un enorme abanico de funciones, que van desde
las más simples cuestiones domésticas hasta los cálculos científicos más complejos.
Entre las funciones principales de la informática se enumeran las siguientes:

Creación de nuevas especificaciones de trabajo.


Desarrollo e implementación de sistemas informáticos.
Sistematización de procesos.
Optimización de los métodos y sistemas informáticos existentes.
Facilitar la automatización de datos y formatos.22
Sistemas de tratamiento de la información
Los sistemas computacionales, generalmente implementados como dispositivos
electrónicos, permiten el procesamiento automático de la información. Conforme a
ello, los sistemas informáticos deben realizar las siguientes tres tareas básicas:

Entrada: captación de la información. Normalmente son datos y órdenes ingresadas


por los usuarios a través de cualquier dispositivo de entrada conectado a la
computadora.
Proceso: tratamiento de la información. Se realiza a través de programas y
aplicaciones diseñadas por programadores que indican de forma secuencial cómo
resolver un requerimiento.
Salida: transmisión de resultados. A través de los dispositivos de salida los
usuarios pueden visualizar los resultados que surgen del procesamiento de los
datos.
Sistema operativo es un conjunto de programas que permite interactuar al usuario
con la computadora.
Sistemas de mando y control, son sistemas basados en la mecánica y motricidad de
dispositivos que permiten al usuario localizar, dentro de la logística, los
elementos que se demandan. Están basados en la electricidad, o sea, no en el
control del flujo del electrón, sino en la continuidad o discontinuidad de una
corriente eléctrica, si es alterna o continua o si es inducida, contra inducida, en
fase o desfase (ver periférico de entrada).
Sistemas de archivo, son sistemas que permiten el almacenamiento a largo plazo de
información que no se demandará por un largo lapso. Estos sistemas usan los
conceptos de biblioteca para localizar la información demandada.
Código ASCII es un método para la correspondencia de cadenas de bits permitiendo de
esta forma la comunicación entre dispositivos digitales así como su proceso y
almacenamiento, en la actualidad todos los sistemas informáticos utilizan el código
ASCII para representar textos, gráficos, audio e infinidad de información para el
control y manipulación de dispositivos digitales.
En un editor de texto presionando las teclas Alt + el número del código ASCII,
aparecerá el carácter correspondiente, solamente funciona en un teclado que tenga
las teclas numéricas.

Véase también
Historia de las ciencias de la computación
Anexo:Historia de la computación
Computadora
Ciencias de la computación
Teoría de la computación
Generaciones de computadoras
Primera generación de computadoras
Historia de las computadoras personales
Software
Mujeres en informática
Tecnología
Internet
Computadoras en la ciencia ficción
Internet en la ciencia ficción
Ver el portal sobre Informática Portal:Informática. Contenido relacionado con
Informática.
Referencias
«CIP user site». nces.ed.gov. Consultado el 22 de noviembre de 2019.
Real Academia Española. «Computación». Diccionario de la lengua española (23.ª
edición). Consultado el 13 de agosto de 2014.
«Definition of computer science | Dictionary.com». www.dictionary.com (en inglés).
Consultado el 3 de junio de 2022.
Denning, P.J.; Comer, D.E.; Gries, D.; Mulder, M.C.; Tucker, A.; Turner, A.J.;
Young, P.R. (1989-02). «Computing as a discipline». Computer 22 (2): 63-70. ISSN
0018-9162. doi:10.1109/2.19833. Consultado el 3 de junio de 2022.
«ADICRA: ¿De qué hablamos cuando hablamos de Informática?».
«Curricula Recommendations». Association for Computing Machinery. 2005. Consultado
el 30 de noviembre de 2012.
"Informática, información, y comunicación", en 'Documentación Social: Revista de
Estudios Sociales y de Tecnología Aplicada', n° 108, julio-septiembre 1999
(consultar texto en línea pp. 76-82)
Diego Dikygs, Tratamiento (Automático) de la Información, sitio digital 'Nociones
de Informática', 12 de abril de 2011.
Historia de la Computación, sitio digital 'Monografías'.
Patricio Villalva, ¿Qué es la Informática?, sitio digital 'Informática avanzada'.
Wynn-Williams, C. E. (2 de julio de 1931), «The Use of Thyratrons for High Speed
Automatic Counting of Physical Phenomena», Proceedings of the Royal Society A 132
(819): 295-310, Bibcode:1931RSPSA.132..295W, doi:10.1098/rspa.1931.0102.
Lee, Thomas H. (2003). The Design of CMOS Radio-Frequency Integrated Circuits.
Cambridge University Press. ISBN 9781139643771. Archivado desde el original el 9 de
diciembre de 2019. Consultado el 16 de septiembre de 2019.
Puers, Robert; Baldi, Livio; Voorde, Marcel Van de; Nooten, Sebastiaan E. van
(2017). Nanoelectronics: Materials, Devices, Applications, 2 Volumes. John Wiley &
Sons. p. 14. ISBN 9783527340538.
Lavington, Simon (1998), A History of Manchester Computers (2 edición), Swindon:
The British Computer Society, pp. 34-35.
Moskowitz, Sanford L. (2016). Advanced Materials Innovation: Managing Global
Technology in the 21st century. John Wiley & Sons. pp. 165-167. ISBN 9780470508923.
«1960 - Metal Oxide Semiconductor (MOS) Transistor Demonstrated». The Silicon
Engine (Computer History Museum).
Lojek, Bo (2007). History of Semiconductor Engineering. Springer Science &
Business Media. pp. 321–3. ISBN 9783540342588.
«Who Invented the Transistor?». Computer History Museum. 4 de diciembre de 2013.
Consultado el 20 de julio de 2019.
Hittinger, William C. (1973). «Metal-Oxide-Semiconductor Technology». Scientific
American 229 (2): 48-59. Bibcode:1973SciAm.229b..48H. ISSN 0036-8733. JSTOR
24923169. doi:10.1038/scientificamerican0873-48.
Fossum, Jerry G.; Trivedi, Vishal P. (2013). Fundamentals of Ultra-Thin-Body
MOSFETs and FinFETs. Cambridge University Press. p. vii. ISBN 9781107434493.
Malmstadt, Howard V.; Enke, Christie G.; Crouch, Stanley R. (1994). Making the
Right Connections: Microcomputers and Electronic Instrumentation. American Chemical
Society. p. 389. ISBN 9780841228610. «The relative simplicity and low power
requirements of MOSFETs have fostered today's microcomputer revolution. »
Salamanca Al Día (9 de enero de 2020). «Informática, un sector con salidas
únicas». Archivado desde el original el 9 de marzo de 2018. Consultado el 6 de
marzo de

La informática,1 también llamada computación,2 es el área de la ciencia que se


encarga de estudiar la administración de métodos, técnicas y procesos con el fin de
almacenar, procesar y transmitir información y datos en formato digital. La
informática abarca desde disciplinas teóricas (como algoritmos, teoría de la
computación y teoría de la información) hasta disciplinas prácticas (incluido el
diseño y la implementación de hardware y software).3 La informática generalmente se
considera un área de investigación académica y distinta de la programación
informática.4

De esa manera, la informática se refiere al procesamiento automático de


información, dispositivos electrónicos, sistemas computacionales.

El término informática también es sinónimo de contar y calcular. En sus inicios, se


utilizaba para referirse a la acción realizada por máquinas mecánicas de cómputo y,
antes de eso, a calculadoras humanas.

Los sistemas informáticos deben contar con la capacidad de cumplir tres tareas
básicas: entrada (input, captación de la información), procesamiento y salida
(transmisión de los resultados).

No existe una definición consensuada sobre el término. Sin embargo, la Asociación


de Docentes de Informática y Computación de la República Argentina ha tomado una
posición, definiéndola de la siguiente manera: «La informática es la disciplina o
campo de estudio que abarca el conjunto de conocimientos, métodos y técnicas
referentes al tratamiento automático de la información, junto con sus teorías y
aplicaciones prácticas, con el fin de almacenar, procesar y transmitir datos e
información en formato digital utilizando sistemas computacionales. Los datos son
la materia prima para que, mediante su proceso, se obtenga como resultado
información. Para ello, la informática crea y/o emplea sistemas de procesamiento de
datos, que incluyen medios físicos (hardware) en interacción con medios lógicos
(software) y las personas que los programan y/o los usan (humanware)».5

Es por lo que se hace distinción entre este término y las ciencias de la


computación, puesto que el segundo engloba la parte más teórica mientras que
informática se refiere a la aplicabilidad de esta anterior en datos usando
dispositivos electrónicos. De hecho, se definen cinco subdisciplinas del campo de
la informática: ciencias de la computación, ingeniería informática, sistemas de
información, tecnología de la información e ingeniería de software.6

La informática es la forma científica de procesar la información. Este


procesamiento consiste en ordenar, seleccionar, ejecutar cálculos de forma que nos
permita extraer conclusiones de la información manipulada. Procesar información es
transformar datos primarios en información organizada, significativa y útil, que a
su vez está compuesta de datos. La informática, que se ha desarrollado rápidamente
a partir de la segunda mitad del siglo xx con la aparición de tecnologías como el
circuito integrado, el Internet y el teléfono móvil,7 es la rama de la tecnología
que estudia el tratamiento automático de la información.89

En 1957, Karl Steinbuch añadió la palabra alemana Informatik en la publicación de


un documento denominado Informatik: Automatische Informationsverarbeitung
(Informática: procesamiento automático de información).10 El soviético Alexander
Ivanovich Mikhailov fue el primero en utilizar Informatik con el significado de
«estudio, organización y diseminación de la información científica», que sigue
siendo su significado en dicha lengua.10 En inglés, la palabra informatics fue
acuñada independiente y casi simultáneamente por Walter F. Bauer, en 1962, cuando
Bauer cofundó la empresa Informatics General, Inc.10

Toma una encuesta corta y ayúdanos a mejorar Wikipedia

Visita la encuestaNo, gracias


Datos de la encuesta manejados por una tercera parte. Privacidad.
Orígenes de la informática
Artículo principal: Anexo:Historia de la computación
La disciplina de la informática es anterior a la creación de las computadoras. Ya
en la antigüedad se conocían métodos para realizar cálculos matemáticos, por
ejemplo el algoritmo de Euclides. En el siglo xvii comenzaron a inventarse máquinas
calculadoras. La herramienta más antigua conocida para su uso en computación es el
ábaco, y se cree que fue inventado en Babilonia alrededor del 2400 a. C. Su diseño
original de uso fue por líneas dibujadas en arena con guijarros. Esta fue la
primera ayuda de cálculo conocida, precediendo a los métodos griegos por 2000 años.

En el siglo xix se desarrollaron las primeras máquinas programables, es decir, que


el usuario podría modificar la secuencia de acciones a realizar a través de
algoritmos específicos. La primera propuesta registrada para el uso de la
electrónica digital en la informática fue el artículo de 1931 "El uso de tiratrones
para el conteo automático de fenómenos físicos a alta velocidad" de C. E. Wynn-
Williams.11 El artículo de 1938 de Claude Shannon "Un análisis simbólico de los
circuitos de conmutación y relés" introdujo la idea de utilizar la electrónica para
las operaciones de álgebra booleana.

Caja de ordenador con un procesador LGA775 de Intel, con la tarjeta madre, el


ventilador del procesador, la alimentación eléctrica, y la memoria.
El concepto de un transistor de efecto de campo fue propuesto por Julius Edgar
Lilienfeld en 1925. John Bardeen y Walter Brattain, mientras trabajaban con William
Shockley en Bell Labs, construyó el primer transistor en funcionamiento, el
transistor de contacto puntual, en 1947.1213 En 1953, la Universidad de Mánchester
construyó la primera ordenador transistorizado, llamada ordenador de
transistores.14 Sin embargo, los primeros transistores de unión eran dispositivos
relativamente voluminosos que eran difíciles de producir en masa, lo que los
limitaba a una serie de aplicaciones especializadas.15 El transistor de efecto de
campo de óxido de metal-silicio (MOSFET, o transistor MOS) fue inventado por
Mohamed Atalla y Dawon Kahng en Bell Labs en 1959.1617 Fue el primer transistor
verdaderamente compacto que podía ser miniaturizado y producido en masa para una
amplia gama de usos.15 El MOSFET hizo posible construir chiìs de circuitos
integrados de alta densidad,1819 dando lugar a lo que se conoce como la revolución
informática20 o revolución de la microcomputadora.21

En los inicios del procesamiento automático de la información, con la informática


solo se facilitaban los trabajos repetitivos y monótonos del área administrativa.
La automatización de esos procesos trajo como consecuencia directa una disminución
de los costes y un incremento en la productividad. En la informática convergen los
fundamentos de las ciencias de la computación, la programación y también las
metodologías para el desarrollo de software, la arquitectura de las computadoras,
las redes de computadores, la inteligencia artificial y ciertas cuestiones
relacionadas con la electrónica. Se puede entender por informática a la unión
sinérgica de todo este conjunto de disciplinas. Esta disciplina se aplica a
numerosas y variadas áreas del conocimiento o la actividad humana, por ejemplo:
gestión de negocios, almacenamiento y consulta de información; monitorización y
control de procesos, industria, robótica, comunicaciones, control de transportes,
investigación, desarrollo de juegos, diseño computarizado,
aplicaciones/herramientas multimedia, medicina, biología, física, química,
meteorología, ingeniería, arte, etc. Puede tanto facilitar la toma de decisiones a
nivel gerencial (en una empresa) como permitir el control de procesos críticos.
Actualmente, es difícil concebir un área que no esté vinculada o requiera del apoyo
de la informática. Esta puede cubrir un enorme abanico de funciones, que van desde
las más simples cuestiones domésticas hasta los cálculos científicos más complejos.
Entre las funciones principales de la informática se enumeran las siguientes:

Creación de nuevas especificaciones de trabajo.


Desarrollo e implementación de sistemas informáticos.
Sistematización de procesos.
Optimización de los métodos y sistemas informáticos existentes.
Facilitar la automatización de datos y formatos.22
Sistemas de tratamiento de la información
Los sistemas computacionales, generalmente implementados como dispositivos
electrónicos, permiten el procesamiento automático de la información. Conforme a
ello, los sistemas informáticos deben realizar las siguientes tres tareas básicas:

Entrada: captación de la información. Normalmente son datos y órdenes ingresadas


por los usuarios a través de cualquier dispositivo de entrada conectado a la
computadora.
Proceso: tratamiento de la información. Se realiza a través de programas y
aplicaciones diseñadas por programadores que indican de forma secuencial cómo
resolver un requerimiento.
Salida: transmisión de resultados. A través de los dispositivos de salida los
usuarios pueden visualizar los resultados que surgen del procesamiento de los
datos.
Sistema operativo es un conjunto de programas que permite interactuar al usuario
con la computadora.
Sistemas de mando y control, son sistemas basados en la mecánica y motricidad de
dispositivos que permiten al usuario localizar, dentro de la logística, los
elementos que se demandan. Están basados en la electricidad, o sea, no en el
control del flujo del electrón, sino en la continuidad o discontinuidad de una
corriente eléctrica, si es alterna o continua o si es inducida, contra inducida, en
fase o desfase (ver periférico de entrada).
Sistemas de archivo, son sistemas que permiten el almacenamiento a largo plazo de
información que no se demandará por un largo lapso. Estos sistemas usan los
conceptos de biblioteca para localizar la información demandada.
Código ASCII es un método para la correspondencia de cadenas de bits permitiendo de
esta forma la comunicación entre dispositivos digitales así como su proceso y
almacenamiento, en la actualidad todos los sistemas informáticos utilizan el código
ASCII para representar textos, gráficos, audio e infinidad de información para el
control y manipulación de dispositivos digitales.
En un editor de texto presionando las teclas Alt + el número del código ASCII,
aparecerá el carácter correspondiente, solamente funciona en un teclado que tenga
las teclas numéricas.

Véase también
Historia de las ciencias de la computación
Anexo:Historia de la computación
Computadora
Ciencias de la computación
Teoría de la computación
Generaciones de computadoras
Primera generación de computadoras
Historia de las computadoras personales
Software
Mujeres en informática
Tecnología
Internet
Computadoras en la ciencia ficción
Internet en la ciencia ficción
Ver el portal sobre Informática Portal:Informática. Contenido relacionado con
Informática.
Referencias
«CIP user site». nces.ed.gov. Consultado el 22 de noviembre de 2019.
Real Academia Española. «Computación». Diccionario de la lengua española (23.ª
edición). Consultado el 13 de agosto de 2014.
«Definition of computer science | Dictionary.com». www.dictionary.com (en inglés).
Consultado el 3 de junio de 2022.
Denning, P.J.; Comer, D.E.; Gries, D.; Mulder, M.C.; Tucker, A.; Turner, A.J.;
Young, P.R. (1989-02). «Computing as a discipline». Computer 22 (2): 63-70. ISSN
0018-9162. doi:10.1109/2.19833. Consultado el 3 de junio de 2022.
«ADICRA: ¿De qué hablamos cuando hablamos de Informática?».
«Curricula Recommendations». Association for Computing Machinery. 2005. Consultado
el 30 de noviembre de 2012.
"Informática, información, y comunicación", en 'Documentación Social: Revista de
Estudios Sociales y de Tecnología Aplicada', n° 108, julio-septiembre 1999
(consultar texto en línea pp. 76-82)
Diego Dikygs, Tratamiento (Automático) de la Información, sitio digital 'Nociones
de Informática', 12 de abril de 2011.
Historia de la Computación, sitio digital 'Monografías'.
Patricio Villalva, ¿Qué es la Informática?, sitio digital 'Informática avanzada'.
Wynn-Williams, C. E. (2 de julio de 1931), «The Use of Thyratrons for High Speed
Automatic Counting of Physical Phenomena», Proceedings of the Royal Society A 132
(819): 295-310, Bibcode:1931RSPSA.132..295W, doi:10.1098/rspa.1931.0102.
Lee, Thomas H. (2003). The Design of CMOS Radio-Frequency Integrated Circuits.
Cambridge University Press. ISBN 9781139643771. Archivado desde el original el 9 de
diciembre de 2019. Consultado el 16 de septiembre de 2019.
Puers, Robert; Baldi, Livio; Voorde, Marcel Van de; Nooten, Sebastiaan E. van
(2017). Nanoelectronics: Materials, Devices, Applications, 2 Volumes. John Wiley &
Sons. p. 14. ISBN 9783527340538.
Lavington, Simon (1998), A History of Manchester Computers (2 edición), Swindon:
The British Computer Society, pp. 34-35.
Moskowitz, Sanford L. (2016). Advanced Materials Innovation: Managing Global
Technology in the 21st century. John Wiley & Sons. pp. 165-167. ISBN 9780470508923.
«1960 - Metal Oxide Semiconductor (MOS) Transistor Demonstrated». The Silicon
Engine (Computer History Museum).
Lojek, Bo (2007). History of Semiconductor Engineering. Springer Science &
Business Media. pp. 321–3. ISBN 9783540342588.
«Who Invented the Transistor?». Computer History Museum. 4 de diciembre de 2013.
Consultado el 20 de julio de 2019.
Hittinger, William C. (1973). «Metal-Oxide-Semiconductor Technology». Scientific
American 229 (2): 48-59. Bibcode:1973SciAm.229b..48H. ISSN 0036-8733. JSTOR
24923169. doi:10.1038/scientificamerican0873-48.
Fossum, Jerry G.; Trivedi, Vishal P. (2013). Fundamentals of Ultra-Thin-Body
MOSFETs and FinFETs. Cambridge University Press. p. vii. ISBN 9781107434493.
Malmstadt, Howard V.; Enke, Christie G.; Crouch, Stanley R. (1994). Making the
Right Connections: Microcomputers and Electronic Instrumentation. American Chemical
Society. p. 389. ISBN 9780841228610. «The relative simplicity and low power
requirements of MOSFETs have fostered today's microcomputer revolution. »
Salamanca Al Día (9 de enero de 2020). «Informática, un sector con salidas
únicas». Archivado desde el original el 9 de marzo de 2018. Consultado el 6 de
marzo de
Fossum, Jerry G.; Trivedi, Vishal P. (2013). Fundamentals of Ultra-Thin-Body
MOSFETs and FinFETs. Cambridge University Press. p. vii. ISBN 9781107434493.
Malmstadt, Howard V.; Enke, Christie G.; Crouch, Stanley R. (1994). Making the
Right Connections: Microcomputers and Electronic Instrumentation. American Chemical
Society. p. 389. ISBN 9780841228610. «The relative simplicity and low power
requirements of MOSFETs have fostered today's microcomputer revolution. »
Salamanca Al Día (9 de enero de 2020). «Informática, un sector con salidas
únicas». Archivado desde el original el 9 de marzo de 2018. Consultado el 6 de
marzo de
Salamanca Al Día (9 de enero de 2020). «Informática, un sector con salidas
únicas». Archivado desde el original el 9 de marzo de 2018. Consultado el 6 de
marzo de

La informática,1 también llamada computación,2 es el área de la ciencia que se


encarga de estudiar la administración de métodos, técnicas y procesos con el fin de
almacenar, procesar y transmitir información y datos en formato digital. La
informática abarca desde disciplinas teóricas (como algoritmos, teoría de la
computación y teoría de la información) hasta disciplinas prácticas (incluido el
diseño y la implementación de hardware y software).3 La informática generalmente se
considera un área de investigación académica y distinta de la programación
informática.4

La informática,1 también llamada computación,2 es el área de la ciencia que se


encarga de estudiar la administración de métodos, técnicas y procesos con el fin de
almacenar, procesar y transmitir información y datos en formato digital. La
informática abarca desde disciplinas teóricas (como algoritmos, teoría de la
computación y teoría de la información) hasta disciplinas prácticas (incluido el
diseño y la implementación de hardware y software).3 La informática generalmente se
considera un área de investigación académica y distinta de la programación
informática.4

De esa manera, la informática se refiere al procesamiento automático de


información, dispositivos electrónicos, sistemas computacionales.

El término informática también es sinónimo de contar y calcular. En sus inicios, se


utilizaba para referirse a la acción realizada por máquinas mecánicas de cómputo y,
antes de eso, a calculadoras humanas.

Los sistemas informáticos deben contar con la capacidad de cumplir tres tareas
básicas: entrada (input, captación de la información), procesamiento y salida
(transmisión de los resultados).

No existe una definición consensuada sobre el término. Sin embargo, la Asociación


de Docentes de Informática y Computación de la República Argentina ha tomado una
posición, definiéndola de la siguiente manera: «La informática es la disciplina o
campo de estudio que abarca el conjunto de conocimientos, métodos y técnicas
referentes al tratamiento automático de la información, junto con sus teorías y
aplicaciones prácticas, con el fin de almacenar, procesar y transmitir datos e
información en formato digital utilizando sistemas computacionales. Los datos son
la materia prima para que, mediante su proceso, se obtenga como resultado
información. Para ello, la informática crea y/o emplea sistemas de procesamiento de
datos, que incluyen medios físicos (hardware) en interacción con medios lógicos
(software) y las personas que los programan y/o los usan (humanware)».5

Es por lo que se hace distinción entre este término y las ciencias de la


computación, puesto que el segundo engloba la parte más teórica mientras que
informática se refiere a la aplicabilidad de esta anterior en datos usando
dispositivos electrónicos. De hecho, se definen cinco subdisciplinas del campo de
la informática: ciencias de la computación, ingeniería informática, sistemas de
información, tecnología de la información e ingeniería de software.6

La informática es la forma científica de procesar la información. Este


procesamiento consiste en ordenar, seleccionar, ejecutar cálculos de forma que nos
permita extraer conclusiones de la información manipulada. Procesar información es
transformar datos primarios en información organizada, significativa y útil, que a
su vez está compuesta de datos. La informática, que se ha desarrollado rápidamente
a partir de la segunda mitad del siglo xx con la aparición de tecnologías como el
circuito integrado, el Internet y el teléfono móvil,7 es la rama de la tecnología
que estudia el tratamiento automático de la información.89

En 1957, Karl Steinbuch añadió la palabra alemana Informatik en la publicación de


un documento denominado Informatik: Automatische Informationsverarbeitung
(Informática: procesamiento automático de información).10 El soviético Alexander
Ivanovich Mikhailov fue el primero en utilizar Informatik con el significado de
«estudio, organización y diseminación de la información científica», que sigue
siendo su significado en dicha lengua.10 En inglés, la palabra informatics fue
acuñada independiente y casi simultáneamente por Walter F. Bauer, en 1962, cuando
Bauer cofundó la empresa Informatics General, Inc.10

Toma una encuesta corta y ayúdanos a mejorar Wikipedia

Visita la encuestaNo, gracias


Datos de la encuesta manejados por una tercera parte. Privacidad.
Orígenes de la informática
Artículo principal: Anexo:Historia de la computación
La disciplina de la informática es anterior a la creación de las computadoras. Ya
en la antigüedad se conocían métodos para realizar cálculos matemáticos, por
ejemplo el algoritmo de Euclides. En el siglo xvii comenzaron a inventarse máquinas
calculadoras. La herramienta más antigua conocida para su uso en computación es el
ábaco, y se cree que fue inventado en Babilonia alrededor del 2400 a. C. Su diseño
original de uso fue por líneas dibujadas en arena con guijarros. Esta fue la
primera ayuda de cálculo conocida, precediendo a los métodos griegos por 2000 años.

En el siglo xix se desarrollaron las primeras máquinas programables, es decir, que


el usuario podría modificar la secuencia de acciones a realizar a través de
algoritmos específicos. La primera propuesta registrada para el uso de la
electrónica digital en la informática fue el artículo de 1931 "El uso de tiratrones
para el conteo automático de fenómenos físicos a alta velocidad" de C. E. Wynn-
Williams.11 El artículo de 1938 de Claude Shannon "Un análisis simbólico de los
circuitos de conmutación y relés" introdujo la idea de utilizar la electrónica para
las operaciones de álgebra booleana.

Caja de ordenador con un procesador LGA775 de Intel, con la tarjeta madre, el


ventilador del procesador, la alimentación eléctrica, y la memoria.
El concepto de un transistor de efecto de campo fue propuesto por Julius Edgar
Lilienfeld en 1925. John Bardeen y Walter Brattain, mientras trabajaban con William
Shockley en Bell Labs, construyó el primer transistor en funcionamiento, el
transistor de contacto puntual, en 1947.1213 En 1953, la Universidad de Mánchester
construyó la primera ordenador transistorizado, llamada ordenador de
transistores.14 Sin embargo, los primeros transistores de unión eran dispositivos
relativamente voluminosos que eran difíciles de producir en masa, lo que los
limitaba a una serie de aplicaciones especializadas.15 El transistor de efecto de
campo de óxido de metal-silicio (MOSFET, o transistor MOS) fue inventado por
Mohamed Atalla y Dawon Kahng en Bell Labs en 1959.1617 Fue el primer transistor
verdaderamente compacto que podía ser miniaturizado y producido en masa para una
amplia gama de usos.15 El MOSFET hizo posible construir chiìs de circuitos
integrados de alta densidad,1819 dando lugar a lo que se conoce como la revolución
informática20 o revolución de la microcomputadora.21

En los inicios del procesamiento automático de la información, con la informática


solo se facilitaban los trabajos repetitivos y monótonos del área administrativa.
La automatización de esos procesos trajo como consecuencia directa una disminución
de los costes y un incremento en la productividad. En la informática convergen los
fundamentos de las ciencias de la computación, la programación y también las
metodologías para el desarrollo de software, la arquitectura de las computadoras,
las redes de computadores, la inteligencia artificial y ciertas cuestiones
relacionadas con la electrónica. Se puede entender por informática a la unión
sinérgica de todo este conjunto de disciplinas. Esta disciplina se aplica a
numerosas y variadas áreas del conocimiento o la actividad humana, por ejemplo:
gestión de negocios, almacenamiento y consulta de información; monitorización y
control de procesos, industria, robótica, comunicaciones, control de transportes,
investigación, desarrollo de juegos, diseño computarizado,
aplicaciones/herramientas multimedia, medicina, biología, física, química,
meteorología, ingeniería, arte, etc. Puede tanto facilitar la toma de decisiones a
nivel gerencial (en una empresa) como permitir el control de procesos críticos.
Actualmente, es difícil concebir un área que no esté vinculada o requiera del apoyo
de la informática. Esta puede cubrir un enorme abanico de funciones, que van desde
las más simples cuestiones domésticas hasta los cálculos científicos más complejos.
Entre las funciones principales de la informática se enumeran las siguientes:

Creación de nuevas especificaciones de trabajo.


Desarrollo e implementación de sistemas informáticos.
Sistematización de procesos.
Optimización de los métodos y sistemas informáticos existentes.
Facilitar la automatización de datos y formatos.22
Sistemas de tratamiento de la información
Los sistemas computacionales, generalmente implementados como dispositivos
electrónicos, permiten el procesamiento automático de la información. Conforme a
ello, los sistemas informáticos deben realizar las siguientes tres tareas básicas:

Entrada: captación de la información. Normalmente son datos y órdenes ingresadas


por los usuarios a través de cualquier dispositivo de entrada conectado a la
computadora.
Proceso: tratamiento de la información. Se realiza a través de programas y
aplicaciones diseñadas por programadores que indican de forma secuencial cómo
resolver un requerimiento.
Salida: transmisión de resultados. A través de los dispositivos de salida los
usuarios pueden visualizar los resultados que surgen del procesamiento de los
datos.
Sistema operativo es un conjunto de programas que permite interactuar al usuario
con la computadora.
Sistemas de mando y control, son sistemas basados en la mecánica y motricidad de
dispositivos que permiten al usuario localizar, dentro de la logística, los
elementos que se demandan. Están basados en la electricidad, o sea, no en el
control del flujo del electrón, sino en la continuidad o discontinuidad de una
corriente eléctrica, si es alterna o continua o si es inducida, contra inducida, en
fase o desfase (ver periférico de entrada).
Sistemas de archivo, son sistemas que permiten el almacenamiento a largo plazo de
información que no se demandará por un largo lapso. Estos sistemas usan los
conceptos de biblioteca para localizar la información demandada.
Código ASCII es un método para la correspondencia de cadenas de bits permitiendo de
esta forma la comunicación entre dispositivos digitales así como su proceso y
almacenamiento, en la actualidad todos los sistemas informáticos utilizan el código
ASCII para representar textos, gráficos, audio e infinidad de información para el
control y manipulación de dispositivos digitales.
En un editor de texto presionando las teclas Alt + el número del código ASCII,
aparecerá el carácter correspondiente, solamente funciona en un teclado que tenga
las teclas numéricas.

Véase también
Historia de las ciencias de la computación
Anexo:Historia de la computación
Computadora
Ciencias de la computación
Teoría de la computación
Generaciones de computadoras
Primera generación de computadoras
Historia de las computadoras personales
Software
Mujeres en informática
Tecnología
Internet
Computadoras en la ciencia ficción
Internet en la ciencia ficción
Ver el portal sobre Informática Portal:Informática. Contenido relacionado con
Informática.
Referencias
«CIP user site». nces.ed.gov. Consultado el 22 de noviembre de 2019.
Real Academia Española. «Computación». Diccionario de la lengua española (23.ª
edición). Consultado el 13 de agosto de 2014.
«Definition of computer science | Dictionary.com». www.dictionary.com (en inglés).
Consultado el 3 de junio de 2022.
Denning, P.J.; Comer, D.E.; Gries, D.; Mulder, M.C.; Tucker, A.; Turner, A.J.;
Young, P.R. (1989-02). «Computing as a discipline». Computer 22 (2): 63-70. ISSN
0018-9162. doi:10.1109/2.19833. Consultado el 3 de junio de 2022.
«ADICRA: ¿De qué hablamos cuando hablamos de Informática?».
«Curricula Recommendations». Association for Computing Machinery. 2005. Consultado
el 30 de noviembre de 2012.
"Informática, información, y comunicación", en 'Documentación Social: Revista de
Estudios Sociales y de Tecnología Aplicada', n° 108, julio-septiembre 1999
(consultar texto en línea pp. 76-82)
Diego Dikygs, Tratamiento (Automático) de la Información, sitio digital 'Nociones
de Informática', 12 de abril de 2011.
Historia de la Computación, sitio digital 'Monografías'.
Patricio Villalva, ¿Qué es la Informática?, sitio digital 'Informática avanzada'.
Wynn-Williams, C. E. (2 de julio de 1931), «The Use of Thyratrons for High Speed
Automatic Counting of Physical Phenomena», Proceedings of the Royal Society A 132
(819): 295-310, Bibcode:1931RSPSA.132..295W, doi:10.1098/rspa.1931.0102.
Lee, Thomas H. (2003). The Design of CMOS Radio-Frequency Integrated Circuits.
Cambridge University Press. ISBN 9781139643771. Archivado desde el original el 9 de
diciembre de 2019. Consultado el 16 de septiembre de 2019.
Puers, Robert; Baldi, Livio; Voorde, Marcel Van de; Nooten, Sebastiaan E. van
(2017). Nanoelectronics: Materials, Devices, Applications, 2 Volumes. John Wiley &
Sons. p. 14. ISBN 9783527340538.
Lavington, Simon (1998), A History of Manchester Computers (2 edición), Swindon:
The British Computer Society, pp. 34-35.
Moskowitz, Sanford L. (2016). Advanced Materials Innovation: Managing Global
Technology in the 21st century. John Wiley & Sons. pp. 165-167. ISBN 9780470508923.
«1960 - Metal Oxide Semiconductor (MOS) Transistor Demonstrated». The Silicon
Engine (Computer History Museum).
Lojek, Bo (2007). History of Semiconductor Engineering. Springer Science &
Business Media. pp. 321–3. ISBN 9783540342588.
«Who Invented the Transistor?». Computer History Museum. 4 de diciembre de 2013.
Consultado el 20 de julio de 2019.
Hittinger, William C. (1973). «Metal-Oxide-Semiconductor Technology». Scientific
American 229 (2): 48-59. Bibcode:1973SciAm.229b..48H. ISSN 0036-8733. JSTOR
24923169. doi:10.1038/scientificamerican0873-48.

La informática,1 también llamada computación,2 es el área de la ciencia que se


encarga de estudiar la administración de métodos, técnicas y procesos con el fin de
almacenar, procesar y transmitir información y datos en formato digital. La
informática abarca desde disciplinas teóricas (como algoritmos, teoría de la
computación y teoría de la información) hasta disciplinas prácticas (incluido el
diseño y la implementación de hardware y software).3 La informática generalmente se
considera un área de investigación académica y distinta de la programación
informática.4

De esa manera, la informática se refiere al procesamiento automático de


información, dispositivos electrónicos, sistemas computacionales.
El término informática también es sinónimo de contar y calcular. En sus inicios, se
utilizaba para referirse a la acción realizada por máquinas mecánicas de cómputo y,
antes de eso, a calculadoras humanas.

Los sistemas informáticos deben contar con la capacidad de cumplir tres tareas
básicas: entrada (input, captación de la información), procesamiento y salida
(transmisión de los resultados).

No existe una definición consensuada sobre el término. Sin embargo, la Asociación


de Docentes de Informática y Computación de la República Argentina ha tomado una
posición, definiéndola de la siguiente manera: «La informática es la disciplina o
campo de estudio que abarca el conjunto de conocimientos, métodos y técnicas
referentes al tratamiento automático de la información, junto con sus teorías y
aplicaciones prácticas, con el fin de almacenar, procesar y transmitir datos e
información en formato digital utilizando sistemas computacionales. Los datos son
la materia prima para que, mediante su proceso, se obtenga como resultado
información. Para ello, la informática crea y/o emplea sistemas de procesamiento de
datos, que incluyen medios físicos (hardware) en interacción con medios lógicos
(software) y las personas que los programan y/o los usan (humanware)».5

Es por lo que se hace distinción entre este término y las ciencias de la


computación, puesto que el segundo engloba la parte más teórica mientras que
informática se refiere a la aplicabilidad de esta anterior en datos usando
dispositivos electrónicos. De hecho, se definen cinco subdisciplinas del campo de
la informática: ciencias de la computación, ingeniería informática, sistemas de
información, tecnología de la información e ingeniería de software.6

La informática es la forma científica de procesar la información. Este


procesamiento consiste en ordenar, seleccionar, ejecutar cálculos de forma que nos
permita extraer conclusiones de la información manipulada. Procesar información es
transformar datos primarios en información organizada, significativa y útil, que a
su vez está compuesta de datos. La informática, que se ha desarrollado rápidamente
a partir de la segunda mitad del siglo xx con la aparición de tecnologías como el
circuito integrado, el Internet y el teléfono móvil,7 es la rama de la tecnología
que estudia el tratamiento automático de la información.89

En 1957, Karl Steinbuch añadió la palabra alemana Informatik en la publicación de


un documento denominado Informatik: Automatische Informationsverarbeitung
(Informática: procesamiento automático de información).10 El soviético Alexander
Ivanovich Mikhailov fue el primero en utilizar Informatik con el significado de
«estudio, organización y diseminación de la información científica», que sigue
siendo su significado en dicha lengua.10 En inglés, la palabra informatics fue
acuñada independiente y casi simultáneamente por Walter F. Bauer, en 1962, cuando
Bauer cofundó la empresa Informatics General, Inc.10

Toma una encuesta corta y ayúdanos a mejorar Wikipedia

Visita la encuestaNo, gracias


Datos de la encuesta manejados por una tercera parte. Privacidad.
Orígenes de la informática
Artículo principal: Anexo:Historia de la computación
La disciplina de la informática es anterior a la creación de las computadoras. Ya
en la antigüedad se conocían métodos para realizar cálculos matemáticos, por
ejemplo el algoritmo de Euclides. En el siglo xvii comenzaron a inventarse máquinas
calculadoras. La herramienta más antigua conocida para su uso en computación es el
ábaco, y se cree que fue inventado en Babilonia alrededor del 2400 a. C. Su diseño
original de uso fue por líneas dibujadas en arena con guijarros. Esta fue la
primera ayuda de cálculo conocida, precediendo a los métodos griegos por 2000 años.
En el siglo xix se desarrollaron las primeras máquinas programables, es decir, que
el usuario podría modificar la secuencia de acciones a realizar a través de
algoritmos específicos. La primera propuesta registrada para el uso de la
electrónica digital en la informática fue el artículo de 1931 "El uso de tiratrones
para el conteo automático de fenómenos físicos a alta velocidad" de C. E. Wynn-
Williams.11 El artículo de 1938 de Claude Shannon "Un análisis simbólico de los
circuitos de conmutación y relés" introdujo la idea de utilizar la electrónica para
las operaciones de álgebra booleana.

Caja de ordenador con un procesador LGA775 de Intel, con la tarjeta madre, el


ventilador del procesador, la alimentación eléctrica, y la memoria.
El concepto de un transistor de efecto de campo fue propuesto por Julius Edgar
Lilienfeld en 1925. John Bardeen y Walter Brattain, mientras trabajaban con William
Shockley en Bell Labs, construyó el primer transistor en funcionamiento, el
transistor de contacto puntual, en 1947.1213 En 1953, la Universidad de Mánchester
construyó la primera ordenador transistorizado, llamada ordenador de
transistores.14 Sin embargo, los primeros transistores de unión eran dispositivos
relativamente voluminosos que eran difíciles de producir en masa, lo que los
limitaba a una serie de aplicaciones especializadas.15 El transistor de efecto de
campo de óxido de metal-silicio (MOSFET, o transistor MOS) fue inventado por
Mohamed Atalla y Dawon Kahng en Bell Labs en 1959.1617 Fue el primer transistor
verdaderamente compacto que podía ser miniaturizado y producido en masa para una
amplia gama de usos.15 El MOSFET hizo posible construir chiìs de circuitos
integrados de alta densidad,1819 dando lugar a lo que se conoce como la revolución
informática20 o revolución de la microcomputadora.21

En los inicios del procesamiento automático de la información, con la informática


solo se facilitaban los trabajos repetitivos y monótonos del área administrativa.
La automatización de esos procesos trajo como consecuencia directa una disminución
de los costes y un incremento en la productividad. En la informática convergen los
fundamentos de las ciencias de la computación, la programación y también las
metodologías para el desarrollo de software, la arquitectura de las computadoras,
las redes de computadores, la inteligencia artificial y ciertas cuestiones
relacionadas con la electrónica. Se puede entender por informática a la unión
sinérgica de todo este conjunto de disciplinas. Esta disciplina se aplica a
numerosas y variadas áreas del conocimiento o la actividad humana, por ejemplo:
gestión de negocios, almacenamiento y consulta de información; monitorización y
control de procesos, industria, robótica, comunicaciones, control de transportes,
investigación, desarrollo de juegos, diseño computarizado,
aplicaciones/herramientas multimedia, medicina, biología, física, química,
meteorología, ingeniería, arte, etc. Puede tanto facilitar la toma de decisiones a
nivel gerencial (en una empresa) como permitir el control de procesos críticos.
Actualmente, es difícil concebir un área que no esté vinculada o requiera del apoyo
de la informática. Esta puede cubrir un enorme abanico de funciones, que van desde
las más simples cuestiones domésticas hasta los cálculos científicos más complejos.
Entre las funciones principales de la informática se enumeran las siguientes:

Creación de nuevas especificaciones de trabajo.


Desarrollo e implementación de sistemas informáticos.
Sistematización de procesos.
Optimización de los métodos y sistemas informáticos existentes.
Facilitar la automatización de datos y formatos.22
Sistemas de tratamiento de la información
Los sistemas computacionales, generalmente implementados como dispositivos
electrónicos, permiten el procesamiento automático de la información. Conforme a
ello, los sistemas informáticos deben realizar las siguientes tres tareas básicas:

Entrada: captación de la información. Normalmente son datos y órdenes ingresadas


por los usuarios a través de cualquier dispositivo de entrada conectado a la
computadora.
Proceso: tratamiento de la información. Se realiza a través de programas y
aplicaciones diseñadas por programadores que indican de forma secuencial cómo
resolver un requerimiento.
Salida: transmisión de resultados. A través de los dispositivos de salida los
usuarios pueden visualizar los resultados que surgen del procesamiento de los
datos.
Sistema operativo es un conjunto de programas que permite interactuar al usuario
con la computadora.
Sistemas de mando y control, son sistemas basados en la mecánica y motricidad de
dispositivos que permiten al usuario localizar, dentro de la logística, los
elementos que se demandan. Están basados en la electricidad, o sea, no en el
control del flujo del electrón, sino en la continuidad o discontinuidad de una
corriente eléctrica, si es alterna o continua o si es inducida, contra inducida, en
fase o desfase (ver periférico de entrada).
Sistemas de archivo, son sistemas que permiten el almacenamiento a largo plazo de
información que no se demandará por un largo lapso. Estos sistemas usan los
conceptos de biblioteca para localizar la información demandada.
Código ASCII es un método para la correspondencia de cadenas de bits permitiendo de
esta forma la comunicación entre dispositivos digitales así como su proceso y
almacenamiento, en la actualidad todos los sistemas informáticos utilizan el código
ASCII para representar textos, gráficos, audio e infinidad de información para el
control y manipulación de dispositivos digitales.
En un editor de texto presionando las teclas Alt + el número del código ASCII,
aparecerá el carácter correspondiente, solamente funciona en un teclado que tenga
las teclas numéricas.

Véase también
Historia de las ciencias de la computación
Anexo:Historia de la computación
Computadora
Ciencias de la computación
Teoría de la computación
Generaciones de computadoras
Primera generación de computadoras
Historia de las computadoras personales
Software
Mujeres en informática
Tecnología
Internet
Computadoras en la ciencia ficción
Internet en la ciencia ficción
Ver el portal sobre Informática Portal:Informática. Contenido relacionado con
Informática.
Referencias
«CIP user site». nces.ed.gov. Consultado el 22 de noviembre de 2019.
Real Academia Española. «Computación». Diccionario de la lengua española (23.ª
edición). Consultado el 13 de agosto de 2014.
«Definition of computer science | Dictionary.com». www.dictionary.com (en inglés).
Consultado el 3 de junio de 2022.
Denning, P.J.; Comer, D.E.; Gries, D.; Mulder, M.C.; Tucker, A.; Turner, A.J.;
Young, P.R. (1989-02). «Computing as a discipline». Computer 22 (2): 63-70. ISSN
0018-9162. doi:10.1109/2.19833. Consultado el 3 de junio de 2022.
«ADICRA: ¿De qué hablamos cuando hablamos de Informática?».
«Curricula Recommendations». Association for Computing Machinery. 2005. Consultado
el 30 de noviembre de 2012.
"Informática, información, y comunicación", en 'Documentación Social: Revista de
Estudios Sociales y de Tecnología Aplicada', n° 108, julio-septiembre 1999
(consultar texto en línea pp. 76-82)
Diego Dikygs, Tratamiento (Automático) de la Información, sitio digital 'Nociones
de Informática', 12 de abril de 2011.
Historia de la Computación, sitio digital 'Monografías'.
Patricio Villalva, ¿Qué es la Informática?, sitio digital 'Informática avanzada'.
Wynn-Williams, C. E. (2 de julio de 1931), «The Use of Thyratrons for High Speed
Automatic Counting of Physical Phenomena», Proceedings of the Royal Society A 132
(819): 295-310, Bibcode:1931RSPSA.132..295W, doi:10.1098/rspa.1931.0102.
Lee, Thomas H. (2003). The Design of CMOS Radio-Frequency Integrated Circuits.
Cambridge University Press. ISBN 9781139643771. Archivado desde el original el 9 de
diciembre de 2019. Consultado el 16 de septiembre de 2019.
Puers, Robert; Baldi, Livio; Voorde, Marcel Van de; Nooten, Sebastiaan E. van
(2017). Nanoelectronics: Materials, Devices, Applications, 2 Volumes. John Wiley &
Sons. p. 14. ISBN 9783527340538.
Lavington, Simon (1998), A History of Manchester Computers (2 edición), Swindon:
The British Computer Society, pp. 34-35.
Moskowitz, Sanford L. (2016). Advanced Materials Innovation: Managing Global
Technology in the 21st century. John Wiley & Sons. pp. 165-167. ISBN 9780470508923.
«1960 - Metal Oxide Semiconductor (MOS) Transistor Demonstrated». The Silicon
Engine (Computer History Museum).
Lojek, Bo (2007). History of Semiconductor Engineering. Springer Science &
Business Media. pp. 321–3. ISBN 9783540342588.
«Who Invented the Transistor?». Computer History Museum. 4 de diciembre de 2013.
Consultado el 20 de julio de 2019.
Hittinger, William C. (1973). «Metal-Oxide-Semiconductor Technology». Scientific
American 229 (2): 48-59. Bibcode:1973SciAm.229b..48H. ISSN 0036-8733. JSTOR
24923169. doi:10.1038/scientificamerican0873-48.
Fossum, Jerry G.; Trivedi, Vishal P. (2013). Fundamentals of Ultra-Thin-Body
MOSFETs and FinFETs. Cambridge University Press. p. vii. ISBN 9781107434493.
Malmstadt, Howard V.; Enke, Christie G.; Crouch, Stanley R. (1994). Making the
Right Connections: Microcomputers and Electronic Instrumentation. American Chemical
Society. p. 389. ISBN 9780841228610. «The relative simplicity and low power
requirements of MOSFETs have fostered today's microcomputer revolution. »
Salamanca Al Día (9 de enero de 2020). «Informática, un sector con salidas
únicas». Archivado desde el original el 9 de marzo de 2018. Consultado el 6 de
marzo de

La informática,1 también llamada computación,2 es el área de la ciencia que se


encarga de estudiar la administración de métodos, técnicas y procesos con el fin de
almacenar, procesar y transmitir información y datos en formato digital. La
informática abarca desde disciplinas teóricas (como algoritmos, teoría de la
computación y teoría de la información) hasta disciplinas prácticas (incluido el
diseño y la implementación de hardware y software).3 La informática generalmente se
considera un área de investigación académica y distinta de la programación
informática.4

De esa manera, la informática se refiere al procesamiento automático de


información, dispositivos electrónicos, sistemas computacionales.

El término informática también es sinónimo de contar y calcular. En sus inicios, se


utilizaba para referirse a la acción realizada por máquinas mecánicas de cómputo y,
antes de eso, a calculadoras humanas.

Los sistemas informáticos deben contar con la capacidad de cumplir tres tareas
básicas: entrada (input, captación de la información), procesamiento y salida
(transmisión de los resultados).

No existe una definición consensuada sobre el término. Sin embargo, la Asociación


de Docentes de Informática y Computación de la República Argentina ha tomado una
posición, definiéndola de la siguiente manera: «La informática es la disciplina o
campo de estudio que abarca el conjunto de conocimientos, métodos y técnicas
referentes al tratamiento automático de la información, junto con sus teorías y
aplicaciones prácticas, con el fin de almacenar, procesar y transmitir datos e
información en formato digital utilizando sistemas computacionales. Los datos son
la materia prima para que, mediante su proceso, se obtenga como resultado
información. Para ello, la informática crea y/o emplea sistemas de procesamiento de
datos, que incluyen medios físicos (hardware) en interacción con medios lógicos
(software) y las personas que los programan y/o los usan (humanware)».5

Es por lo que se hace distinción entre este término y las ciencias de la


computación, puesto que el segundo engloba la parte más teórica mientras que
informática se refiere a la aplicabilidad de esta anterior en datos usando
dispositivos electrónicos. De hecho, se definen cinco subdisciplinas del campo de
la informática: ciencias de la computación, ingeniería informática, sistemas de
información, tecnología de la información e ingeniería de software.6

La informática es la forma científica de procesar la información. Este


procesamiento consiste en ordenar, seleccionar, ejecutar cálculos de forma que nos
permita extraer conclusiones de la información manipulada. Procesar información es
transformar datos primarios en información organizada, significativa y útil, que a
su vez está compuesta de datos. La informática, que se ha desarrollado rápidamente
a partir de la segunda mitad del siglo xx con la aparición de tecnologías como el
circuito integrado, el Internet y el teléfono móvil,7 es la rama de la tecnología
que estudia el tratamiento automático de la información.89

En 1957, Karl Steinbuch añadió la palabra alemana Informatik en la publicación de


un documento denominado Informatik: Automatische Informationsverarbeitung
(Informática: procesamiento automático de información).10 El soviético Alexander
Ivanovich Mikhailov fue el primero en utilizar Informatik con el significado de
«estudio, organización y diseminación de la información científica», que sigue
siendo su significado en dicha lengua.10 En inglés, la palabra informatics fue
acuñada independiente y casi simultáneamente por Walter F. Bauer, en 1962, cuando
Bauer cofundó la empresa Informatics General, Inc.10

Toma una encuesta corta y ayúdanos a mejorar Wikipedia

Visita la encuestaNo, gracias


Datos de la encuesta manejados por una tercera parte. Privacidad.
Orígenes de la informática
Artículo principal: Anexo:Historia de la computación
La disciplina de la informática es anterior a la creación de las computadoras. Ya
en la antigüedad se conocían métodos para realizar cálculos matemáticos, por
ejemplo el algoritmo de Euclides. En el siglo xvii comenzaron a inventarse máquinas
calculadoras. La herramienta más antigua conocida para su uso en computación es el
ábaco, y se cree que fue inventado en Babilonia alrededor del 2400 a. C. Su diseño
original de uso fue por líneas dibujadas en arena con guijarros. Esta fue la
primera ayuda de cálculo conocida, precediendo a los métodos griegos por 2000 años.

En el siglo xix se desarrollaron las primeras máquinas programables, es decir, que


el usuario podría modificar la secuencia de acciones a realizar a través de
algoritmos específicos. La primera propuesta registrada para el uso de la
electrónica digital en la informática fue el artículo de 1931 "El uso de tiratrones
para el conteo automático de fenómenos físicos a alta velocidad" de C. E. Wynn-
Williams.11 El artículo de 1938 de Claude Shannon "Un análisis simbólico de los
circuitos de conmutación y relés" introdujo la idea de utilizar la electrónica para
las operaciones de álgebra booleana.
Caja de ordenador con un procesador LGA775 de Intel, con la tarjeta madre, el
ventilador del procesador, la alimentación eléctrica, y la memoria.
El concepto de un transistor de efecto de campo fue propuesto por Julius Edgar
Lilienfeld en 1925. John Bardeen y Walter Brattain, mientras trabajaban con William
Shockley en Bell Labs, construyó el primer transistor en funcionamiento, el
transistor de contacto puntual, en 1947.1213 En 1953, la Universidad de Mánchester
construyó la primera ordenador transistorizado, llamada ordenador de
transistores.14 Sin embargo, los primeros transistores de unión eran dispositivos
relativamente voluminosos que eran difíciles de producir en masa, lo que los
limitaba a una serie de aplicaciones especializadas.15 El transistor de efecto de
campo de óxido de metal-silicio (MOSFET, o transistor MOS) fue inventado por
Mohamed Atalla y Dawon Kahng en Bell Labs en 1959.1617 Fue el primer transistor
verdaderamente compacto que podía ser miniaturizado y producido en masa para una
amplia gama de usos.15 El MOSFET hizo posible construir chiìs de circuitos
integrados de alta densidad,1819 dando lugar a lo que se conoce como la revolución
informática20 o revolución de la microcomputadora.21

En los inicios del procesamiento automático de la información, con la informática


solo se facilitaban los trabajos repetitivos y monótonos del área administrativa.
La automatización de esos procesos trajo como consecuencia directa una disminución
de los costes y un incremento en la productividad. En la informática convergen los
fundamentos de las ciencias de la computación, la programación y también las
metodologías para el desarrollo de software, la arquitectura de las computadoras,
las redes de computadores, la inteligencia artificial y ciertas cuestiones
relacionadas con la electrónica. Se puede entender por informática a la unión
sinérgica de todo este conjunto de disciplinas. Esta disciplina se aplica a
numerosas y variadas áreas del conocimiento o la actividad humana, por ejemplo:
gestión de negocios, almacenamiento y consulta de información; monitorización y
control de procesos, industria, robótica, comunicaciones, control de transportes,
investigación, desarrollo de juegos, diseño computarizado,
aplicaciones/herramientas multimedia, medicina, biología, física, química,
meteorología, ingeniería, arte, etc. Puede tanto facilitar la toma de decisiones a
nivel gerencial (en una empresa) como permitir el control de procesos críticos.
Actualmente, es difícil concebir un área que no esté vinculada o requiera del apoyo
de la informática. Esta puede cubrir un enorme abanico de funciones, que van desde
las más simples cuestiones domésticas hasta los cálculos científicos más complejos.
Entre las funciones principales de la informática se enumeran las siguientes:

Creación de nuevas especificaciones de trabajo.


Desarrollo e implementación de sistemas informáticos.
Sistematización de procesos.
Optimización de los métodos y sistemas informáticos existentes.
Facilitar la automatización de datos y formatos.22
Sistemas de tratamiento de la información
Los sistemas computacionales, generalmente implementados como dispositivos
electrónicos, permiten el procesamiento automático de la información. Conforme a
ello, los sistemas informáticos deben realizar las siguientes tres tareas básicas:

Entrada: captación de la información. Normalmente son datos y órdenes ingresadas


por los usuarios a través de cualquier dispositivo de entrada conectado a la
computadora.
Proceso: tratamiento de la información. Se realiza a través de programas y
aplicaciones diseñadas por programadores que indican de forma secuencial cómo
resolver un requerimiento.
Salida: transmisión de resultados. A través de los dispositivos de salida los
usuarios pueden visualizar los resultados que surgen del procesamiento de los
datos.
Sistema operativo es un conjunto de programas que permite interactuar al usuario
con la computadora.
Sistemas de mando y control, son sistemas basados en la mecánica y motricidad de
dispositivos que permiten al usuario localizar, dentro de la logística, los
elementos que se demandan. Están basados en la electricidad, o sea, no en el
control del flujo del electrón, sino en la continuidad o discontinuidad de una
corriente eléctrica, si es alterna o continua o si es inducida, contra inducida, en
fase o desfase (ver periférico de entrada).
Sistemas de archivo, son sistemas que permiten el almacenamiento a largo plazo de
información que no se demandará por un largo lapso. Estos sistemas usan los
conceptos de biblioteca para localizar la información demandada.
Código ASCII es un método para la correspondencia de cadenas de bits permitiendo de
esta forma la comunicación entre dispositivos digitales así como su proceso y
almacenamiento, en la actualidad todos los sistemas informáticos utilizan el código
ASCII para representar textos, gráficos, audio e infinidad de información para el
control y manipulación de dispositivos digitales.
En un editor de texto presionando las teclas Alt + el número del código ASCII,
aparecerá el carácter correspondiente, solamente funciona en un teclado que tenga
las teclas numéricas.

Véase también
Historia de las ciencias de la computación
Anexo:Historia de la computación
Computadora
Ciencias de la computación
Teoría de la computación
Generaciones de computadoras
Primera generación de computadoras
Historia de las computadoras personales
Software
Mujeres en informática
Tecnología
Internet
Computadoras en la ciencia ficción
Internet en la ciencia ficción
Ver el portal sobre Informática Portal:Informática. Contenido relacionado con
Informática.
Referencias
«CIP user site». nces.ed.gov. Consultado el 22 de noviembre de 2019.
Real Academia Española. «Computación». Diccionario de la lengua española (23.ª
edición). Consultado el 13 de agosto de 2014.
«Definition of computer science | Dictionary.com». www.dictionary.com (en inglés).
Consultado el 3 de junio de 2022.
Denning, P.J.; Comer, D.E.; Gries, D.; Mulder, M.C.; Tucker, A.; Turner, A.J.;
Young, P.R. (1989-02). «Computing as a discipline». Computer 22 (2): 63-70. ISSN
0018-9162. doi:10.1109/2.19833. Consultado el 3 de junio de 2022.
«ADICRA: ¿De qué hablamos cuando hablamos de Informática?».
«Curricula Recommendations». Association for Computing Machinery. 2005. Consultado
el 30 de noviembre de 2012.
"Informática, información, y comunicación", en 'Documentación Social: Revista de
Estudios Sociales y de Tecnología Aplicada', n° 108, julio-septiembre 1999
(consultar texto en línea pp. 76-82)
Diego Dikygs, Tratamiento (Automático) de la Información, sitio digital 'Nociones
de Informática', 12 de abril de 2011.
Historia de la Computación, sitio digital 'Monografías'.
Patricio Villalva, ¿Qué es la Informática?, sitio digital 'Informática avanzada'.
Wynn-Williams, C. E. (2 de julio de 1931), «The Use of Thyratrons for High Speed
Automatic Counting of Physical Phenomena», Proceedings of the Royal Society A 132
(819): 295-310, Bibcode:1931RSPSA.132..295W, doi:10.1098/rspa.1931.0102.
Lee, Thomas H. (2003). The Design of CMOS Radio-Frequency Integrated Circuits.
Cambridge University Press. ISBN 9781139643771. Archivado desde el original el 9 de
diciembre de 2019. Consultado el 16 de septiembre de 2019.
Puers, Robert; Baldi, Livio; Voorde, Marcel Van de; Nooten, Sebastiaan E. van
(2017). Nanoelectronics: Materials, Devices, Applications, 2 Volumes. John Wiley &
Sons. p. 14. ISBN 9783527340538.
Lavington, Simon (1998), A History of Manchester Computers (2 edición), Swindon:
The British Computer Society, pp. 34-35.
Moskowitz, Sanford L. (2016). Advanced Materials Innovation: Managing Global
Technology in the 21st century. John Wiley & Sons. pp. 165-167. ISBN 9780470508923.
«1960 - Metal Oxide Semiconductor (MOS) Transistor Demonstrated». The Silicon
Engine (Computer History Museum).
Lojek, Bo (2007). History of Semiconductor Engineering. Springer Science &
Business Media. pp. 321–3. ISBN 9783540342588.
«Who Invented the Transistor?». Computer History Museum. 4 de diciembre de 2013.
Consultado el 20 de julio de 2019.
Hittinger, William C. (1973). «Metal-Oxide-Semiconductor Technology». Scientific
American 229 (2): 48-59. Bibcode:1973SciAm.229b..48H. ISSN 0036-8733. JSTOR
24923169. doi:10.1038/scientificamerican0873-48.
Fossum, Jerry G.; Trivedi, Vishal P. (2013). Fundamentals of Ultra-Thin-Body
MOSFETs and FinFETs. Cambridge University Press. p. vii. ISBN 9781107434493.
Malmstadt, Howard V.; Enke, Christie G.; Crouch, Stanley R. (1994). Making the
Right Connections: Microcomputers and Electronic Instrumentation. American Chemical
Society. p. 389. ISBN 9780841228610. «The relative simplicity and low power
requirements of MOSFETs have fostered today's microcomputer revolution. »
Salamanca Al Día (9 de enero de 2020). «Informática, un sector con salidas
únicas». Archivado desde el original el 9 de marzo de 2018. Consultado el 6 de
marzo de
Fossum, Jerry G.; Trivedi, Vishal P. (2013). Fundamentals of Ultra-Thin-Body
MOSFETs and FinFETs. Cambridge University Press. p. vii. ISBN 9781107434493.
Malmstadt, Howard V.; Enke, Christie G.; Crouch, Stanley R. (1994). Making the
Right Connections: Microcomputers and Electronic Instrumentation. American Chemical
Society. p. 389. ISBN 9780841228610. «The relative simplicity and low power
requirements of MOSFETs have fostered today's microcomputer revolution. »

La informática,1 también llamada computación,2 es el área de la ciencia que se


encarga de estudiar la administración de métodos, técnicas y procesos con el fin de
almacenar, procesar y transmitir información y datos en formato digital. La
informática abarca desde disciplinas teóricas (como algoritmos, teoría de la
computación y teoría de la información) hasta disciplinas prácticas (incluido el
diseño y la implementación de hardware y software).3 La informática generalmente se
considera un área de investigación académica y distinta de la programación
informática.4

De esa manera, la informática se refiere al procesamiento automático de


información, dispositivos electrónicos, sistemas computacionales.

El término informática también es sinónimo de contar y calcular. En sus inicios, se


utilizaba para referirse a la acción realizada por máquinas mecánicas de cómputo y,
antes de eso, a calculadoras humanas.

Los sistemas informáticos deben contar con la capacidad de cumplir tres tareas
básicas: entrada (input, captación de la información), procesamiento y salida
(transmisión de los resultados).

No existe una definición consensuada sobre el término. Sin embargo, la Asociación


de Docentes de Informática y Computación de la República Argentina ha tomado una
posición, definiéndola de la siguiente manera: «La informática es la disciplina o
campo de estudio que abarca el conjunto de conocimientos, métodos y técnicas
referentes al tratamiento automático de la información, junto con sus teorías y
aplicaciones prácticas, con el fin de almacenar, procesar y transmitir datos e
información en formato digital utilizando sistemas computacionales. Los datos son
la materia prima para que, mediante su proceso, se obtenga como resultado
información. Para ello, la informática crea y/o emplea sistemas de procesamiento de
datos, que incluyen medios físicos (hardware) en interacción con medios lógicos
(software) y las personas que los programan y/o los usan (humanware)».5

Es por lo que se hace distinción entre este término y las ciencias de la


computación, puesto que el segundo engloba la parte más teórica mientras que
informática se refiere a la aplicabilidad de esta anterior en datos usando
dispositivos electrónicos. De hecho, se definen cinco subdisciplinas del campo de
la informática: ciencias de la computación, ingeniería informática, sistemas de
información, tecnología de la información e ingeniería de software.6

La informática es la forma científica de procesar la información. Este


procesamiento consiste en ordenar, seleccionar, ejecutar cálculos de forma que nos
permita extraer conclusiones de la información manipulada. Procesar información es
transformar datos primarios en información organizada, significativa y útil, que a
su vez está compuesta de datos. La informática, que se ha desarrollado rápidamente
a partir de la segunda mitad del siglo xx con la aparición de tecnologías como el
circuito integrado, el Internet y el teléfono móvil,7 es la rama de la tecnología
que estudia el tratamiento automático de la información.89

En 1957, Karl Steinbuch añadió la palabra alemana Informatik en la publicación de


un documento denominado Informatik: Automatische Informationsverarbeitung
(Informática: procesamiento automático de información).10 El soviético Alexander
Ivanovich Mikhailov fue el primero en utilizar Informatik con el significado de
«estudio, organización y diseminación de la información científica», que sigue
siendo su significado en dicha lengua.10 En inglés, la palabra informatics fue
acuñada independiente y casi simultáneamente por Walter F. Bauer, en 1962, cuando
Bauer cofundó la empresa Informatics General, Inc.10

Toma una encuesta corta y ayúdanos a mejorar Wikipedia

Visita la encuestaNo, gracias


Datos de la encuesta manejados por una tercera parte. Privacidad.
Orígenes de la informática
Artículo principal: Anexo:Historia de la computación
La disciplina de la informática es anterior a la creación de las computadoras. Ya
en la antigüedad se conocían métodos para realizar cálculos matemáticos, por
ejemplo el algoritmo de Euclides. En el siglo xvii comenzaron a inventarse máquinas
calculadoras. La herramienta más antigua conocida para su uso en computación es el
ábaco, y se cree que fue inventado en Babilonia alrededor del 2400 a. C. Su diseño
original de uso fue por líneas dibujadas en arena con guijarros. Esta fue la
primera ayuda de cálculo conocida, precediendo a los métodos griegos por 2000 años.

En el siglo xix se desarrollaron las primeras máquinas programables, es decir, que


el usuario podría modificar la secuencia de acciones a realizar a través de
algoritmos específicos. La primera propuesta registrada para el uso de la
electrónica digital en la informática fue el artículo de 1931 "El uso de tiratrones
para el conteo automático de fenómenos físicos a alta velocidad" de C. E. Wynn-
Williams.11 El artículo de 1938 de Claude Shannon "Un análisis simbólico de los
circuitos de conmutación y relés" introdujo la idea de utilizar la electrónica para
las operaciones de álgebra booleana.

Caja de ordenador con un procesador LGA775 de Intel, con la tarjeta madre, el


ventilador del procesador, la alimentación eléctrica, y la memoria.
El concepto de un transistor de efecto de campo fue propuesto por Julius Edgar
Lilienfeld en 1925. John Bardeen y Walter Brattain, mientras trabajaban con William
Shockley en Bell Labs, construyó el primer transistor en funcionamiento, el
transistor de contacto puntual, en 1947.1213 En 1953, la Universidad de Mánchester
construyó la primera ordenador transistorizado, llamada ordenador de
transistores.14 Sin embargo, los primeros transistores de unión eran dispositivos
relativamente voluminosos que eran difíciles de producir en masa, lo que los
limitaba a una serie de aplicaciones especializadas.15 El transistor de efecto de
campo de óxido de metal-silicio (MOSFET, o transistor MOS) fue inventado por
Mohamed Atalla y Dawon Kahng en Bell Labs en 1959.1617 Fue el primer transistor
verdaderamente compacto que podía ser miniaturizado y producido en masa para una
amplia gama de usos.15 El MOSFET hizo posible construir chiìs de circuitos
integrados de alta densidad,1819 dando lugar a lo que se conoce como la revolución
informática20 o revolución de la microcomputadora.21

En los inicios del procesamiento automático de la información, con la informática


solo se facilitaban los trabajos repetitivos y monótonos del área administrativa.
La automatización de esos procesos trajo como consecuencia directa una disminución
de los costes y un incremento en la productividad. En la informática convergen los
fundamentos de las ciencias de la computación, la programación y también las
metodologías para el desarrollo de software, la arquitectura de las computadoras,
las redes de computadores, la inteligencia artificial y ciertas cuestiones
relacionadas con la electrónica. Se puede entender por informática a la unión
sinérgica de todo este conjunto de disciplinas. Esta disciplina se aplica a
numerosas y variadas áreas del conocimiento o la actividad humana, por ejemplo:
gestión de negocios, almacenamiento y consulta de información; monitorización y
control de procesos, industria, robótica, comunicaciones, control de transportes,
investigación, desarrollo de juegos, diseño computarizado,
aplicaciones/herramientas multimedia, medicina, biología, física, química,
meteorología, ingeniería, arte, etc. Puede tanto facilitar la toma de decisiones a
nivel gerencial (en una empresa) como permitir el control de procesos críticos.
Actualmente, es difícil concebir un área que no esté vinculada o requiera del apoyo
de la informática. Esta puede cubrir un enorme abanico de funciones, que van desde
las más simples cuestiones domésticas hasta los cálculos científicos más complejos.
Entre las funciones principales de la informática se enumeran las siguientes:

Creación de nuevas especificaciones de trabajo.


Desarrollo e implementación de sistemas informáticos.
Sistematización de procesos.
Optimización de los métodos y sistemas informáticos existentes.
Facilitar la automatización de datos y formatos.22
Sistemas de tratamiento de la información
Los sistemas computacionales, generalmente implementados como dispositivos
electrónicos, permiten el procesamiento automático de la información. Conforme a
ello, los sistemas informáticos deben realizar las siguientes tres tareas básicas:

Entrada: captación de la información. Normalmente son datos y órdenes ingresadas


por los usuarios a través de cualquier dispositivo de entrada conectado a la
computadora.
Proceso: tratamiento de la información. Se realiza a través de programas y
aplicaciones diseñadas por programadores que indican de forma secuencial cómo
resolver un requerimiento.
Salida: transmisión de resultados. A través de los dispositivos de salida los
usuarios pueden visualizar los resultados que surgen del procesamiento de los
datos.
Sistema operativo es un conjunto de programas que permite interactuar al usuario
con la computadora.
Sistemas de mando y control, son sistemas basados en la mecánica y motricidad de
dispositivos que permiten al usuario localizar, dentro de la logística, los
elementos que se demandan. Están basados en la electricidad, o sea, no en el
control del flujo del electrón, sino en la continuidad o discontinuidad de una
corriente eléctrica, si es alterna o continua o si es inducida, contra inducida, en
fase o desfase (ver periférico de entrada).
Sistemas de archivo, son sistemas que permiten el almacenamiento a largo plazo de
información que no se demandará por un largo lapso. Estos sistemas usan los
conceptos de biblioteca para localizar la información demandada.
Código ASCII es un método para la correspondencia de cadenas de bits permitiendo de
esta forma la comunicación entre dispositivos digitales así como su proceso y
almacenamiento, en la actualidad todos los sistemas informáticos utilizan el código
ASCII para representar textos, gráficos, audio e infinidad de información para el
control y manipulación de dispositivos digitales.
En un editor de texto presionando las teclas Alt + el número del código ASCII,
aparecerá el carácter correspondiente, solamente funciona en un teclado que tenga
las teclas numéricas.

Véase también
Historia de las ciencias de la computación
Anexo:Historia de la computación
Computadora
Ciencias de la computación
Teoría de la computación
Generaciones de computadoras
Primera generación de computadoras
Historia de las computadoras personales
Software
Mujeres en informática
Tecnología
Internet
Computadoras en la ciencia ficción
Internet en la ciencia ficción
Ver el portal sobre Informática Portal:Informática. Contenido relacionado con
Informática.
Referencias
«CIP user site». nces.ed.gov. Consultado el 22 de noviembre de 2019.
Real Academia Española. «Computación». Diccionario de la lengua española (23.ª
edición). Consultado el 13 de agosto de 2014.
«Definition of computer science | Dictionary.com». www.dictionary.com (en inglés).
Consultado el 3 de junio de 2022.
Denning, P.J.; Comer, D.E.; Gries, D.; Mulder, M.C.; Tucker, A.; Turner, A.J.;
Young, P.R. (1989-02). «Computing as a discipline». Computer 22 (2): 63-70. ISSN
0018-9162. doi:10.1109/2.19833. Consultado el 3 de junio de 2022.
«ADICRA: ¿De qué hablamos cuando hablamos de Informática?».
«Curricula Recommendations». Association for Computing Machinery. 2005. Consultado
el 30 de noviembre de 2012.
"Informática, información, y comunicación", en 'Documentación Social: Revista de
Estudios Sociales y de Tecnología Aplicada', n° 108, julio-septiembre 1999
(consultar texto en línea pp. 76-82)
Diego Dikygs, Tratamiento (Automático) de la Información, sitio digital 'Nociones
de Informática', 12 de abril de 2011.
Historia de la Computación, sitio digital 'Monografías'.
Patricio Villalva, ¿Qué es la Informática?, sitio digital 'Informática avanzada'.
Wynn-Williams, C. E. (2 de julio de 1931), «The Use of Thyratrons for High Speed
Automatic Counting of Physical Phenomena», Proceedings of the Royal Society A 132
(819): 295-310, Bibcode:1931RSPSA.132..295W, doi:10.1098/rspa.1931.0102.
Lee, Thomas H. (2003). The Design of CMOS Radio-Frequency Integrated Circuits.
Cambridge University Press. ISBN 9781139643771. Archivado desde el original el 9 de
diciembre de 2019. Consultado el 16 de septiembre de 2019.
Puers, Robert; Baldi, Livio; Voorde, Marcel Van de; Nooten, Sebastiaan E. van
(2017). Nanoelectronics: Materials, Devices, Applications, 2 Volumes. John Wiley &
Sons. p. 14. ISBN 9783527340538.
Lavington, Simon (1998), A History of Manchester Computers (2 edición), Swindon:
The British Computer Society, pp. 34-35.
Moskowitz, Sanford L. (2016). Advanced Materials Innovation: Managing Global
Technology in the 21st century. John Wiley & Sons. pp. 165-167. ISBN 9780470508923.
«1960 - Metal Oxide Semiconductor (MOS) Transistor Demonstrated». The Silicon
Engine (Computer History Museum).
Lojek, Bo (2007). History of Semiconductor Engineering. Springer Science &
Business Media. pp. 321–3. ISBN 9783540342588.
«Who Invented the Transistor?». Computer History Museum. 4 de diciembre de 2013.
Consultado el 20 de julio de 2019.
Hittinger, William C. (1973). «Metal-Oxide-Semiconductor Technology». Scientific
American 229 (2): 48-59. Bibcode:1973SciAm.229b..48H. ISSN 0036-8733. JSTOR
24923169. doi:10.1038/scientificamerican0873-48.

La informática,1 también llamada computación,2 es el área de la ciencia que se


encarga de estudiar la administración de métodos, técnicas y procesos con el fin de
almacenar, procesar y transmitir información y datos en formato digital. La
informática abarca desde disciplinas teóricas (como algoritmos, teoría de la
computación y teoría de la información) hasta disciplinas prácticas (incluido el
diseño y la implementación de hardware y software).3 La informática generalmente se
considera un área de investigación académica y distinta de la programación
informática.4

De esa manera, la informática se refiere al procesamiento automático de


información, dispositivos electrónicos, sistemas computacionales.

El término informática también es sinónimo de contar y calcular. En sus inicios, se


utilizaba para referirse a la acción realizada por máquinas mecánicas de cómputo y,
antes de eso, a calculadoras humanas.

Los sistemas informáticos deben contar con la capacidad de cumplir tres tareas
básicas: entrada (input, captación de la información), procesamiento y salida
(transmisión de los resultados).

No existe una definición consensuada sobre el término. Sin embargo, la Asociación


de Docentes de Informática y Computación de la República Argentina ha tomado una
posición, definiéndola de la siguiente manera: «La informática es la disciplina o
campo de estudio que abarca el conjunto de conocimientos, métodos y técnicas
referentes al tratamiento automático de la información, junto con sus teorías y
aplicaciones prácticas, con el fin de almacenar, procesar y transmitir datos e
información en formato digital utilizando sistemas computacionales. Los datos son
la materia prima para que, mediante su proceso, se obtenga como resultado
información. Para ello, la informática crea y/o emplea sistemas de procesamiento de
datos, que incluyen medios físicos (hardware) en interacción con medios lógicos
(software) y las personas que los programan y/o los usan (humanware)».5

Es por lo que se hace distinción entre este término y las ciencias de la


computación, puesto que el segundo engloba la parte más teórica mientras que
informática se refiere a la aplicabilidad de esta anterior en datos usando
dispositivos electrónicos. De hecho, se definen cinco subdisciplinas del campo de
la informática: ciencias de la computación, ingeniería informática, sistemas de
información, tecnología de la información e ingeniería de software.6

La informática es la forma científica de procesar la información. Este


procesamiento consiste en ordenar, seleccionar, ejecutar cálculos de forma que nos
permita extraer conclusiones de la información manipulada. Procesar información es
transformar datos primarios en información organizada, significativa y útil, que a
su vez está compuesta de datos. La informática, que se ha desarrollado rápidamente
a partir de la segunda mitad del siglo xx con la aparición de tecnologías como el
circuito integrado, el Internet y el teléfono móvil,7 es la rama de la tecnología
que estudia el tratamiento automático de la información.89

En 1957, Karl Steinbuch añadió la palabra alemana Informatik en la publicación de


un documento denominado Informatik: Automatische Informationsverarbeitung
(Informática: procesamiento automático de información).10 El soviético Alexander
Ivanovich Mikhailov fue el primero en utilizar Informatik con el significado de
«estudio, organización y diseminación de la información científica», que sigue
siendo su significado en dicha lengua.10 En inglés, la palabra informatics fue
acuñada independiente y casi simultáneamente por Walter F. Bauer, en 1962, cuando
Bauer cofundó la empresa Informatics General, Inc.10

Toma una encuesta corta y ayúdanos a mejorar Wikipedia

Visita la encuestaNo, gracias


Datos de la encuesta manejados por una tercera parte. Privacidad.
Orígenes de la informática
Artículo principal: Anexo:Historia de la computación
La disciplina de la informática es anterior a la creación de las computadoras. Ya
en la antigüedad se conocían métodos para realizar cálculos matemáticos, por
ejemplo el algoritmo de Euclides. En el siglo xvii comenzaron a inventarse máquinas
calculadoras. La herramienta más antigua conocida para su uso en computación es el
ábaco, y se cree que fue inventado en Babilonia alrededor del 2400 a. C. Su diseño
original de uso fue por líneas dibujadas en arena con guijarros. Esta fue la
primera ayuda de cálculo conocida, precediendo a los métodos griegos por 2000 años.

En el siglo xix se desarrollaron las primeras máquinas programables, es decir, que


el usuario podría modificar la secuencia de acciones a realizar a través de
algoritmos específicos. La primera propuesta registrada para el uso de la
electrónica digital en la informática fue el artículo de 1931 "El uso de tiratrones
para el conteo automático de fenómenos físicos a alta velocidad" de C. E. Wynn-
Williams.11 El artículo de 1938 de Claude Shannon "Un análisis simbólico de los
circuitos de conmutación y relés" introdujo la idea de utilizar la electrónica para
las operaciones de álgebra booleana.

Caja de ordenador con un procesador LGA775 de Intel, con la tarjeta madre, el


ventilador del procesador, la alimentación eléctrica, y la memoria.
El concepto de un transistor de efecto de campo fue propuesto por Julius Edgar
Lilienfeld en 1925. John Bardeen y Walter Brattain, mientras trabajaban con William
Shockley en Bell Labs, construyó el primer transistor en funcionamiento, el
transistor de contacto puntual, en 1947.1213 En 1953, la Universidad de Mánchester
construyó la primera ordenador transistorizado, llamada ordenador de
transistores.14 Sin embargo, los primeros transistores de unión eran dispositivos
relativamente voluminosos que eran difíciles de producir en masa, lo que los
limitaba a una serie de aplicaciones especializadas.15 El transistor de efecto de
campo de óxido de metal-silicio (MOSFET, o transistor MOS) fue inventado por
Mohamed Atalla y Dawon Kahng en Bell Labs en 1959.1617 Fue el primer transistor
verdaderamente compacto que podía ser miniaturizado y producido en masa para una
amplia gama de usos.15 El MOSFET hizo posible construir chiìs de circuitos
integrados de alta densidad,1819 dando lugar a lo que se conoce como la revolución
informática20 o revolución de la microcomputadora.21

En los inicios del procesamiento automático de la información, con la informática


solo se facilitaban los trabajos repetitivos y monótonos del área administrativa.
La automatización de esos procesos trajo como consecuencia directa una disminución
de los costes y un incremento en la productividad. En la informática convergen los
fundamentos de las ciencias de la computación, la programación y también las
metodologías para el desarrollo de software, la arquitectura de las computadoras,
las redes de computadores, la inteligencia artificial y ciertas cuestiones
relacionadas con la electrónica. Se puede entender por informática a la unión
sinérgica de todo este conjunto de disciplinas. Esta disciplina se aplica a
numerosas y variadas áreas del conocimiento o la actividad humana, por ejemplo:
gestión de negocios, almacenamiento y consulta de información; monitorización y
control de procesos, industria, robótica, comunicaciones, control de transportes,
investigación, desarrollo de juegos, diseño computarizado,
aplicaciones/herramientas multimedia, medicina, biología, física, química,
meteorología, ingeniería, arte, etc. Puede tanto facilitar la toma de decisiones a
nivel gerencial (en una empresa) como permitir el control de procesos críticos.
Actualmente, es difícil concebir un área que no esté vinculada o requiera del apoyo
de la informática. Esta puede cubrir un enorme abanico de funciones, que van desde
las más simples cuestiones domésticas hasta los cálculos científicos más complejos.
Entre las funciones principales de la informática se enumeran las siguientes:

Creación de nuevas especificaciones de trabajo.


Desarrollo e implementación de sistemas informáticos.
Sistematización de procesos.
Optimización de los métodos y sistemas informáticos existentes.
Facilitar la automatización de datos y formatos.22
Sistemas de tratamiento de la información
Los sistemas computacionales, generalmente implementados como dispositivos
electrónicos, permiten el procesamiento automático de la información. Conforme a
ello, los sistemas informáticos deben realizar las siguientes tres tareas básicas:

Entrada: captación de la información. Normalmente son datos y órdenes ingresadas


por los usuarios a través de cualquier dispositivo de entrada conectado a la
computadora.
Proceso: tratamiento de la información. Se realiza a través de programas y
aplicaciones diseñadas por programadores que indican de forma secuencial cómo
resolver un requerimiento.
Salida: transmisión de resultados. A través de los dispositivos de salida los
usuarios pueden visualizar los resultados que surgen del procesamiento de los
datos.
Sistema operativo es un conjunto de programas que permite interactuar al usuario
con la computadora.
Sistemas de mando y control, son sistemas basados en la mecánica y motricidad de
dispositivos que permiten al usuario localizar, dentro de la logística, los
elementos que se demandan. Están basados en la electricidad, o sea, no en el
control del flujo del electrón, sino en la continuidad o discontinuidad de una
corriente eléctrica, si es alterna o continua o si es inducida, contra inducida, en
fase o desfase (ver periférico de entrada).
Sistemas de archivo, son sistemas que permiten el almacenamiento a largo plazo de
información que no se demandará por un largo lapso. Estos sistemas usan los
conceptos de biblioteca para localizar la información demandada.
Código ASCII es un método para la correspondencia de cadenas de bits permitiendo de
esta forma la comunicación entre dispositivos digitales así como su proceso y
almacenamiento, en la actualidad todos los sistemas informáticos utilizan el código
ASCII para representar textos, gráficos, audio e infinidad de información para el
control y manipulación de dispositivos digitales.
En un editor de texto presionando las teclas Alt + el número del código ASCII,
aparecerá el carácter correspondiente, solamente funciona en un teclado que tenga
las teclas numéricas.

Véase también
Historia de las ciencias de la computación
Anexo:Historia de la computación
Computadora
Ciencias de la computación
Teoría de la computación
Generaciones de computadoras
Primera generación de computadoras
Historia de las computadoras personales
Software
Mujeres en informática
Tecnología
Internet
Computadoras en la ciencia ficción
Internet en la ciencia ficción
Ver el portal sobre Informática Portal:Informática. Contenido relacionado con
Informática.
Referencias
«CIP user site». nces.ed.gov. Consultado el 22 de noviembre de 2019.
Real Academia Española. «Computación». Diccionario de la lengua española (23.ª
edición). Consultado el 13 de agosto de 2014.
«Definition of computer science | Dictionary.com». www.dictionary.com (en inglés).
Consultado el 3 de junio de 2022.
Denning, P.J.; Comer, D.E.; Gries, D.; Mulder, M.C.; Tucker, A.; Turner, A.J.;
Young, P.R. (1989-02). «Computing as a discipline». Computer 22 (2): 63-70. ISSN
0018-9162. doi:10.1109/2.19833. Consultado el 3 de junio de 2022.
«ADICRA: ¿De qué hablamos cuando hablamos de Informática?».
«Curricula Recommendations». Association for Computing Machinery. 2005. Consultado
el 30 de noviembre de 2012.
"Informática, información, y comunicación", en 'Documentación Social: Revista de
Estudios Sociales y de Tecnología Aplicada', n° 108, julio-septiembre 1999
(consultar texto en línea pp. 76-82)
Diego Dikygs, Tratamiento (Automático) de la Información, sitio digital 'Nociones
de Informática', 12 de abril de 2011.
Historia de la Computación, sitio digital 'Monografías'.
Patricio Villalva, ¿Qué es la Informática?, sitio digital 'Informática avanzada'.
Wynn-Williams, C. E. (2 de julio de 1931), «The Use of Thyratrons for High Speed
Automatic Counting of Physical Phenomena», Proceedings of the Royal Society A 132
(819): 295-310, Bibcode:1931RSPSA.132..295W, doi:10.1098/rspa.1931.0102.
Lee, Thomas H. (2003). The Design of CMOS Radio-Frequency Integrated Circuits.
Cambridge University Press. ISBN 9781139643771. Archivado desde el original el 9 de
diciembre de 2019. Consultado el 16 de septiembre de 2019.
Puers, Robert; Baldi, Livio; Voorde, Marcel Van de; Nooten, Sebastiaan E. van
(2017). Nanoelectronics: Materials, Devices, Applications, 2 Volumes. John Wiley &
Sons. p. 14. ISBN 9783527340538.
Lavington, Simon (1998), A History of Manchester Computers (2 edición), Swindon:
The British Computer Society, pp. 34-35.
Moskowitz, Sanford L. (2016). Advanced Materials Innovation: Managing Global
Technology in the 21st century. John Wiley & Sons. pp. 165-167. ISBN 9780470508923.
«1960 - Metal Oxide Semiconductor (MOS) Transistor Demonstrated». The Silicon
Engine (Computer History Museum).
Lojek, Bo (2007). History of Semiconductor Engineering. Springer Science &
Business Media. pp. 321–3. ISBN 9783540342588.
«Who Invented the Transistor?». Computer History Museum. 4 de diciembre de 2013.
Consultado el 20 de julio de 2019.
Hittinger, William C. (1973). «Metal-Oxide-Semiconductor Technology». Scientific
American 229 (2): 48-59. Bibcode:1973SciAm.229b..48H. ISSN 0036-8733. JSTOR
24923169. doi:10.1038/scientificamerican0873-48.
Fossum, Jerry G.; Trivedi, Vishal P. (2013). Fundamentals of Ultra-Thin-Body
MOSFETs and FinFETs. Cambridge University Press. p. vii. ISBN 9781107434493.
Malmstadt, Howard V.; Enke, Christie G.; Crouch, Stanley R. (1994). Making the
Right Connections: Microcomputers and Electronic Instrumentation. American Chemical
Society. p. 389. ISBN 9780841228610. «The relative simplicity and low power
requirements of MOSFETs have fostered today's microcomputer revolution. »
Salamanca Al Día (9 de enero de 2020). «Informática, un sector con salidas
únicas». Archivado desde el original el 9 de marzo de 2018. Consultado el 6 de
marzo de

La informática,1 también llamada computación,2 es el área de la ciencia que se


encarga de estudiar la administración de métodos, técnicas y procesos con el fin de
almacenar, procesar y transmitir información y datos en formato digital. La
informática abarca desde disciplinas teóricas (como algoritmos, teoría de la
computación y teoría de la información) hasta disciplinas prácticas (incluido el
diseño y la implementación de hardware y software).3 La informática generalmente se
considera un área de investigación académica y distinta de la programación
informática.4

De esa manera, la informática se refiere al procesamiento automático de


información, dispositivos electrónicos, sistemas computacionales.

El término informática también es sinónimo de contar y calcular. En sus inicios, se


utilizaba para referirse a la acción realizada por máquinas mecánicas de cómputo y,
antes de eso, a calculadoras humanas.

Los sistemas informáticos deben contar con la capacidad de cumplir tres tareas
básicas: entrada (input, captación de la información), procesamiento y salida
(transmisión de los resultados).

No existe una definición consensuada sobre el término. Sin embargo, la Asociación


de Docentes de Informática y Computación de la República Argentina ha tomado una
posición, definiéndola de la siguiente manera: «La informática es la disciplina o
campo de estudio que abarca el conjunto de conocimientos, métodos y técnicas
referentes al tratamiento automático de la información, junto con sus teorías y
aplicaciones prácticas, con el fin de almacenar, procesar y transmitir datos e
información en formato digital utilizando sistemas computacionales. Los datos son
la materia prima para que, mediante su proceso, se obtenga como resultado
información. Para ello, la informática crea y/o emplea sistemas de procesamiento de
datos, que incluyen medios físicos (hardware) en interacción con medios lógicos
(software) y las personas que los programan y/o los usan (humanware)».5

Es por lo que se hace distinción entre este término y las ciencias de la


computación, puesto que el segundo engloba la parte más teórica mientras que
informática se refiere a la aplicabilidad de esta anterior en datos usando
dispositivos electrónicos. De hecho, se definen cinco subdisciplinas del campo de
la informática: ciencias de la computación, ingeniería informática, sistemas de
información, tecnología de la información e ingeniería de software.6

La informática es la forma científica de procesar la información. Este


procesamiento consiste en ordenar, seleccionar, ejecutar cálculos de forma que nos
permita extraer conclusiones de la información manipulada. Procesar información es
transformar datos primarios en información organizada, significativa y útil, que a
su vez está compuesta de datos. La informática, que se ha desarrollado rápidamente
a partir de la segunda mitad del siglo xx con la aparición de tecnologías como el
circuito integrado, el Internet y el teléfono móvil,7 es la rama de la tecnología
que estudia el tratamiento automático de la información.89

En 1957, Karl Steinbuch añadió la palabra alemana Informatik en la publicación de


un documento denominado Informatik: Automatische Informationsverarbeitung
(Informática: procesamiento automático de información).10 El soviético Alexander
Ivanovich Mikhailov fue el primero en utilizar Informatik con el significado de
«estudio, organización y diseminación de la información científica», que sigue
siendo su significado en dicha lengua.10 En inglés, la palabra informatics fue
acuñada independiente y casi simultáneamente por Walter F. Bauer, en 1962, cuando
Bauer cofundó la empresa Informatics General, Inc.10

Toma una encuesta corta y ayúdanos a mejorar Wikipedia

Visita la encuestaNo, gracias


Datos de la encuesta manejados por una tercera parte. Privacidad.
Orígenes de la informática
Artículo principal: Anexo:Historia de la computación
La disciplina de la informática es anterior a la creación de las computadoras. Ya
en la antigüedad se conocían métodos para realizar cálculos matemáticos, por
ejemplo el algoritmo de Euclides. En el siglo xvii comenzaron a inventarse máquinas
calculadoras. La herramienta más antigua conocida para su uso en computación es el
ábaco, y se cree que fue inventado en Babilonia alrededor del 2400 a. C. Su diseño
original de uso fue por líneas dibujadas en arena con guijarros. Esta fue la
primera ayuda de cálculo conocida, precediendo a los métodos griegos por 2000 años.

En el siglo xix se desarrollaron las primeras máquinas programables, es decir, que


el usuario podría modificar la secuencia de acciones a realizar a través de
algoritmos específicos. La primera propuesta registrada para el uso de la
electrónica digital en la informática fue el artículo de 1931 "El uso de tiratrones
para el conteo automático de fenómenos físicos a alta velocidad" de C. E. Wynn-
Williams.11 El artículo de 1938 de Claude Shannon "Un análisis simbólico de los
circuitos de conmutación y relés" introdujo la idea de utilizar la electrónica para
las operaciones de álgebra booleana.

Caja de ordenador con un procesador LGA775 de Intel, con la tarjeta madre, el


ventilador del procesador, la alimentación eléctrica, y la memoria.
El concepto de un transistor de efecto de campo fue propuesto por Julius Edgar
Lilienfeld en 1925. John Bardeen y Walter Brattain, mientras trabajaban con William
Shockley en Bell Labs, construyó el primer transistor en funcionamiento, el
transistor de contacto puntual, en 1947.1213 En 1953, la Universidad de Mánchester
construyó la primera ordenador transistorizado, llamada ordenador de
transistores.14 Sin embargo, los primeros transistores de unión eran dispositivos
relativamente voluminosos que eran difíciles de producir en masa, lo que los
limitaba a una serie de aplicaciones especializadas.15 El transistor de efecto de
campo de óxido de metal-silicio (MOSFET, o transistor MOS) fue inventado por
Mohamed Atalla y Dawon Kahng en Bell Labs en 1959.1617 Fue el primer transistor
verdaderamente compacto que podía ser miniaturizado y producido en masa para una
amplia gama de usos.15 El MOSFET hizo posible construir chiìs de circuitos
integrados de alta densidad,1819 dando lugar a lo que se conoce como la revolución
informática20 o revolución de la microcomputadora.21

En los inicios del procesamiento automático de la información, con la informática


solo se facilitaban los trabajos repetitivos y monótonos del área administrativa.
La automatización de esos procesos trajo como consecuencia directa una disminución
de los costes y un incremento en la productividad. En la informática convergen los
fundamentos de las ciencias de la computación, la programación y también las
metodologías para el desarrollo de software, la arquitectura de las computadoras,
las redes de computadores, la inteligencia artificial y ciertas cuestiones
relacionadas con la electrónica. Se puede entender por informática a la unión
sinérgica de todo este conjunto de disciplinas. Esta disciplina se aplica a
numerosas y variadas áreas del conocimiento o la actividad humana, por ejemplo:
gestión de negocios, almacenamiento y consulta de información; monitorización y
control de procesos, industria, robótica, comunicaciones, control de transportes,
investigación, desarrollo de juegos, diseño computarizado,
aplicaciones/herramientas multimedia, medicina, biología, física, química,
meteorología, ingeniería, arte, etc. Puede tanto facilitar la toma de decisiones a
nivel gerencial (en una empresa) como permitir el control de procesos críticos.
Actualmente, es difícil concebir un área que no esté vinculada o requiera del apoyo
de la informática. Esta puede cubrir un enorme abanico de funciones, que van desde
las más simples cuestiones domésticas hasta los cálculos científicos más complejos.
Entre las funciones principales de la informática se enumeran las siguientes:

Creación de nuevas especificaciones de trabajo.


Desarrollo e implementación de sistemas informáticos.
Sistematización de procesos.
Optimización de los métodos y sistemas informáticos existentes.
Facilitar la automatización de datos y formatos.22
Sistemas de tratamiento de la información
Los sistemas computacionales, generalmente implementados como dispositivos
electrónicos, permiten el procesamiento automático de la información. Conforme a
ello, los sistemas informáticos deben realizar las siguientes tres tareas básicas:

Entrada: captación de la información. Normalmente son datos y órdenes ingresadas


por los usuarios a través de cualquier dispositivo de entrada conectado a la
computadora.
Proceso: tratamiento de la información. Se realiza a través de programas y
aplicaciones diseñadas por programadores que indican de forma secuencial cómo
resolver un requerimiento.
Salida: transmisión de resultados. A través de los dispositivos de salida los
usuarios pueden visualizar los resultados que surgen del procesamiento de los
datos.
Sistema operativo es un conjunto de programas que permite interactuar al usuario
con la computadora.
Sistemas de mando y control, son sistemas basados en la mecánica y motricidad de
dispositivos que permiten al usuario localizar, dentro de la logística, los
elementos que se demandan. Están basados en la electricidad, o sea, no en el
control del flujo del electrón, sino en la continuidad o discontinuidad de una
corriente eléctrica, si es alterna o continua o si es inducida, contra inducida, en
fase o desfase (ver periférico de entrada).
Sistemas de archivo, son sistemas que permiten el almacenamiento a largo plazo de
información que no se demandará por un largo lapso. Estos sistemas usan los
conceptos de biblioteca para localizar la información demandada.
Código ASCII es un método para la correspondencia de cadenas de bits permitiendo de
esta forma la comunicación entre dispositivos digitales así como su proceso y
almacenamiento, en la actualidad todos los sistemas informáticos utilizan el código
ASCII para representar textos, gráficos, audio e infinidad de información para el
control y manipulación de dispositivos digitales.
En un editor de texto presionando las teclas Alt + el número del código ASCII,
aparecerá el carácter correspondiente, solamente funciona en un teclado que tenga
las teclas numéricas.

Véase también
Historia de las ciencias de la computación
Anexo:Historia de la computación
Computadora
Ciencias de la computación
Teoría de la computación
Generaciones de computadoras
Primera generación de computadoras
Historia de las computadoras personales
Software
Mujeres en informática
Tecnología
Internet
Computadoras en la ciencia ficción
Internet en la ciencia ficción
Ver el portal sobre Informática Portal:Informática. Contenido relacionado con
Informática.
Referencias
«CIP user site». nces.ed.gov. Consultado el 22 de noviembre de 2019.
Real Academia Española. «Computación». Diccionario de la lengua española (23.ª
edición). Consultado el 13 de agosto de 2014.
«Definition of computer science | Dictionary.com». www.dictionary.com (en inglés).
Consultado el 3 de junio de 2022.
Denning, P.J.; Comer, D.E.; Gries, D.; Mulder, M.C.; Tucker, A.; Turner, A.J.;
Young, P.R. (1989-02). «Computing as a discipline». Computer 22 (2): 63-70. ISSN
0018-9162. doi:10.1109/2.19833. Consultado el 3 de junio de 2022.
«ADICRA: ¿De qué hablamos cuando hablamos de Informática?».
«Curricula Recommendations». Association for Computing Machinery. 2005. Consultado
el 30 de noviembre de 2012.
"Informática, información, y comunicación", en 'Documentación Social: Revista de
Estudios Sociales y de Tecnología Aplicada', n° 108, julio-septiembre 1999
(consultar texto en línea pp. 76-82)
Diego Dikygs, Tratamiento (Automático) de la Información, sitio digital 'Nociones
de Informática', 12 de abril de 2011.
Historia de la Computación, sitio digital 'Monografías'.
Patricio Villalva, ¿Qué es la Informática?, sitio digital 'Informática avanzada'.
Wynn-Williams, C. E. (2 de julio de 1931), «The Use of Thyratrons for High Speed
Automatic Counting of Physical Phenomena», Proceedings of the Royal Society A 132
(819): 295-310, Bibcode:1931RSPSA.132..295W, doi:10.1098/rspa.1931.0102.
Lee, Thomas H. (2003). The Design of CMOS Radio-Frequency Integrated Circuits.
Cambridge University Press. ISBN 9781139643771. Archivado desde el original el 9 de
diciembre de 2019. Consultado el 16 de septiembre de 2019.
Puers, Robert; Baldi, Livio; Voorde, Marcel Van de; Nooten, Sebastiaan E. van
(2017). Nanoelectronics: Materials, Devices, Applications, 2 Volumes. John Wiley &
Sons. p. 14. ISBN 9783527340538.
Lavington, Simon (1998), A History of Manchester Computers (2 edición), Swindon:
The British Computer Society, pp. 34-35.
Moskowitz, Sanford L. (2016). Advanced Materials Innovation: Managing Global
Technology in the 21st century. John Wiley & Sons. pp. 165-167. ISBN 9780470508923.
«1960 - Metal Oxide Semiconductor (MOS) Transistor Demonstrated». The Silicon
Engine (Computer History Museum).
Lojek, Bo (2007). History of Semiconductor Engineering. Springer Science &
Business Media. pp. 321–3. ISBN 9783540342588.
«Who Invented the Transistor?». Computer History Museum. 4 de diciembre de 2013.
Consultado el 20 de julio de 2019.
Hittinger, William C. (1973). «Metal-Oxide-Semiconductor Technology». Scientific
American 229 (2): 48-59. Bibcode:1973SciAm.229b..48H. ISSN 0036-8733. JSTOR
24923169. doi:10.1038/scientificamerican0873-48.
Fossum, Jerry G.; Trivedi, Vishal P. (2013). Fundamentals of Ultra-Thin-Body
MOSFETs and FinFETs. Cambridge University Press. p. vii. ISBN 9781107434493.
Malmstadt, Howard V.; Enke, Christie G.; Crouch, Stanley R. (1994). Making the
Right Connections: Microcomputers and Electronic Instrumentation. American Chemical
Society. p. 389. ISBN 9780841228610. «The relative simplicity and low power
requirements of MOSFETs have fostered today's microcomputer revolution. »
Salamanca Al Día (9 de enero de 2020). «Informática, un sector con salidas
únicas». Archivado desde el original el 9 de marzo de 2018. Consultado el 6 de
marzo de
Fossum, Jerry G.; Trivedi, Vishal P. (2013). Fundamentals of Ultra-Thin-Body
MOSFETs and FinFETs. Cambridge University Press. p. vii. ISBN 9781107434493.
Malmstadt, Howard V.; Enke, Christie G.; Crouch, Stanley R. (1994). Making the
Right Connections: Microcomputers and Electronic Instrumentation. American Chemical
Society. p. 389. ISBN 9780841228610. «The relative simplicity and low power
requirements of MOSFETs have fostered today's microcomputer revolution. »
Salamanca Al Día (9 de enero de 2020). «Informática, un sector con salidas
únicas». Archivado desde el original el 9 de marzo de 2018. Consultado el 6 de
marzo de
Salamanca Al Día (9 de enero de 2020). «Informática, un sector con salidas
únicas». Archivado desde el original el 9 de marzo de 2018. Consultado el 6 de
marzo de

La informática,1 también llamada computación,2 es el área de la ciencia que se


encarga de estudiar la administración de métodos, técnicas y procesos con el fin de
almacenar, procesar y transmitir información y datos en formato digital. La
informática abarca desde disciplinas teóricas (como algoritmos, teoría de la
computación y teoría de la información) hasta disciplinas prácticas (incluido el
diseño y la implementación de hardware y software).3 La informática generalmente se
considera un área de investigación académica y distinta de la programación
informática.4

También podría gustarte