Practica Terminos

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 30

Universidad dominicana O & M

Carrera
Ing. En sistemas y computación

Sección
122

Matricula
21-MIST-1-036

Sustentante
Yasmery Calvo Frías

Asignatura
FUNDAMENTOS DE TECNOLOGIA
DE LA INFORMACION

Tema
Términos de investigación

Facilitadora
Ing. Felicia Alcántara

Fecha de entrega
19/05/2021

Tecnología
La tecnología es el conjunto de conocimientos y técnicas que se aplican de manera ordenada para
alcanzar un determinado objetivo o resolver un problema.
La tecnología es una respuesta al deseo del hombre de transformar el medio y mejorar su calidad
de vida. Incluye conocimientos y técnicas desarrolladas a lo largo del tiempo que se utilizan de
manera organizada con el fin de satisfacer alguna necesidad.

a tecnología bien utilizada puede mejorar la calidad de vida de las personas (como, por ejemplo, el
desarrollo de métodos de producción más limpios). No obstante, mal utilizada, puede causar
grandes daños a las personas y a la sociedad (por ejemplo, la utilización de tecnología para ataques
y crímenes).

Tipos de tecnología

La tecnología puede clasificarse de acuerdo a diversos criterios. Por ejemplo, según su


tangibilidad se divide en:

 Blanda: Nos reporta bienes intangibles como nuevas teorías económicas o nuevas formas de
administración de recursos.
 Dura: Se refiere a la que nos ayuda a producir bienes tangibles como coches modernos, edificios
anti-terremotos, etc

Ingeniería

La ingeniería es el uso de principios científicos para diseñar y construir máquinas, estructuras y


otros entes, incluyendo puentes, túneles, caminos, vehículos, edificios, 1 sistemas y procesos.
Aprovecha el cúmulo de conocimientos tecnológicos para la innovación, invención, desarrollo y
mejora de técnicas y herramientas para satisfacer las necesidades y resolver problemas técnicos
tanto de las personas como de la sociedad.
El ingeniero se apoya en las ciencias básicas (matemática, física, química, biología, ciencias
económicas y administrativas, ciencias de la ingeniería, ingeniería aplicada) tanto para el
desarrollo de tecnologías, como para el manejo eficiente y productivo de recursos y fuerzas de la
naturaleza en beneficio de la sociedad. La ingeniería es una actividad que transforma el
conocimiento en algo práctico.
La ingeniería aplica los conocimientos y métodos científicos a la invención o perfeccionamiento
de tecnologías de manera pragmática y ágil, adecuándose a las limitaciones de tiempo, recursos,
requisitos legales, requisitos de seguridad, ecológicos, etc.
Actualmente la ingeniería se clasifica en diversas áreas según su campo de aplicación.
La ingeniería es una disciplina amplia y en cierta medida cambiante, ya que depende en gran
medida del avance tecnológico y de las herramientas de las que hacen uso los ingenieros; además,
la educación en ingeniería no es homogénea y su duración, entre otros aspectos, difiere
internacionalmente. Además, la ingeniería es en muchos países una profesión regulada y cuya
educación formal ha de adaptarse a la normativa nacional.

Sistema
Un sistema es un conjunto de elementos relacionados entre sí que funciona como un todo.
Si bien cada uno de los elementos de un sistema puede funcionar de manera independiente,
siempre formará parte de una estructura mayor. Del mismo modo, un sistema puede ser, a su vez,
un componente de otro sistema.

Tipos de sistemas
Existen dos grandes tipos de sistemas:

Sistemas conceptuales o abstractos


Un sistema conceptual son todas las ideas, conceptos, signos, hipótesis, teorías o símbolos que se
utilizan para crear un constructo, es decir, una entidad hipotética.

Un ejemplo de sistema conceptual es la matemática, que a su vez está formada por varios
componentes abstractos (álgebra, cálculo, etc.).

Sistemas reales o materiales


Son estructuras compuestas por elementos tangibles, sean de origen natural o artificial.

Ejemplos de sistemas reales son el cuerpo humano o el hardware de una computadora.


Información
Información es el nombre por el que se conoce un conjunto organizado de datos procesados que
constituyen un mensaje que cambia el estado de conocimiento del sujeto o sistema que recibe
dicho mensaje. Existen diversos enfoques para el estudio de la información:

 En biología, la información se considera como estímulo sensorial que afecta al


comportamiento de los individuos.
 Múltiples son las definiciones que se encuentran presentes a la hora de la determinación de su
contenido. Según Ivis Goñi Camejo «la información no se ha definido solo desde el punto de
vista matemático o técnico; su conceptualización abarca enfoques filosóficos, cibernéticos y
otros, basados en las denominadas ciencias de la información.»
 En comunicación social y periodismo, como un conjunto de mensajes intercambiados por
individuos de una sociedad con fines organizativos concretos.
Los datos sensoriales una vez percibidos y procesados constituyen una información que cambia el
estado de conocimiento, eso permite a los individuos o sistemas que poseen dicho estado nuevo de
conocimiento tomar decisiones pertinentes acordes a dicho conocimiento.
Desde el punto de vista de la ciencia de la computación, la información, es
un conocimiento explícito extraído por seres vivos o sistemas expertos como resultado de
interacción con el entorno o percepciones sensibles del mismo entorno. En principio la
información, a diferencia de los datos o las percepciones sensibles, tienen estructura útil que
modificará las sucesivas interacciones del que posee dicha información con su entorno.

Ergonomía
La ergonomía es la disciplina que se encarga del diseño de lugares de trabajo, herramientas y
tareas, de modo que coincidan con las características fisiológicas, anatómicas, psicológicas y las
capacidades de los trabajadores que se verán involucrados.1 Busca la optimización de los tres
elementos del sistema (humano-máquina-ambiente), para lo cual elabora métodos de la persona,
de la técnica y de la organización2.
El Consejo de la Asociación Internacional de Ergonomía (IEA), 3 que agrupa a todas las sociedades
científicas a nivel mundial, estableció desde el año 2000 la siguiente definición, que abarca la
interdisciplinariedad que fundamenta a esta disciplina:
Ergonomía (o factores humanos) es la disciplina científica relacionada con la comprensión de las
interacciones entre los seres humanos y los elementos de un sistema, y la profesión que aplica
teoría, principios, datos y métodos de diseño para optimizar el bienestar humano y todo el
desempeño del sistema.

El objetivo de la ergonomía es adaptar el trabajo a las capacidades y posibilidades


del ser humano.

Todos los elementos de trabajo ergonómicos se diseñan teniendo en cuenta quiénes van
a utilizarlos. Lo mismo debe ocurrir con la organización de la empresa: es necesario
diseñarla en función de las características y las necesidades de las personas que las
integran.

La psicosociología aplicada parte del hecho de que las necesidades de las personas son
cambiantes, como lo es la propia organización social y política. Por ello, las
organizaciones no pueden ser centros aislados y permanecer ajenos a estos cambios.

Hoy en día, se demanda calidad de vida laboral. Este concepto es difícil de traducir en


palabras, pero se puede definir como el conjunto de condiciones de trabajo que no dañan
la salud y que, además, ofrecen medios para el desarrollo personal, es decir, mayor
contenido en las tareas, participación en las decisiones, mayor autonomía, posibilidad de
desarrollo personal, etc.

Ingeniería social (seguridad informática)


La ingeniería social es un conjunto de técnicas que usan los cibercriminales para engañar a los
usuarios incautos para que les envíen datos confidenciales, infecten sus computadoras con
malware o abran enlaces a sitios infectados. Además, los hackers pueden tratar de aprovecharse de
la falta de conocimiento de un usuario; debido a la velocidad a la que avanza la tecnología,
numerosos consumidores y trabajadores no son conscientes del valor real de los datos personales y
no saben con certeza cuál es la mejor manera de proteger esta información.
Técnicas y términos
En la práctica, un ingeniero social usará comúnmente el teléfono o Internet para engañar a la
gente, fingiendo ser, por ejemplo, un empleado de algún banco o alguna otra empresa, un
compañero de trabajo, un técnico o un cliente. Vía Internet se usa, adicionalmente, el envío de
solicitudes de renovación de permisos de acceso a páginas web o correos electrónicos falsos que
solicitan respuestas e incluso las famosas cadenas, llevando así a revelar sus credenciales de
acceso o información sensible, confidencial o crítica.
Con este método, los ingenieros sociales aprovechan la tendencia natural de la gente a reaccionar
de manera predecible en ciertas situaciones, –por ejemplo proporcionando detalles financieros a
un aparente funcionario de un banco– en lugar de tener que encontrar agujeros de seguridad en
los sistemas informáticos.

 La ingeniería Social está definida como un ataque basado en engañar a un usuario o


administrador de un sitio en la internet, para poder ver la información que ellos quieren.
 Se hace para obtener acceso a sistemas o información útil.
 Los objetivos de la ingeniería social son fraude, intrusión de una red.

Pretextos
El pretexto es la creación de un escenario inventado para llevar a la víctima a revelar información
personal o a actuar de una forma que sería poco común en circunstancias normales. Una mentira
elaborada implica a menudo una investigación previa de la víctima para conseguir la información
necesaria, y así llevar a cabo la suplantación (por ejemplo, la fecha de nacimiento, el número de la
Seguridad Social, datos bancarios, etc.) y hacerle creer que es legítimo.
El pretexto también se puede utilizar para suplantar a compañeros de trabajo, a la policía, al banco,
a autoridades fiscales o cualquier otra persona que podría haber percibido el derecho a la
información en la mente de la víctima. El "pretexter" simplemente debe preparar respuestas a
preguntas que se puede plantear la víctima. En algunos casos, todo lo que necesita es una voz que
inspire autoridad, un tono serio y la capacidad de improvisar para crear un escenario pretextual.

Robótica
La robótica es la rama de la ingeniería mecánica, de la ingeniería eléctrica, de la ingeniería
electrónica, de la ingeniería biomédica y de las ciencias de la computación, que se ocupa
del diseño, construcción, operación, estructura, manufactura y aplicación de los robots.
La robótica combina diversas disciplinas como la mecánica, la electrónica, la informática,
la inteligencia artificial, la ingeniería de control y la física. Otras áreas importantes en robótica son
el álgebra, los autómatas programables, la animatrónica y las máquinas de estados.
El término robot se popularizó con el éxito de la obra R.U.R. (Robots Universales Rossum), escrita
por Karel Čapek en 1920. En la traducción al inglés de dicha obra la palabra checa robota, que
significa trabajos forzados o trabajador, fue traducida al inglés como robot.

Nanotecnología
Por definición, la Nanotecnología, es el estudio y desarrollo de sistemas en escala nanométrica,
“nano” es un prefijo del Sistema Internacional de Unidades que viene del griego νάνος que
significa enano, y corresponde a un factor 10^-9, que aplicado a las unidades de longitud,
corresponde a una mil millonésima parte de un metro (10^-9 Metros) es decir 1 Nanómetro.
En esta escala se observan propiedades y fenómenos totalmente nuevos, que se rigen bajo las leyes
de la Mecánica Cuántica, estas nuevas propiedades son las que los científicos aprovechan para
crear nuevos materiales (nanomateriales) o dispositivos nanotecnológicos.

La Nanotecnología promete soluciones a múltiples problemas que enfrenta actualmente la


humanidad, como los ambientales, energéticos, de salud (nanomedicina), y muchos otros, sin
embargo estas nuevas tecnologías pueden conllevar a riesgos y peligros si son mal utilizadas.
La nanotecnología definida por el tamaño es naturalmente un campo muy amplio, que incluye
diferentes disciplinas de la ciencia tan diversas como la ciencia de superficies, química
orgánica, biología molecular, física de los semiconductores, microfabricación, etc.4 Las
investigaciones y aplicaciones asociadas son igualmente diversas, yendo desde extensiones de
la física de los dispositivos a nuevas aproximaciones completamente nuevas basadas en
el autoensamblaje molecular, desde el desarrollo de nuevos materiales con dimensiones en las
nanoescalas al control directo de la materia a escala atómica.
Actualmente los científicos están debatiendo el futuro de las implicaciones de la nanotecnología.
La nanotecnología puede ser capaz de crear nuevos materiales y dispositivos con un vasto alcance
de aplicaciones, tales como en la medicina, electrónica, biomateriales y la producción de energía.
Por otra parte, la nanotecnología hace surgir las mismas preocupaciones que cualquier nueva
tecnología, incluyendo preocupaciones acerca de la toxicidad y el impacto ambiental de los
nanomateriales,5 y sus potenciales efectos en la economía global, así como especulaciones acerca
de varios escenarios apocalípticos. Estas preocupaciones han llevado al debate entre varios grupos
de defensa y gobiernos sobre si se requieren regulaciones especiales para la nanotecnología.
señal analógica vs digital
La información se transmite de muchas maneras ya sea con el uso de un dispositivo u otro. La
diferencia entre una señal analógica y digital es una de las primeras dudas que nos planteamos al
conocer más sobre esta materia. Debemos tener en cuenta que ambos métodos se encargan de
que podamos transmitir información con eficiencia, pero en cada caso de una forma específica.
El sistema que se utiliza para que la información se pueda transmitir es el aprovechamiento de
señales eléctricas que activan los procesos de intercambio de datos. Tanto las señales digitales
como las analógicas cuentan con diferenciaciones que conviene conocer si estamos
especializándonos en tecnología móvil y otros sistemas similares.

Señal analógica

Las medidas físicas se utilizan cuando hablamos de utilizar señales analógicas, que son
especialmente usadas para llevar a cabo la transmisión de elementos de vídeo o sonido.
Aunque son señales de tipo continuo hay que decir que su expansión se produce por la entrada en
escena de las ondas de tipo senoidal. Para que las distintas señales analógicas que se transmitan
puedan ser interpretadas de una manera adecuada habrá que tener un decodificador que permita
cumplir con el proceso de trabajo. Una de las ventajas del uso de la señal analógica es que hay
poco consumo de ancho de banda, mientras que por otro lado es un tipo de acción que se procesa
en tiempo real. Hay menores necesidades en términos de inversión y la calidad suele ser más fiel a
la realidad (cuando hablamos de la transmisión de sonido). Pero también tiene sus desventajas.
La principal es lo complicado que resulta solucionar una transmisión fallida en comparación a si
estuviéramos usando una señal digital.

Señal digital

En el otro lado de la balanza tenemos las señales digitales, que se usan de una forma más
frecuente debido a su flexibilidad y polivalencia. La información no se transmite de la misma
forma, sino que en este caso se utiliza un sistema de códigos binarios (los números 0 y 1) con los
que se lleva a cabo la transmisión bajo una pareja de amplitudes que proporciona grandes
posibilidades. El proceso del que hablábamos con las ondas senoidales en las señales analógicas
cambia de forma completa para dar paso a ondas cuadradas, lo que permite hacer uso de la
modulación digital y de un tipo de señal que no es continua. Hay aspectos que se deben tener en
cuenta tal y como ya hemos mencionado antes, como que las señales digitales proporcionan una
mayor capacidad para transmitir información de una manera fiel. Estas señales no producen
deterioro en la información ni en la calidad de los datos, lo que ayuda a que el resultado sea más
adecuado.
Sistema de información
Un sistema de información es un conjunto de datos que interactúan entre sí con un fin común.
En informática, los sistemas de información ayudan a administrar, recolectar, recuperar, procesar,
almacenar y distribuir información relevante para los procesos fundamentales y las
particularidades de cada organización.
La importancia de un sistema de información radica en la eficiencia en la correlación de una gran
cantidad de datos ingresados a través de procesos diseñados para cada área con el objetivo de
producir información válida para la posterior toma de decisiones.
Un sistema de información se destaca por su diseño, facilidad de uso, flexibilidad, mantenimiento
automático de los registros, apoyo en toma de decisiones críticas y mantener el anonimato en
informaciones irrelevantes..
Todos estos elementos interactúan para procesar los datos (incluidos los procesos manuales y
automáticos) y dan lugar a información más elaborada, que se distribuye de la manera más
adecuada posible en una determinada organización, en función de sus objetivos.
Sistema de información se entiende como el conjunto de tecnologías, procesos, aplicaciones de
negocios y software disponibles para las personas dentro de una organización.

Sistema de cómputo
Es un conjunto de elementos humanos, materiales y lógicos que interactúan entre sí, cada uno con
una función específica fin de lograr una tarea en común: El procesamiento de datos para la
obtención de información útil para el ser humano.

Un sistema de cómputo se compone por dos partes básicas el hardware y el software:

Hardware: Son las partes físicas de la computadora, todo lo que se puede tocar como un teclado,
una impresora o las bocinas.
Software: Es el conjunto de programas que permiten procesar y almacenar información de acuerdo
a una serie de instrucciones, se le considera la parte lógica, no palpable, de una computadora.

Humanware: Son las personas involucradas en el proceso de diseño y utilización de las


computadoras, desde los usuarios, los programadores, diseñadores de hardware así como los
técnicos de mantenimiento y reparación.

Sistema binario
El sistema binario, llamado también sistema diádico1 en ciencias de la computación, es
un sistema de numeración en el que los números son representados utilizando únicamente
dos cifras: cero (0) y uno (1). Es uno de los sistemas que se utilizan en las computadoras, debido a
que estas trabajan internamente con dos niveles de voltaje, por lo cual su sistema de numeración
natural es el sistema binario.2
Los sistemas binarios son sistemas numéricos utilizados en el área de la informática. El sistema
numérico que utilizamos habitualmente es de numeración decimal, esto quiere decir, que consiste
de 10 números, contando del 0 al número 9. Además,a diferencia del sistema binario, la posición
que ocupa un número le otorga diferentes valores como, por ejemplo, en el número 23, el 22
representa 20 y el 3 es solo 3.

Es importante recalcar que sistema binario es un sistema de numeración de base 2 y el sistema


decimal es de base 10.
Sistema operativo
Un sistema operativo (SO o, frecuentemente, OS —del inglés operating  system—) es
el software principal o conjunto de programas de un sistema informático que gestiona los recursos
de hardware y provee servicios a los programas de aplicación de software, ejecutándose en modo
privilegiado respecto de los restantes.1
Uno de los propósitos del sistema operativo que gestiona el núcleo intermediario consiste en
gestionar los recursos de localización y protección de acceso del hardware, hecho que alivia a los
programadores de aplicaciones de tener que tratar con estos detalles. La mayoría de aparatos
electrónicos que utilizan microprocesadores para funcionar, llevan incorporado un sistema
operativo (teléfonos móviles, reproductores de DVD, computadoras, enrutadores, etc.). En cuyo
caso, son manejados mediante una interfaz gráfica de usuario, un gestor de ventanas o un entorno
de escritorio, si es un celular, mediante una consola o control remoto si es un DVD y, mediante
una línea de comandos o navegador web si es un enrutador.
El sistema operativo de escritorio dominante es Microsoft Windows con una cuota de mercado de
alrededor del 82,74%. macOS de Apple Inc. ocupa el segundo lugar (13,23%), y las variedades
de GNU/Linux están colectivamente en tercer lugar (1,57%).2 En el sector móvil (incluidos
teléfonos inteligentes y tabletas), la participación de Android es de hasta un 70% en el año 2017. 3
Las distribuciones Linux son dominantes en los sectores de servidores y supercomputación4.
Existen otras clases especializadas de sistemas operativos, como los sistemas integrados y en
tiempo real, para muchas aplicaciones.
¿Como está conformado un Sistema de cómputo?

Hardware Corresponde a todas las partes físicas y tangibles de una computadora: sus componentes eléctricos,
electrónicos, electromecánicos y mecánicos;  sus cables, gabinetes o cajas, periféricos de todo tipo y cualquier otro
elemento físico involucrado;

Software se refiere al equipamiento lógico o soporte lógico de una computadora digital, y comprende el conjunto de
los componentes lógicos necesarios para hacer posible la realización de una tarea específica, en contraposición a los
componentes físicos del sistema (hardware).

Tales componentes lógicos incluyen, entre otros, aplicaciones informáticas tales como procesadores de texto, que
permiten al usuario realizar todas las tareas concernientes a edición de textos; software de sistema, como un sistema
operativo, que, básicamente, permite al resto de los programas funcionar adecuadamente, facilitando la interacción
con los componentes físicos y el resto de las aplicaciones; también provee una interfaz para el usuario.

programa
Un programa es un conjunto de pasos lógicos escritos en un lenguaje de programación que nos
permite realizar una tarea específica. El programa suele contar con una interfaz de usuario, es
decir, un medio visual mediante el cual interactuamos con la aplicación. Algunos ejemplos son la
calculadora, el navegador de internet, un teclado en pantalla para el celular, etc.
Hoy encontramos programas o aplicaciones que pueden ejecutarse en una computadora,
notebooks, tablets y celulares. Estas aplicaciones pueden ser escritas en diferentes lenguajes de
programación. Como ejemplos encontramos C, Java, PHP, Python, entre otros. Estos programas
corren sobre un sistema operativo, por ejemplo, Windows, Linux, Mac OS y Android entre otros.
Los programas para poder correr se deben cargar en la memoria, el responsable de esta tarea es el
sistema operativo. Un programa puede diseñarse para una computadora o para otro tipo de
dispositivos pero su programación suele realizarse en una computadora utilizando un entorno de
desarrollo integrado (en ingles IDE). Este programa cuenta con herramientas que permiten
convertir nuestro código en un programa funcional. Estás herramientas son el compilador, el
“linker” y el depurador (debugger).
Existen otras herramientas que facilitan nuestro trabajo, por ejemplo para documentar o llevar
registro de lo que hacemos (doxygen), para compartir nuestro trabajo y realizarlo en forma
colaborativa (SVN / GIT). De esta forma, un equipo de trabajo puede desarrollar diferentes partes
de un programa y luego integrarlas en forma más simple.

Lenguaje de programación
Un lenguaje de programación es un lenguaje formal (o artificial, es decir, un lenguaje con reglas
gramaticales bien definidas) que le proporciona a una persona, en este caso el programador, la
capacidad de escribir (o programar) una serie de instrucciones o secuencias de órdenes en forma
de algoritmos con el fin de controlar el comportamiento físico o lógico de un sistema informático,
de manera que se puedan obtener diversas clases de datos o ejecutar determinadas tareas. A todo
este conjunto de órdenes escritas mediante un lenguaje de programación se le denomina programa
informático.1

Características[editar]
Programar viene a ser el proceso de crear un software fiable mediante la
escritura, prueba, depuración, compilación o interpretación, y mantenimiento del código fuente de
dicho programa informático. Básicamente, este proceso se define aplicando lógicamente los
siguientes pasos:

 El desarrollo lógico del programa para resolver un problema en particular.


 Escritura de la lógica del programa empleando un lenguaje de programación específico
(codificación del programa).
 Compilación o interpretación del programa hasta convertirlo en lenguaje de máquina.
 Prueba y depuración del programa.
 Desarrollo de la documentación.
Los lenguajes de programación están formados por un conjunto de símbolos (llamado alfabeto),
reglas gramaticales (léxico/morfológicas y sintácticas) y semánticas, que en conjunto definen las
estructuras válidas del lenguaje y su significado. Existe el error común de tratar como sinónimos
los términos 'lenguaje de programación' y 'lenguaje informático'. Los lenguajes informáticos
engloban a los lenguajes de programación y a otros más, como por ejemplo HTML (lenguaje para
el marcado de páginas web que no es propiamente un lenguaje de programación, sino un conjunto
de instrucciones que permiten estructurar el contenido de los documentos).
El lenguaje de programación permite especificar de manera precisa sobre qué datos debe operar
un software específico, cómo deben ser almacenados o transmitidos dichos datos, y qué acciones
debe tomar el software bajo una variada gama de circunstancias. Todo esto, a través de
un lenguaje que intenta estar relativamente próximo al lenguaje humano o natural. Una
característica relevante de los lenguajes de programación es precisamente que más de un
programador pueda usar un conjunto común de instrucciones que sean comprendidas entre ellos
para realizar la construcción de un programa de forma colaborativa.
Lenguaje de alto nivel
Un lenguaje de programación de alto nivel se caracteriza por expresar los algoritmos de una
manera adecuada a la capacidad cognitiva humana, en lugar de la capacidad con que los ejecutan
las máquinas. Estos lenguajes permiten una máxima flexibilidad al programador a la hora de
abstraerse o de ser literal. Permiten un camino bidireccional entre el lenguaje máquina y una
expresión casi oral entre la escritura del programa y su posterior compilación. Por lo general
suelen estar orientados a objetos, a eventos o a funciones, pudiendo estos combinarse. Asimismo,
pueden ser compilados o interpretados. Algunos ejemplos son: Java, PHP, Python, Javascript, C#.
En los primeros lenguajes, la limitación era que se orientaban a un área específica y sus
instrucciones requerían de una sintaxis predefinida. Se clasifican como lenguajes procedimentales
o lenguajes de bajo nivel. Otra limitación de estos es que se requiere de ciertos conocimientos de
programación para realizar las secuencias de instrucciones lógicas. Los lenguajes de alto nivel se
crearon para que el usuario común pudiese solucionar un problema de procesamiento de datos de
una manera más fácil y rápida.
Por esta razón, a finales de los años 1950 surgió un nuevo tipo de lenguajes de programación que
evitaba estos inconvenientes, a costa de ceder un poco en las ventajas. Estos lenguajes se
llaman de tercera generación o de nivel alto, en contraposición a los de bajo nivel o de nivel
próximo a la máquina.

Lenguaje de bajo nivel


Un lenguaje de programación de características de bajo nivel o de primera generación, es aquel en
el que sus instrucciones ejercen un control directo sobre el hardware y están condicionados por la
estructura física de las computadoras que lo soportan. El uso de la palabra bajo en su
denominación no implica que el lenguaje sea menos potente que un lenguaje de alto nivel, sino
que se refiere a la reducida abstracción entre el lenguaje y el hardware. Por ejemplo, este tipo de
lenguajes se utiliza para programar tareas críticas de los sistemas operativos, de aplicaciones en
tiempo real o controladores de dispositivos.
Lenguaje de máquina
El lenguaje de máquina o código máquina es el sistema de códigos directamente interpretable
por un circuito microprogramable, como el microprocesador de una computadora o
el microcontrolador de un autómata. Este lenguaje está compuesto por un conjunto de
instrucciones que determinan acciones a ser tomadas por la máquina. Un programa consiste en una
cadena de estas instrucciones más un conjunto de datos sobre el cual se trabaja. Estas
instrucciones son normalmente ejecutadas en secuencia, con eventuales cambios de flujo causados
por el propio programa o eventos externos. El lenguaje de máquina es específico de la arquitectura
de la máquina, aunque el conjunto de instrucciones disponibles pueda ser similar entre
arquitecturas distintas.
Los circuitos microprogramables son digitales, lo que significa que trabajan con dos únicos
niveles de tensión. Dichos niveles, por abstracción, se simbolizan con los números 0 y 1, por eso
el lenguaje de máquina solo utiliza dichos signos. Esto permite el empleo de las teorías del álgebra
booleana y del sistema binario en el diseño de este tipo de circuitos y en su programación.
Claude Elwood Shannon, en su libro Analysis of Relay and Switching Circuits, y con sus
experiencias en redes de conmutación, sentó las bases para la aplicación del álgebra de Boole a las
redes de conmutación. Una red de conmutación es un circuito de interruptores eléctricos que al
cumplir ciertas combinaciones booleanas con las variables de entrada, define el estado de la salida.
Este concepto es el núcleo de las puertas lógicas, las cuales son, por su parte, los ladrillos con que
se construyen sistemas lógicos cada vez más complejos. Shannon utilizaba el relé como
dispositivo físico de conmutación en sus redes, dado que el relé, a igual que una lámpara eléctrica,
posee dos estados: activado (encendido) o desactivado (apagado).
El desarrollo tecnológico ha permitido evolucionar desde las redes de relés electromagnéticos a
circuitos con tubos de vacío, luego a redes transistorizadas, hasta llegar a los modernos circuitos
integrados, en cuya cúspide se encuentran los circuitos microprogramados.
código fuente
El código fuente es el archivo o archivos con las instrucciones necesarias, realizadas en un
lenguaje de programación, que sirve para compilar posteriormente un programa o programas para
que puedan ser utilizados por el usuario de forma directa, tan sólo ejecutándolo.

Para lograr esto, es decir que el usuario común pueda utilizar un software sin inconvenientes y sin
preocuparse por cómo ha sido desarrollado el mismo, los creadores de programas informáticos
utilizan distintos tipos de lenguajes de programación para escribir el código fuente de un
determinado software.

En este sentido, existen una gran cantidad de lenguajes de programación, cada uno de ellos
orientados de una u otra forma a la creación de distintos tipos de programas, siendo los más
conocidos los lenguajes llamados HTML, C++, Java y Delphi, entre otros.

Codigo objeto
En programación, se llama código objeto al código que resulta de la compilación del código
fuente.1 Puede ser en lenguaje máquina o bytecode, y puede distribuirse en varios archivos que
corresponden a cada código fuente compilado. Luego un enlazador (linker) se encarga de juntar
todos los archivos de código objeto para obtener el programa ejecutable. Código objeto: Conjunto
de instrucciones y datos escritos en un lenguaje que entiende el ordenador directamente: binario o
código máquina. Provienen de la traducción de cierto código fuente, es un fragmento del programa
final y es específico de la plataforma de ejecución.
Consiste en lenguaje máquina o bytecode y se distribuye en varios archivos que corresponden a
cada código fuente compilado. Para obtener un programa ejecutable se han de enlazar todos los
archivos de código objeto con un programa llamado enlazador (linker).
Almacenamiento
Se denomina almacenamiento al proceso y la consecuencia de almacenar. Esta acción se
vincula a recoger, depositar, archivar o registrar algo. Por ejemplo: “El almacenamiento de
este tipo de alimentos debe hacerse a una temperatura inferior a los cinco grados”, “Tenemos
que pensar cómo haremos con el almacenamiento de la documentación tras la
mudanza”, “Necesito un nuevo dispositivo de almacenamiento para guardar mis fotografías
digitales”.

El concepto de almacenamiento deriva de almacén: un establecimiento que funciona como


depósito. El almacenamiento, de este modo, se asocia a depositar ciertos elementos en un
determinado espacio.

Memoria (informática)
En informática, la memoria es el dispositivo que retiene, memoriza o almacena datos informáticos
durante algún periodo de tiempo.1La memoria proporciona una de las principales funciones de la
computación moderna: el almacenamiento de información y conocimiento. Es uno de los
componentes fundamentales de la computadora, que interconectada a la unidad central de
procesamiento (CPU, por las siglas en inglés de Central Processing Unit) y los dispositivos de
entrada/salida, implementan lo fundamental del modelo de computadora de la arquitectura de Von
Neumann.
En la actualidad, «memoria» suele referirse a una forma de almacenamiento de estado sólido,
conocida como memoria RAM (memoria de acceso aleatorio; RAM por sus siglas en inglés,
de random access memory), y otras veces se refiere a otras formas de almacenamiento rápido, pero
temporal. De forma similar, se refiere a formas de almacenamiento masivo, como discos ópticos, y
tipos de almacenamiento magnético, como discos duros y otros tipos de almacenamiento, más
lentos que las memorias RAM, pero de naturaleza más permanente. Estas distinciones
contemporáneas son de ayuda, porque son fundamentales para la arquitectura de computadores en
general.

Dispositivos
Del latín disposĭtus (“dispuesto”), un dispositivo es un aparato o mecanismo que desarrolla
determinadas acciones. Su nombre está vinculado a que dicho artificio está dispuesto para cumplir
con su objetivo. Por ejemplo: “Me regalaron una cafetera espresso, pero aún no entiendo cómo
funciona el dispositivo”, “Un especialista me recomendó instalar un dispositivo que regula la
intensidad de la luz”, “Esta estufa tiene un dispositivo que permite programar el horario de
encendido y apagado”.

La noción de dispositivo es muy popular en la computación y la informática, ya que dicho


término se utiliza para nombrar a los periféricos y otros sistemas vinculados al funcionamiento de
las computadoras.

Un dispositivo es un mecanismo que realiza una función específica. Por ejemplo, los dispositivos
móviles son excelentes para fomentar la comunicación interpersonal, incluso a larga distancia.
Llevando adelante una catálogo de funcionalidades, el nombre del aparato está relacionado con
esta esencia.

Por ejemplo, una alarma de seguridad en casa es un dispositivo que cuenta con un mecanismo de
respuesta que ayuda en la prevención de posibles robos en casa. Existen distintos tipos de
dispositivos inteligentes, el ordenador es uno de los más utilizados.

Son muchos los conceptos sinónimos: instrumento, aparato y artefacto.


Datos
Un dato es la representación de una variable que puede ser cuantitativa o cualitativa
que indica un valor que se le asigna a las cosas y se representa a través de una
secuencia de símbolos, números o letras.

Los datos describen hechos empíricos. Para examinarlos deben ser organizados o
tabulados, ya que un dato por sí mismo no puede demostrar demasiado sino que se
debe evaluar el conjunto para examinar los resultados.

Tipos de datos
En programación es indispensable determinar a qué tipo o categoría corresponden los
datos con los que se trabaja. Cada conjunto de datos de un tipo específico se manipula
de diferente manera para obtener los resultados deseados.

Numérico

 Entero. Tipo de dato formado por una variable numérica que no cuenta con parte
decimal.
 Real. Tipo de dato formado por una variable numérica que puede contar con parte
decimal.

Texto

 Carácter. Tipo de dato formado por una unidad o símbolo que puede ser una letra,
un número, una mayúscula o un signo de puntuación.
 Cadena. Tipo de dato formado por un conjunto de caracteres dispuestos de forma
consecutiva que se representa entre comillas.

Lógico

 Boolean. Tipo de dato que puede representar dos valores: verdadero o falso.


Unidad minima de almacenamiento
1 Bit (es la unidad mínima de almacenamiento, 0/1)

Byte: Unidad mínima de almacenamiento en una computadora, agrupación de bits asociados


para representar un carácter.

Unidad minima de información


El bit es la unidad mínima de información empleada en informática, en cualquier dispositivo
digital, o en la teoría de la información. Con él, podemos representar dos valores cualesquiera,
como verdadero o falso, abierto o cerrado, blanco o negro, norte o sur, etc.

Memorias: ROM, RAM, CACHE Y VIRTUAL

ROM: La memoria de solo lectura, conocida también como ROM, es un medio de


almacenamiento utilizado en ordenadores y dispositivos electrónicos, que permite solo la lectura
de la información y no su escritura,1 independientemente de la presencia o no de una fuente de
energía.
Los datos almacenados en la ROM no se pueden modificar, o al menos no de manera rápida o
fácil. Se utiliza principalmente para contener el firmware2 (programa que está estrechamente
ligado a hardware específico, y es poco probable que requiera actualizaciones frecuentes) u otro
contenido vital para el funcionamiento del dispositivo, como los programas que ponen en marcha
el ordenador y realizan los diagnósticos.
RAM: La memoria de acceso aleatorio (Random Access Memory, RAM) se utiliza como
memoria de trabajo de computadoras y otros dispositivos para el sistema operativo,
los programas y la mayor parte del software. En la RAM se cargan todas las instrucciones que
ejecuta la unidad central de procesamiento (CPU) y otras unidades del computador, además de
contener los datos que manipulan los distintos programas.
Se denominan «de acceso aleatorio» porque se puede leer o escribir en una posición de memoria
con un tiempo de espera igual para cualquier posición, no siendo necesario seguir un orden para
acceder (acceso secuencial) a la información de la manera más rápida posible.
Durante el encendido de la computadora, la rutina POST verifica que los módulos de RAM estén
conectados de manera correcta. En el caso que no existan o no se detecten los módulos, la mayoría
de tarjetas madres emiten una serie de sonidos que indican la ausencia de memoria principal.
Terminado ese proceso, la memoria BIOS puede realizar un test básico sobre la memoria RAM
indicando fallos mayores en la RAM

CACHE: en informática, se conoce como memoria caché o memoria de acceso rápido a uno de


los recursos con los que cuenta una CPU (Central Processing Unit, o sea, Unidad Central de
Procesamiento) para almacenar temporalmente los datos recientemente procesados en un búfer
especial, es decir, en una memoria auxiliar.

La memoria caché opera de modo similar a la Memoria Principal del CPU, pero con mayor
velocidad a pesar de ser de mucho menor tamaño. Su eficacia provee al microprocesador de
tiempo extra para acceder a los datos más frecuentemente utilizados, sin tener que rastrearlos
a su lugar de origen cada vez que sean necesarios.

Así, esta memoria alterna se sitúa entre el CPU y la Memoria RAM (Random Access Memory,


o sea, Memoria de Acceso Aleatorio), y provee de un empuje adicional en tiempo y ahorro de
recursos al sistema. De allí su nombre, que en inglés significa “escondite”.

VIRTUAL: En informática, la memoria virtual es una técnica de gestión de la memoria que se


encarga de que el sistema operativo disponga, tanto para el software de usuario como para sí
mismo, de mayor cantidad de memoria que esté disponible físicamente. La mayoría de los
ordenadores tienen cuatro tipos de memoria: registros en la CPU, la memoria caché (tanto dentro
como fuera del CPU), la memoria RAM y el disco duro. En ese orden, van de menor capacidad y
mayor velocidad a mayor capacidad y menor velocidad.
BIT
Bit es la abreviación de Binary Digit (digito binario), la cual en términos técnicos es la menor
unidad de información de una computadora. Un bit tiene solamente un valor (que puede ser 0 o 1).
Varios bits combinados entre sí dan origen a otras unidades, como “byte”, “mega”, “giga” y
“tera”.

Toda la información procesada por una computadora es medida y codificada en bits. El


tamaño de los archivos son medidos en bits, las tasas de transferencia son medidas en bit, toda
la información en el lenguaje del usuario es convertida a bits para que la computadora la
"entienda".

Byte
Un Byte es un conjunto de 8 bits, formando según una secuencia que representa un carácter. Se
puede hacer una correspondencia biunívoca entre cada número decimal (0 a 9), las letras
mayúsculas y minúsculas (A hasta Z), los símbolos matemáticos, la puntuación, y demás
símbolos, con un respectivo byte.

Es fundamental para cualquier persona con formación en informática, tener muy clara la


diferencia entre lo que es un BIT (un 0 o un 1) y lo que es un Byte (una secuencia de 8 bits
continuos)
Unidades de almacenamiento de: memoria, procesador, disco duro RED

Memoria:
Ordenador - Unidades de Memoria
Sr.No. Unidad Descripción

1 Kilobyte (KB) 1 KB = 1024 Bytes

2 Megabyte (MB) 1 MB = 1024 KB

3 GigaByte (GB) 1 GB = 1024 MB

1 TB = 1024 GB
4 TeraByte (TB

Procesador: La unidad de almacenamiento almacena de forma permanente los


programas y archivos. Cuando se solicitan datos, por ejemplo para abrir un archivo,
el procesador accede a la unidad de almacenamiento y transfiere los datos a largo
plazo (el archivo almacenado) a la memoria para el acceso de corto plazo.

Disco duro: Una unidad de disco duro es el componente en hardware donde se


almacena todo su contenido digital. Sus documentos, imágenes, música, vídeos,
programas, preferencias de aplicaciones y sistema operativo representan el contenido
digital almacenado en un disco duro.

RED: Un sistema NAS es un dispositivo de almacenamiento conectado a


una red que permite almacenar y recuperar los datos en un punto centralizado para
usuarios autorizados de la red y multiplicidad de clientes.

Software

Software es un término informático que hace referencia a un programa o conjunto de


programas de cómputo, así como datos, procedimientos y pautas que permiten realizar
distintas tareas en un sistema informático.
Comúnmente se utiliza este término para referirse de una forma muy genérica a los programas de
un dispositivo informático, sin embargo, el software abarca todo aquello que es intangible en un
sistema computacional.

Software es un término procedente del idioma inglés, que es aceptado por la RAE y que no posee
una traducción que se ajuste al español.

Software de aplicación
Un software de aplicación es un programa diseñado para facilitar algunas tareas específicas para
cualquier medio informático, ya sea en computadores, tablets o celulares.

Los videojuegos, los programas de diseño asistido (como CAD), el software utilizado en las
telecomunicaciones, las aplicaciones de productividad empresarial o educativa son algunos
ejemplos de este tipo de programas.

Hardware
Hardware es la parte física de un ordenador o sistema informático. Está formado por los
componentes eléctricos, electrónicos, electromecánicos y mecánicos, tales como circuitos de
cables y luz, placas, memorias, discos duros, dispositivos periféricos y cualquier otro material en
estado físico que sea necesario para hacer que el equipo funcione.

El término hardware viene del inglés, significa partes duras y su uso se ha adoptado en el idioma
español sin traducción, siendo utilizado para para aludir a los componentes de carácter material
que conforman un equipo de computación.

Evolución del hardware

Desde la aparición de las primeras máquinas computacionales en la década de los 40 hasta la


actualidad, la creación de hardware ha evolucionado para adaptarse a las nuevas tecnologías y
usuarios. De esta serie de cambios, se distinguen 4 generaciones de hardware:

 Primera generación de hardware (1945-1956): uso de tubos de vacío en máquinas de cálculo.


 Segunda generación de hardware (1957-1963): los tubos al vació fueron sustituidos por
transistores.
 Tercera generación de hardware (1964- actualidad): creación de componentes basados en
circuitos integrados impresos en una pastilla de silicio.
 Cuarta generación de hardware (futuro): todo hardware elaborado con nuevos materiales y
formatos distintos al silicio, y que aún están en fase de investigación, diseño, desarrollo o
implementación.

Procesador
El término "Procesador" puede referirse a los siguientes artículos: Hardware. Unidad central de
procesamiento (CPU) interpreta las instrucciones y procesa los datos de los programas de
computadora. Microprocesador informático o simplemente procesador, un circuito integrado que
contiene todos los elementos de la CPU.

El procesador es una pastilla de silicio que va colocada en el socket sobre la placa


madre dentro del gabinete de la computadora de escritorio, la diferencia en una portátil es que
está directamente soldado. El procesador está cubierto de algo que llamamos encapsulado, y de lo
cual existen 3 tipos: PGA, LGA y BGA.

Tarjeta madre
La placa base, también conocida como tarjeta madre, placa madre o placa
principal (motherboard o mainboard en inglés), es una tarjeta de circuito impreso a la que se
conectan los componentes que constituyen la computadora.
Es una parte fundamental para montar cualquier computadora personal de escritorio o portátil o
algún dispositivo. Tiene instalados una serie de circuitos integrados, entre los que se encuentra
el circuito integrado auxiliar (chipset), que sirve como centro de conexión entre
el microprocesador (CPU), la memoria de acceso aleatorio (RAM), las ranuras de expansión y
otros dispositivos.
Está instalada dentro de una carcasa o gabinete que por lo general está hecha de chapa y tiene un
panel para conectar dispositivos externos y muchos conectores internos y zócalos para instalar
componentes internos.
La placa base, además incluye un firmware llamado BIOS, que le permite realizar las
funcionalidades básicas, como pruebas de los dispositivos, vídeo y manejo del teclado,
reconocimiento de dispositivos y carga del sistema operativo.

Dispositivos de entrada 
Los dispositivos de entrada son aquellos equipos y componentes que permiten ingresar
información a la unidad de procesamiento; algunos ejemplos conocidos por todos son el teclado,
el mouse (también llamado ratón), el escáner, la cámara web (webcam), el lápiz óptico y
el micrófono; la forma en la que el usuario interactúa con ellos es muy variada y tiene, en cada
caso, un propósito diferente, que puede ser la digitalización de un texto o de una imagen, la
captura de una secuencia de vídeo o la grabación de una canción, entre tantas otras posibilidades.

Dispositivos de salida
 Los dispositivos de salida son aquellos periféricos que se adosan a un ordenador y que tienen
como finalidad comunicar información al usuario. Se distinguen de los dispositivos de entrada,
que son aquellos mediante los cuales el usuario incorpora información al ordenador.
Los dispositivos de salida muestran información que ya ha sido ingresada y procesada,
información que es devuelta al mundo real. En los comienzos de la informática fueron
extremadamente rudimentarios, pero con el paso del tiempo fueron evolucionando hasta ofrecer un
altísimo grado de precisión. En la actualidad podemos encontrar varios tipos de dispositivos de
estas características, como por ejemplo monitores, impresoras, parlantes, etc.

Generación de la computadora
P
rimera generación 1944-1955

Nace la primera computadora digital electrónica. Fue hecha por un equipo de ingenieros y


científicos encabezados por los doctores John W. Mauchly y J. Presper Eckert en la universidad de
Pensilvania.

Segunda generación 1953-1963

John Bardeen, Walter Brattain y William Shockley fueron quienes inventaron el primer transistor
lo que permitió que las computadoras consuman menos energía como también disminuyo su
tamaño.

Tercera generacion1964-1984

Se produjo la invención del circuito integrado conocido como chip, esto se lo atribuyo a Jack S.
Kilby y Robert Noyce, posteriormente le permitio a Ted Hoff crear el microprocesador en intel,
nacen también las grandes empresas de hoy en día, como son apple y microsoft.
Cuarta generación 1985-2018

Se destaca el uso de circuitos eloctronicos reducidos en tamaño para así hacer posible el uso de
computadoras familiares o personales, el primer microsesador se le atribuye a Intel, compania que
fue creada por Robert Noyce y Gordon Moore.

Quita generación 2019-3000

Esta Generacion es basada en un futuro tecnologico, con ideas de inteligencia artificial para
facilitar la vida al ser humano.
CONCLUCION

Este es el final de mi practica la cual tiene un total de 30 páginas,


espero que le haya gusta y que todo los datos estén correctos, si ve
alguna definición un poco larga es porque según lo que leí era algo
importante en esa definición que no podía faltar.

Esta práctica se trata sobre la tecnología y todo lo que tiene que ver
con ella, todo tipos de memorias, sistemas, programas, etc. Aportes
tales como los tubos al vacio que  fue desarrollado por el físico
inglés John Ambrose Fleming y demás temas parecidos. Entendí
mucho mejor cada función que tiene cada memoria y dispositivos,
inicios de la tecnología y las computadoras, el hardware y software y
todos sus tipos y partes.---

FIN.

Santo Domingo, RD.

También podría gustarte