Trabajo Practico de Tecnología

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 81

Trabajo practico de tecnología

¿Qué es un sistema operativo?


Un sistema operativo es un conjunto de programas que permite manejar la memoria,
disco, medios de almacenamiento de información y los diferentes periféricos o
recursos de nuestra computadora, como son el teclado, el mouse, la impresora, la
placa de red, entre otros.
Los periféricos utilizan un driver o controlador y son desarrollados por los fabricantes
de cada equipo. Encontramos diferentes sistemas operativos como Windows, Linux,
MAS OS, en sus diferentes versiones. También los teléfonos y tabletas poseen un
sistema operativo.
Dentro de las tareas que realiza el sistema operativo, en particular, se ocupa de
gestionar la memoria de nuestro sistema y la carga de los diferentes programas, para
ello cada programa tiene una prioridad o jerarquía y en función de la misma contará
con los recursos de nuestro sistema por más tiempo que un programa de menor
prioridad.
El sistema operativo se ocupa también de correr procesos. Llamamos proceso a la
carga en memoria de nuestro programa, si no está cargado en memoria nuestro
programa simplemente “no corre”.

Historia de los sistemas operativos


La informática tal y como se le conoce hoy día, surgió a raíz de la II Guerra Mundial, en la década de
los 40. En esos años no existía siquiera el concepto de "Sistema Operativo" y los programadores
interactuaban directamente con el hardware de las computadoras trabajando en lenguaje máquina
(esto es, en binario, programando únicamente con 0s y 1s).

El concepto de Sistema Operativo surge en la década de los 50. El primer Sistema Operativo de la
historia fue creado en 1956 para un ordenador IBM 704, y básicamente lo único que hacía era
comenzar la ejecución de un programa cuando el anterior terminaba.

En los años 60 se produce una revolución en el campo de los Sistemas Operativos. Aparecen
conceptos como sistema multitarea, sistema multiusuario, sistema multiprocesadores y sistema en
tiempo real.

Es en esta década cuando aparece UNIX, la base de la gran mayoría de los Sistemas Operativos
que existen hoy en día.

En los años 70 se produce un boom en cuestión de ordenadores personales, acercando estos al


público general de manera impensable hasta entonces. Esto hace que se multiplique el desarrollo,
creándose el lenguaje de programación C (diseñado específicamente para reescribir por completo el
código UNIX).

Como consecuencia de este crecimiento exponencial de usuarios, la gran mayoría de ellos sin ningún
conocimiento sobre lenguajes de bajo o alto nivel, hizo que en los años 80, la prioridad a la hora de
diseñar un sistema operativo fuese la facilidad de uso, surgiendo así las primeras interfaces de
usuario.

En los 80 nacieron sistemas como MacOS, MS-DOS, Windows.


En la década de los 90 hace su aparición Linux, publicándose la primera versión del núcleo en
septiembre de 1991, que posteriormente se uniría al proyecto GNU, un sistema operativo

Prehistoria de sistema operativos


La primera máquina a la que se puede llamar un computador digital de propósito general fue
diseñada por el matemático inglés Charles Babbage (1791-1871), quien diseñó una máquina
mecánica digital (digital: capaz de trabajar con dígitos), conocida como la analítica engina,
o máquina de Babbage. Si bien desarrolló todos los planos, nunca pudo terminar de construirla.

completamente libre, similar a UNIX, al que le faltaba para funcionar un núcleo funcional. Hoy en día
la mayoría de la gente conoce por Linux al Sistema Operativo que realmente se llama GNU/Linux

Evolución de los sistemas operativos


Usar un computador no siempre fue tan fácil. Los sistemas operativos surgieron como una
necesidad para poder utilizar máquinas muy complejas en tiempos que se necesitaba personal
muy especializado para poder operarlas. La evolución de los sistemas operativos estuvo, por
lo tanto, muy ligada a las características y necesidades particulares de las máquinas
disponibles. Resulta difícil hablar de los sistemas operativos sin referirse al mismo tiempo a
la evolución del hardware, pues ambos aspectos han avanzado de la mano durante gran parte
de la historia.

Este artículo describe algunos hitos en la evolución del software que conocemos


como sistema operativo y destaca el surgimiento de conceptos que persisten en los sistemas
operativos modernos. La división de generaciones es aproximada en cuanto a años, y esta
guiada principalmente por los hitos que marcaron al hardware.

CLASIFICACIÓN DE LOS SISTEMAS OPERATIVOS

Los sistemas operativos se pueden clasificar atendiendo a:

 ADMINISTRACIÓN DE TAREAS:
o MONOTAREA: los que permiten sólo ejecutar un programa a la vez
o MULTITAREA: los que permiten ejecutar varias tareas o
programas al mismo tiempo
 ADMINISTRACIÓN DE USUARIOS
o MONOUSUARIO: aquellos que sólo permiten trabajar a un
usuario, como es el caso de los ordenadores personales
o MULTIUSUARIO: los que permiten que varios usuarios ejecuten
sus programas a la vez.
 ORGANIZACIÓN INTERNA O ESTRUCTURA
o Monolítico
o Jerárquico
o Cliente-servidor
 MANEJO DE RECURSOS O ACCESO A SERVICIOS
o CENTRALIZADOS: si permite utilizar los recursos de un solo
ordenador
o DISTRIBUIDOS: si permite utilizar los recursos (CPU, memoria,
periféricos...) de más de un ordenador al mismo tiempo
Microsoft Windows

El más conocido sin lugar a dudas. Cualquier persona que haya


utilizado un ordenador habrá interactuado con alguna de sus versiones. Desde el
vetusto XP al novedoso Windows 10 hemos ido viendo como siempre era el sistema
más popular. De él podemos destacar:

 Abundante cantidad de software para cualquier necesidad. Ya sea de


ofimática, diseño gráfico, contabilidad, sistemas ERP y CRM, antivirus, etc.…
Es muy difícil no encontrar software para Windows que no resuelva
sobradamente cualquier necesidad.
 Facilidad de manejo que va mejorando con los años. Por el porcentaje de
instalaciones que tiene ha terminado constituyendo el estándar en la
formación de nuevos usuarios.
 La inmensa mayoría del hardware del mercado tiene controladores y drivers
totalmente compatibles para este sistema. Impresoras, periféricos,
dispositivos de comercio, etc.
 Como contrapartida, al ser el sistema más popular, también es el que recibe
más ataques por virus, ransomware, o programa maligno peligroso en
general. Por esto es muy importante estar al día con el mantenimiento
informático y hacer una gestión proactiva de la seguridad. Nuestro método
de mejora continua es muy recomendable.

Apple MacOS

Una alternativa de calidad, dentro de unos diseños hardware


extremadamente atractivos. Este sistema operativo sólo se puede instalar
“legalmente” en ordenadores diseñados por la propia Apple. Los conocemos como
ordenadores Mac. Por esta conjunción de hardware y software tienen una fluidez
digna de mención. Destacable:
 Por esa fluidez de la que hacen gala, históricamente han sido los
ordenadores más demandados por diseñadores, profesionales de vídeo y
sonido, programadores, etc.
 Actualizaciones constantes que consiguen afinar muchísimo el rendimiento
de los equipos.
 Con el tiempo la disponibilidad de software para la plataforma ha
aumentado considerablemente. Actualmente dispone de la mayoría de
software importante, aunque hay excepciones sobre todo en entornos de
empresa o profesionales.
 Ausencia de virus. Siempre ha corrido el rumor de que con un Mac no hace
falta un sistema antivirus. No vamos a empezar ningún debate al respecto.
Aquí, como siempre, debe imperar la prudencia. Con la seguridad no se
juega.

GNU/LINUX

La gran alternativa en la vertiente del software libre para administrar un sistema


completo de escritorio. Cada vez cobra más fuerza en entornos domésticos y
también empresariales. Al ser gratuito es una excelente opción para instalaciones
sencillas y que no necesiten requerimientos muy específicos. Destacamos:

 Sistema robusto y eficaz que funciona de una manera muy estable. Su


implantación en sistemas de escritorio personales no está muy extendida,
pero en cambio es la opción mayoritaria para uso de servidores de páginas
web, servicios de internet, data centers, etc.… Obviamente todo el mundo de
Internet no lo eligen únicamente por el precio.
 Tiene un manejo algo confuso para un usuario no experto. La curva de
aprendizaje es más difícil que en otros sistemas. Sobre todo, a la hora de
instalar nuevos programas o controladores. Últimamente distribuciones
basadas en Debian como Ubuntu o Elementary OS, o basadas en opens USE,
han mejorado mucho en este aspecto siendo cada vez más amigables.
 El software disponible para uso general podría poner alguna barrera.
 Tenemos un buen abanico de posibilidades al elegir sistema operativo para
nuestro ordenador doméstico o de empresa. Lo más importante es valorar el
uso que necesitamos darle y sobre todo pensar en la disponibilidad de
herramientas de software y hardware.
Es una decisión difícil ya que cualquier aspecto que no tengamos en cuenta puede
amargarnos la inversión y entorpecer el uso del ordenador. En Ibis Competer
estamos para ayudarte y te prestamos nuestros servicios de consultoría y
mantenimiento informático para que consigas la mejor decisión, sin sorpresas
posteriores.

Un procesador de texto es una aplicación informática que permite crear y


editar documentos de texto en una computadora. Se trata de
un software de múltiples funcionalidades para la redacción, con diferentes
tipografías, tamaños de letra, colores, tipos de párrafos, efectos artísticos y
otras opciones.

Gracias a los procesadores de texto, las computadoras permitieron el


reemplazo de las máquinas de escribir.

Reemplazo de la máquina de escribir

Los procesadores de texto cumplen con una función similar a la que


cumplían las máquinas de escribir hace algunas décadas, aunque mucho
más completa y compleja. En la máquina de escribir, por ejemplo, cada
letra tipeada por el usuario era impresa de forma inmediata en el papel, lo
que imposibilitaba la posibilidad de borrar.
Con un procesador de texto, en cambio, es posible borrar y editar el
contenido en todo momento ya que su funcionalidad básica se realiza
sobre la pantalla. Una vez que la tarea de redacción ya está completada, el
usuario tiene la opción de guardar el documento en un soporte informático
(ya sea en el disco rígido de su computadora, en Internet o en CD) o de
imprimir el material.

Clasificación de los procesadores de texto

1.- Editores de texto. - Son programas que permiten crear y modificar


archivos compuestos únicamente por texto plano, se generan por medio
del ASCII, incluidos dentro del sistema operativo y se guardan con la
extensión .TXT

2.- Procesadores de texto. - Proporcionan una diversidad de funciones que


facilitan en gran medida la edición y permiten mejor la presentación de
cualquier escrito.

3.- DTP o Desktop Publishing. - Ofrecen opciones para la edición de


publicaciones completas tales como periódicos catálogos y libros. Un
ejemplo es QuarkXPress de la compañía Quark e InDesign de la compañía
Adobe.
Tres procesadores de textos en el mercado

Bloc de Notas

Es un procesador de textos sencillo y posee pocas herramientas de


edición limitándose a las más básicas. Guarda únicamente en formato de
texto plano (TXT), aunque pueden cambiarse las fuentes o letras en las
que se escribe.

WordPad

Es un procesador de textos básico, similar al Bloc de Notas, pero con más


herramientas: permite cambiar el tamaño y el tipo de fuente, y guardar en
más de un formato (además del propio del software) aunque también de
forma limitada.

Microsoft Word

Es parte de un completísimo paquete de oficina (Microsoft Office) de


Microsoft Corporación; uno de los procesadores de texto más aceptados,
usados y extendidos en el mercado de la informática que evoluciona muy
rápidamente. Tanto es así que nos servirá de ejemplo para comentar
alguna de las funciones más usadas por los distintos procesadores.

Definición de hoja electrónica

Hoja electrónica
Una hoja electrónica de trabajo es un programado que emula en forma
electrónica la hoja de trabajo. Reemplaza los tres instrumentos típicos de
trabajo de un analista financiero: la hoja de trabajo en papel, el lápiz y la
calculadora. La hoja de trabajo es reemplazada por un conjunto de celdas
dispuestas en filas y columnas (matriz) cuyo contenido se guarda en la
memoria principal de la computadora; el lápiz queda reemplazado por el
teclado y la unidad de aritmética y lógica reemplaza la calculadora.

La hoja electrónica

Desde hace varios años, Microsoft en su afán de brindar cada vez mejores
sistemas computarizados, ha ido perfeccionando sus programas y
Microsoft Excel no es la excepción, antes de la aparición de esta hoja
electrónica que en la actualidad sirve para muchas actividades, existían en
el mercado, programas de hojas electrónicas como Lotus 123 y Q-pro.

Hoja electrónica
Es una hoja de cálculo que permite la manipulación de datos arreglados en
filas y columnas. Las columnas están representadas por letras y las filas
por números. La intersección de la columna y la fila se conoce como la
celda. La dirección de la celda es la letra (o las letras) de la columna con el
número de la fila. Ejemplo: la dirección de la celda que queda en la
segunda fila y la cuarta columna es D2.

Una celda puede contener texto, un número o una fórmula que establece
una relación con otras celdas, o sea que, puede trabajar con datos
alfanuméricos, numéricos y lógicos. Cada vez que se cambia el contenido
de una celda, la hoja electrónica libera de lo tedioso de hacer calcular
nuevamente a mano, ahorrando una gran cantidad de tiempo.

Hoja de cálculo: Una hoja de cálculo es un programa, más precisamente


una aplicación, que permite manipular datos numéricos y alfanuméricos
dispuestos en forma de tablas compuestas por celdas (las cuales se
suelen organizar en una matriz bidimensional de filas y columnas). La
celda es la unidad básica de información en la hoja de cálculo, donde se
insertan los valores y las fórmulas que realizan los cálculos. Habitualmente
es posible realizar cálculos complejos con fórmulas funciones y dibujar
distintos tipos de gráficas.
gráficos: Los gráficos son visualmente llamativos y facilitan a los usuarios
la visualización de comparaciones, tramas y tendencias de los datos. Por
ejemplo, en lugar de analizar varias columnas de números de la hoja de
cálculo, puede ver en seguida si las ventas están disminuyendo o
aumentando en trimestres sucesivos, o cómo se están comportando las
ventas con respecto a las previsiones.

Base de datos: Una base de datos (cuya abreviatura es BD) es una


entidad en la cual se pueden almacenar datos de manera estructurada,
con la menor redundancia posible. Diferentes programas y diferentes
usuarios deben poder utilizar estos datos. Por lo tanto, el concepto de base
de datos generalmente está relacionado con el de red ya que se debe
poder compartir esta información. De allí el término base. "Sistema de
información" es el término general utilizado para la estructura global que
incluye todos los mecanismos para compartir datos que se han instalado.

Partes de la hoja electrónica:

1. Rótulos de columnas
Las columnas en las hojas de cálculo se determinan con letras empezando
por la A, sigue la B, C, D,..

2. Rótulos de filas

Las filas en las hojas de cálculo se determinan con números empezando


por el 1, sigue el 2, 3, 4,...

3. Celda

Las celdas son los cuadrados en los que se divide la hoja de cálculo, es la
intersección entre fila y columna.

Celda: Una celda es el lugar donde se pueden introducir los datos. En


hojas de cálculo como es un espacio rectangular que se forma en la
intersección de una fila y una columna y se les identifica con un nombre
como C4 (C es el nombre de la columna y 4 el de la fila).
Cuantas son: RELATIVAS: Si copiamos una fórmula con referencias
relativas, la fórmula cambiará dependiendo de donde vamos a copiarla.

ABSOLUTAS: Si copiamos una fórmula con referencias absolutas, la


fórmula NO variará.

MIXTAS: Si copiamos una fórmula con referencias mixtas, la fórmula


cambiará la columna o la fila que no tiene el signo $ delante dependiendo
de donde vamos a copiarla y no variará la que sí tiene el signo $ delante.

La historia de su versión electrónica empieza en 1961

cuando Richard Mattessich, economista y profesor en la Universidad de


Columbia Británica, introdujo su concepto en un artículo
llamado 'Budgeting Models and System Simulation'. Más tarde desarrolló
ese concepto con otros dos libos posteriores titulados 'Contabilidad y
modelos analíticos' y 'Simulación de la empresa a través de un programa
de computador de presupuesto'.

Este segundo libro contenía entradas y salidas detalladas de un programa


informático, ilustrando el principio y final de una hoja de balances y una
serie de presupuestos, con pérdidas, ganancias y un balance general
proyectado en formato de hoja de cálculo. El programa fue escrito
utilizando FORTRAN IV por dos de sus asistentes de investigación, Tom
Schneider y Paul Zitlau.
La obra de Mattessich fue discutida en en el mundo económico e
informático, pero en general los expertos en computación no le hicieron ni
caso. Por lo tanto, la idea se quedó en un cajón, y las hojas de cálculo
electrónicas sólo llegaron a ser conocidas de forma amplia durante la
década de los 80, después de la irrupción de los ordenadores personales o
PCs.

De hecho, la primera gran aplicación en popularizar las hojas de cálculo en


los ordenadores fue desarrollada en 1979 por Daniel Bricklin y su
colaborador y programado Bob Frankston. Decidieron
llamarla VisiCalc como abreviación de Visible Calculator, y fue desarrollada
para el Apple II

La aplicación nació cuando Dan Bricklin observó cómo su profesor de la


Harvard Business School tenía que estar borrando y recalculando una gran
cantidad de datos en la pizarra durante las explicaciones de modelos con
tablas. Se le ocurrió que sería bueno poder crear un concepto de pizarra y
tiza electrónica, y de ahí nació la primera killer-app de hojas de cálculo.

De VisiCalc a Excel, pasando por Lotus


Interfaz de VisiCalc en el Apple II.

VisiCalc fue el primer programa al que se empezó a denominar hoja de


cálculos electrónica, precisamente por su parecido con las hojas de cálculo
en papel. Imitó la organización de los datos en celdas con filas y columnas,
y permitía cambiar los valores de las celdas, recalculaba automáticamente
basándose en fórmulas almacenadas en celdas que hacen referencia a
otras, y permitía hacer scroll hacia los lados.

Su interfaz de hecho sentó las bases de todo lo que vino después. Esa


configuración en celdas con filas y columnas seguimos teniéndola hoy en
día en Excel, aunque evidentemente las interfaces de usuario de hoy en
día no tienen nada que ver con las de aquella época. VisiCalc consiguió un
éxito arrollador, pero no le duró muchos años.

Varios problemas legales en 1983 distrajeron a los desarrolladores de


VisiCalc, lo que unido a su lentitud para adaptarse a los nuevos IBM PC
fue aprovechado por Mitch Kapor, un amigo de Bricklin y Frankston. Kapor
creó una empresa llamada Lotus Development Corporation, con la que
desarrolló su propia hoja de cálculos específica para los IBM PC. Se
llamó Lotus 1-2-3.
Interfaz de Lotus 1-2-3

Lotus 1-2-3 facilitó el uso de hojas de cálculo agregando gráficos


integrados, así como la capacidad de realizar operaciones rudimentarias o
elementales de base de datos a partir de su función de búsqueda de
tablas. Fue el primer programa de este tipo en introducir celdas de
nombres, rangos de celdas y macros de pulsación de teclas leídas de
una hoja de cálculo

En definitiva, este programa consiguió dar sentido a que las empresas


comenzaran a introducir equipos informáticos en el mundo laboral. De
hecho fue tan exitoso que casi desde su lanzamiento consiguió destronar
inmediatamente a VisiCalc, convirtiéndose rápidamente en la aplicación de
hojas de cálculo de referencia.

Sin embargo, como pasó con su predecesor, Lotus inició su declive al no


saber adaptarse a otra revolución informática, la que supuso la irrupción
del sistema operativo Windows. En un principio trataron de mantener el
programa fiel a MSDOS, y para cuando quisieron reaccionar ya era
demasiado tarde. Había llegado la hora de Excel.
La primera versión de Excel fue desarrollada para Macintosh

La primera versión de Excel fue lanzada para Macintosh en septiembre


del 85, y fue portada posteriormente a Windows, donde se lanzó en el 87.
A principio de los 90 compitió duramente con un Lotus que fue
manteniéndose con versiones para Windows, pero en 1995 finalmente
Excel se impuso y se convirtió en el nuevo rey de las hojas de cálculo.

Excel fue la primera hoja de cálculos en permitir definir su apariencia.

Evolución de las hojas electrónicas.

Las hojas electrónicas se empezaron a utilizar en la década de los 80’s,


esto debido a la difusión y comercialización de las computadoras
personales. Uno de los primeros programas fue visicalc, después se
cambió el nombre a Lotus. En los tiempos actuales en el mercado se
encuentra programas como Quattro Pro y  Corel Qpro de la compañía
Borland, Lotus 1-2-3 de la compañía Lotus Inc y Excel de Microsoft, el cual
forma parte de la familia de office.

Cronología de las Hojas Electrónicas de Cálculo.

1494

                Partida doble de la contabilidad. (Luca Pacioli)

Es el primer sistema de registro contable integral, en la actualidad se sigue


utilizando este sistema. En este sistema la información se organiza por
cuentas y todas ellas deben estar equilibradas.

1846

                Estructura de matriz para contabilidad. (Augustus de Morgan)


En esta estructura las columnas representaban entradas de dinero (debito)
y las filas son salidas de dinero (crédito) de tal manera que la primera fila y
la primer columna correspondían entre sí, y así sucesivamente, tal y como
conocemos las hojas electrónicas actuales.

1950

                Fortran. (IBM)

Este es un lenguaje de programación que se creó con el único fin de


ayudar a la comunidad científica, apoyando en cálculos matemáticos, así
como en la predicción numérica del tiempo, analizar los elementos finitos,
calcular ecuaciones, hacer modelos computacionales, problemas de física,
y de química.

1961

                Budgeting Models and System Simulation. (Richard Mattessich)

Este es un libro en el cual se habla de la posibilidad de crear hojas de


cálculo electrónicas. En este se exponen las ideas básicas para crear un
sistema contable para presupuestar en un reporte electrónico. Esto
revoluciono la idea para elaborar un programa de hoja de cálculo.

1979

                Software Arts Visicalc. (Dan Bricklin y Bob Frankston)

Fue la primera hoja de cálculo electrónica que se diseñó con este fin en
específico. Este programa se lanzó en una primera versión para Apple II,
se necesitaba una gran velocidad para actualizar los datos contables y
estos datos se organizaban en una matriz conformada por filas y
columnas.
1980

                Sorcim SuperCalc. (Richard Frank)

Este programa se creó para la computadora Orborne-1, este programa


conto con la característica principal, que consistía en la interacción entre
los datos que estaban contenidos en varias celdas.

1982

                Microsoft Multiplan. (Bill Gates y Paul Allen)

Fue una de las primeras hojas de cálculo desarrolladas por Microsoft,


después de varias adaptaciones a las hojas existentes, se integró la
primera interfaz gráfica.

1983

                Software Lotus 1-2-3 (Lotus Inc.)

Esta hoja electrónica, fue la primera en introducir el cálculo de las


operaciones utilizando rangos de celdas, también se incluyó macros para
las plantillas y celdas con nombres. Esta era más fácil de utilizar y con la
gran novedad de hacer gráficos y bases de datos.

1985

                Microsoft Excel (Microsoft)

El primer programa de Excel fue creado para Apple, este programa fue el
primero en utilizar una interfaz gráfica con menús desplegables y la
capacidad de dar un clic utilizando un mouse, otra de las características
que hizo que sea una de las hojas electrónicas más utilizadas es que
incluyo un libro de hojas, también revoluciono con la introducción de
números y letras, así como la elaboración de datos automáticos.

1988

                Calc. (Open Office)

Esta hoja electrónica de cálculo es gratuita, esto quiere decir que la


podemos instalar sin costo alguno, es compatible con Excel de Microsoft,
se puede escribir en hojas de archivos pdf, cuenta con filtros y puede
hacer agrupaciones en tablas dinámicas.

2007

                Numbers (Apple Inc)

Esta hoja electrónica de cálculo está incluida en la suite iWork para las
computadoras Mac, entre sus características más importantes sobresalen
las tablas inteligentes, lienzo flexible, importación y exportación de
archivos de Excel, mejores gráficos e imágenes.

los tipos de hojas de cálculos? Tipos de hojas de cálculo

Excel.

Bajo la firma de la potente compañía de productos tecnológicos,


denominada Microsoft, se encuentra Excel, un libro digital que presenta
una serie de hojas de cálculo.
Muchos han atribuido la apariencia de este programa a los libros
contables, de hecho, tanto es su popularidad que es la más empleada en
las corporaciones y academias, la versatilidad de sus funciones y de sus
aspectos la hace la favorita.

Es conocida por la inclusión de las funciones para realizar operaciones


aritméticas, siendo muy conocida por su función de autosuma, además por
la facilidad con la que permite representar cantidades en gráficos.

Ya que cuenta con la opción de crear gráficos animados y en 3d, para


aquellas presentaciones que ameriten el uso de las proporciones
estadísticas.

Lotus 1.2.3

Es un programa que viene de la mano de la empresa IBM, esta cuenta con


una interfaz mucho más cómodo y sencillo, de hecho, cuenta con una
función de suma mucho más expedita que la de Excel, conforme a la cual
los datos ingresados se van sumando en las celdas o casillas previamente
seleccionadas, es decir, tiene un funcionamiento similar al de una
calculadora.

Sin embargo, como todos los productos de IBM, esta terminó perdiendo
clientes frente a la potencia de Microsoft, empresa que siempre lanzaba
productos con características similares pero reforzadas.
Calc.

Una de las opciones que se ha granjeado un gran éxito por ser gratuita, y
además por disponer las herramientas que traen incluidas las hojas de
cálculo de Excel y de Lotus; es Calc, la cual viene de la mano del software
de Linux.

Lo más notorio de la misma, es que ésta no se dispone como programa


sino como aplicación, así que deberás acceder a ésta, desde el menú de
aplicaciones de tu ordenador.

La única diferencia de esta respecto a las demás, es que no puede


desarrollar hojas de cálculos de grandes proporciones, sino que por el
contrario, estas deben de ser pequeñas.

Sin embargo, presenta una serie de funciones que la posicionan frente a


Excel y la extinta Lotus, cual es la posibilidad de hacer cálculos sobre
fechas o bien hacer aglomeración de datos entre las tablas o gráficos
dinámicos.

Numbers.
Este es un programa de la firma de la manzana, es decir, de la potente
Apple, conocida por ser una versión mucho más veloz que el propio Excel,
la cual cuenta con cuadros de diálogos para cada una de las funciones que
vienen explicadas de forma detallada.

Aunado a ello, incorpora plantillas para las hojas de cálculos, de modo tal,
que facilita mucho más el trabajo del usuario. Esta incorpora otra ventaja
cual es la posibilidad de convertir en demás programas o bien aplicaciones
y permanecer con las características y el contenido intacto sin mayores
alteraciones.

Kspread.

Es una versión beta de Linux, la cual permite importar las hojas de cálculo
de demás programas, esta además muestra una interfaz mucho más
sencilla de usar.

Quattro pro.

Es una aplicación desarrollada por una empresa para Corel, ésta viene con
múltiples funciones, las cuales permiten la importación y conversión de
hojas de Excel a esta y viceversa, la característica que la coloca por
encima, es la posibilidad de hacer gráficos múltiples, dinámicos, y además
de crear mapas, a efectos de agregarles estadísticas.
De modo tal, que siendo un producto ofrecido por Corel, resulta bastante
completo hallando suficiente uso entre aquellos que laboran con
estadísticas cualitativas y cuantitativas.

Sus funciones resultan fáciles de llevar a cabo, con la debida lectura de los
cuadros de dialogo y además con las debidas practicas hasta lograr
dominar la misma.

Muchos han alegado que es una versión potenciada de Excel, emigrando


muchos usuarios de la clásica marca de tecnología, a esta hoja de cálculo
con mayores funciones y que hace mucho más fácil el trabajo.

Hojas De Cálculo existentes en el mercado

 Calc, integrate end OpenOffice.org (open source)

 Microsoft Excel, integrada en Microsoft Office (pagada)

 Gnumeric, integrada en Gnome Office (open source)

Concepto y Origen de Base de Datos

Una base de datos o banco de datos es un conjunto de datos


pertenecientes a un mismo contexto y almacenados sistemáticamente para
su posterior uso. En este sentido; una biblioteca puede considerarse una
base de datos compuesta en su mayoría por documentos y textos
impresos en papel e indexados para su consulta. Actualmente, y debido al
desarrollo tecnológico de campos como la informática y la electrónica, la
mayoría de las bases de datos están en formato digital (electrónico), y por
ende se ha desarrollado y se ofrece un amplio rango de soluciones al
problema del almacenamiento de datos.

Existen programas denominados sistemas gestores de bases de datos,


abreviado DBMS, que permiten almacenar y posteriormente acceder a los
datos de forma rápida y estructurada. Las propiedades de estos DBMS, así
como su utilización y administración, se estudian dentro del ámbito de la
informática.

Las aplicaciones más usuales son para la gestión de empresas e


instituciones públicas; También son ampliamente utilizadas en entornos
científicos con el objeto de almacenar la información experimental.

Aunque las bases de datos pueden contener muchos tipos de datos,


algunos de ellos se encuentran protegidos por las leyes de varios países.
Por ejemplo, en España, los datos personales se encuentran protegidos
por la Ley Orgánica de Protección de Datos de Carácter Personal (LOPD)
y en México por la Ley Federal de Transparencia y Acceso a la
Información Pública Gubernamental.

El término bases de datos fue escuchado por primera vez en un simposio celebrado en California en
1963.

En una primera aproximación, se puede decir que una base de datos es un conjunto de información
relacionada que se encuentra agrupada o estructurada.
Desde el punto de vista informático, una base de datos es un sistema formado por un conjunto de
datos almacenados en discos que permiten el acceso directo a ellos y un conjunto de programas que
manipulen ese conjunto de datos.

Por su parte, un sistema de Gestión de Bases de datos es un tipo de software muy especifico
dedicado a servir de interfaz entre la base de datos, el usuario y las aplicaciones que la utilizan; o lo
que es lo mismo, una agrupación de programas que sirven para definir, construir y manipular una
base de datos, permitiendo así almacenar y posteriormente acceder a los datos de forma rápida y
estructurada.

Actualmente, las bases de datos están teniendo un impacto decisivo sobre el creciente uso de las
computadoras.

Pero para poder entender más profundamente una base de datos cabe entender su historia.

orígenes
Los orígenes de las bases de datos se remontan a la Antigüedad donde ya existían bibliotecas y toda
clase de registros. Además también se utilizaban para recoger información sobre las cosechas y
censos. Sin embargo, su búsqueda era lenta y poco eficaz y no se contaba con la ayuda de máquinas
que pudiesen reemplazar el trabajo manual.

Posteriormente, el uso de las bases de datos se desarrolló a partir de las necesidades de almacenar
grandes cantidades de información o datos. Sobre todo, desde la aparición de las primeras
computadoras, el concepto de bases de datos ha estado siempre ligado a la informática.

En 1884 Herman Hollerith creó la máquina automática de tarjetas perforadas, siendo nombrado así
el primer ingeniero estadístico de la historia. En esta época, los censos se realizaban de forma
manual.

Ante esta situación, Hollerith comenzó a trabajar en el diseño de una maquina tabuladora
o censadora, basada en tarjetas perforadas.
Posteriormente, en la década de los cincuenta se da origen a las cintas magnéticas, para automatizar
la información y hacer respaldos. Esto sirvió para suplir las necesidades de información de las nuevas
industrias. Y a través de este mecanismo se empezaron a automatizar información, con la desventaja
de que solo se podía hacer de forma secuencial.

Década de 1960

Posteriormente en la época de los sesenta, las computadoras bajaron los precios para que las
compañías privadas las pudiesen adquirir; dando paso a que se popularizara el uso de los discos,
cosa que fue un adelanto muy efectivo en la época, debido a que a partir de este soporte se podía
consultar la información directamente, sin tener que saber la ubicación exacta de los datos.

En esta misma época se dio inicio a las primeras generaciones de bases de datos de red y las bases
de datos jerárquicas, ya que era posible guardar estructuras de datos en listas y arboles.

Otro de los principales logros de los años sesenta fue la alianza de IBM y American Airlines para
desarrollar SABRE, un sistema operativo que manejaba las reservas de vuelos, transacciones e
informaciones sobre los pasajeros de la compañía American Airlines.
Y, posteriormente, en esta misma década, se llevo a cabo el desarrollo del IDS desarrollado por
Charles Bachman ( que formaba parte de la CODASYL) supuso la creación de un nuevo tipo de
sistema de bases de datos conocido como modelo en red que permitió la creación de un standard en
los sistemas de bases de datos gracias a la creación de nuevos lenguajes de sistemas de información.

CODASYL (Conferencie on Data Systems Lagunajes) era un consorcio de industrias informáticas que


tenían como objetivo la regularización de un lenguaje de programación estándar que pudiera ser
utilizado en multitud de ordenadores.

Los miembros de este consorcio pertenecían a industrias e instituciones gubernamentales


relacionadas con el proceso de datos, cuya principal meta era promover un análisis, diseño e
implementación de los sistemas de datos más efectivos; y aunque trabajaron en varios lenguajes de
programación como COBOL, nunca llegaron a establecer un estándar fijo, proceso que se llevo a
cabo por ANSI.

Década de 1970

Por lo que respecta a la década de los setenta, Edgar Frank Codd, científico informático ingles
conocido por sus aportaciones a la teoría de bases de datos relacionales, definió el modelo relacional
a la par que publicó una serie de reglas para los sistemas de datos relacionales a través de su artículo
“Un modelo relacional de datos para grandes bancos de datos compartidos”.

Este hecho dio paso al nacimiento de la segunda generación de los Sistemas Gestores de Bases de
Datos.

Como consecuencia de esto, durante la década de 1970, Lawrence J. Ellison, más conocido como
Larry Ellison, a partir del trabajo de Edgar F. Codd sobre los sistemas de bases de datos relacionales,
desarrolló el Relacional Software Sistema, o lo que es lo mismo, lo que actualmente se conoce como
Oracle Corporación, desarrollando así un sistema de gestión de bases de datos relacional con el
mismo nombre que dicha compañía.
Posteriormente en la época de los ochenta también se desarrollará el SQL
(Estructurad Queryx Lenguaje) o lo que es lo mismo un lenguaje de consultas o lenguaje declarativo
de acceso a bases de datos relacionales que permite efectuar consultas con el fin de recuperar
información de interés de una base de datos y hacer cambios sobre la base de datos de forma
sencilla; además de analiza grandes cantidades de información y permitir especificar diversos tipos
de operaciones frente a la misma información, a diferencia de las bases de datos de los años
ochenta que se diseñaron para aplicaciones de procesamiento de transacciones.

Pero cabe destacar que ORACLE es considerado como uno de los sistemas de bases de datos más
completos que existen en el mundo, y aunque su dominio en el mercado de servidores
empresariales ha sido casi total hasta hace relativamente poco, actualmente sufre la competencia
del SQL Server de la compañía Microsoft y de la oferta de otros Sistemas Administradores de Bases
de Datos Relacionales con licencia libre como es el caso de PostgreSQL, MySQL o Firebird que
aparecerían posteriormente en la década de 1990.

Década de 1980

Por su parte, a principios de los años ochenta comenzó el auge de la comercialización de los sistemas
relacionales, y SQL comenzó a ser el estándar de la industria, ya que las bases de datos relacionales
con su sistema de tablas (compuesta por filas y columnas) pudieron competir con las bases
jerárquicas y de red, como consecuencia de que su nivel de programación era sencillo y su nivel de
programación era relativamente bajo. 
 

Década años 1990

En la década de 1990 la investigación en bases de datos giró en torno a las bases de datos orientadas
a objetos. Las cuales han tenido bastante éxito a la hora de gestionar datos complejos en los campos
donde las bases de datos relacionales no han podido desarrollarse de forma eficiente. Así se
desarrollaron herramientas como Excel y Access del paquete de Microsoft Office que marcan el
inicio de las bases de datos orientadas a objetos.

Así se creó la tercera generación de sistemas gestores de bases de datos.

Fue también en esta época cuando se empezó a modificar la primera publicación hecha por ANSI del
lenguaje SQL y se empezó a agregar nuevas expresiones regulares, consultas recursivas, trigos y
algunas características orientadas a objetos, que posteriormente en el siglo XXI volverá a sufrir
modificaciones introduciendo características de XML, cambios en sus funciones, estandarización del
objeto séquense y de las columnas autonuméricas. Y además, se creará la posibilidad de que SQL se
pueda utilizar conjuntamente con XML, y se definirá las maneras de cómo importar y guardar datos
XML en una base de datos SQL. Dando asi, la posibilidad de proporcionar facilidades que permiten a
las aplicaciones integrar el uso de JQuery (lenguaje de consulta XML) para acceso concurrente a
datos ordinarios SQL y documentos XML. Y posteriormente, se dará la posibilidad de usar la
cláusula orden by.

Aunque el boom de la década de los noventa será es el nacimiento del Word Wide Web a finales de
la década, ya que a través de este se facilitará la consulta a bases de datos.
SIGLO XXI

En la actualidad, las tres grandes compañías que dominan el mercado de las bases de datos son IBM,
Microsoft y Oracle. Por su parte, en el campo de internet, la compañía que genera gran cantidad de
información es Google. Aunque existe una gran variedad de software que permiten crear y manejar
bases de datos con gran facilidad, como por ejemplo LINQ, que es un proyecto de Microsoft que
agrega consultas nativas semejantes a las de SQL a los lenguajes de la plataforma .NET. El objetivo de
este proyecto es permitir que todo el código hecho en Visual Studio sea también orientado a
objetos; ya que antes de LINQ la manipulación de datos externos tenía un concepto más
estructurado que orientado a objetos; y es por eso que trata de facilitar y estandarizar el acceso a
dichos objetos.

Cabe destacar que Visual Studio es un entorno de desarrollo integrado para sistemas operativos
Windows que soporta varios lenguajes de programación tales como Visual C++, Visual#, Visual J#,
ASP.NET y Visual Basic.NET, aunque se están desarrollando las extensiones necesarias para otros,
cuyo objetivo es permitir crear aplicaciones, sitios y aplicaciones web, así como servicios web a
cualquier entorno que soporte la plataforma .Net, creando así aplicaciones que intercomuniquen
entre estaciones de trabajo, páginas web y dispositivos móviles.
 

Historia de los sistemas de bases de datos


El uso de sistemas de bases de datos automatizadas, se desarrollo a partir de la necesidad de
almacenar grandes cantidades de datos, para su posterior consulta, producidas por las nuevas
industrias que creaban gran cantidad de información.

Década de 1950

En este lapso de tiempo se da origen a las cintas magnéticas, las cuales sirvieron para suplir las
necesidades de información de las nuevas industrias. Por medio de este mecanismo se empezó a
automatizar la información de las nóminas, como por ejemplo el aumento de salario. Consistía en leer
una cinta o más y pasar los datos a otra, y también se podían pasar desde las tarjetas perforadas.
Simulando un sistema de Backup, que consiste en hacer una copia de seguridad o copia de respaldo,
para guardar en un medio extraíble la información importante. La nueva cinta a la que se transfiere la
información pasa a ser una cinta maestra. Estas cintas solo se podían leer secuencial y
ordenadamente.

Década de 1960
El uso de los discos en ese momento fue un adelanto muy efectivo, ya que por medio de este soporte
se podía consultar la información directamente, esto ayudo a ahorrar tiempo. No era necesario saber
exactamente donde estaban los datos en los discos, ya que en milisegundos era recuperable la
información. A diferencia de las cintas magnéticas, ya no era necesaria la secuencialidad, y este tipo
de soporte empieza a ser ambiguo.
Los discos dieron inicio a las Bases de Datos, de red y jerárquicas, pues los programadores con su
habilidad de manipulación de estructuras junto con las ventajas de los discos era posible guardar
estructuras de datos como listas y árboles.

Década de 1970

Edgar Frank Codd (23 de agosto de 1923 – 18 de abril de 2003), en un artículo "Un modelo relacional
de datos para grandes bancos de datos compartidos" ("A Relational Model of Data for Large Shared
Data Banks") en 1970, definió el modelo relacional y publicó una serie de reglas para la evaluación
de administradores de sistemas de datos relacionales y así nacieron las bases de datos relacionales.
A partir de los aportes de Codd el multimillonario Larry Ellison desarrollo la base de datos Oracle, el
cual es un sistema de administración de base de datos, que se destaca por sus transacciones,
estabilidad, escalabilidad y multiplataforma.
Inicialmente no se uso el modelo relacional debido a que tenía inconvenientes por el rendimiento, ya
que no podían ser competitivas con las bases de datos jerárquicas y de red. Ésta tendencia cambio
por un proyecto de IBM el cual desarrolló técnicas para la construcción de un sistema de bases de
datos relacionales eficientes, llamado System R.

  Edgar Frank Codd   IBM Corporation    Larry Ellison

Década de 1980

Las bases de datos relacionales con su sistema de tablas, filas y columnas, pudieron competir con
las bases de datos jerárquicas y de red, ya que su nivel de programación era bajo y su uso muy
sencillo.
En esta década el modelo relacional ha conseguido posicionarse del mercado de las bases de datos.
Y también en este tiempo se iniciaron grandes investigaciones paralelas y distribuidas, como las
bases de datos orientadas a objetos.

Principios década de los 90

Para la toma de decisiones se crea el lenguaje SQL, que es un lenguaje programado para consultas.
El programa de alto nivel SQL es un lenguaje de consulta estructurado que analiza grandes
cantidades de información el cual permite especificar diversos tipos de operaciones frente a la misma
información, a diferencia de las bases de datos de los 80 que eran diseñadas para las aplicaciones
de procesamiento de transacciones. Los grandes distribuidores de bases de datos incursionaron con
la venta de bases de datos orientada a objetos.

Finales de la década de los 90

El boom de esta década fue la aparición de la WWW “Word Wide Web‿ ya que por éste medio se
facilitaba la consulta de las bases de datos. Actualmente tienen una amplia capacidad de
almacenamiento de información, también una de las ventajas es el servicio de siete días a la semana
las veinticuatro horas del día, sin interrupciones a menos que haya planificaciones de mantenimiento
de las plataformas o el software.

Siglo XXI
En la actualidad existe gran cantidad de alternativas en línea que permiten hacer búsquedas
orientadas a necesidades especificas de los usuarios, una de las tendencias más amplias son las
bases de datos que cumplan con el protocolo Open Archives Initiative – Protocol for Metadata
Harvesting (OAI-PMH) los cuales permiten el almacenamiento de gran cantidad de artículos que
permiten una mayor visibilidad y acceso en el ámbito científico y general.

La primera clasificación de bases de datos depende de la manera en la que se ordenan los


datos.
 Bases de datos estáticas: las BBDD estáticas están diseñadas para la lectura de
datos. En otras palabras, sólo almacenan y registran los datos. Luego se pueden
analizar para comprender su comportamiento a lo largo del tiempo. Son
especialmente utilizadas para implementar proyecciones estadísticas y orientar
procesos de tomas de decisiones en el ámbito empresarial.
 Bases de datos dinámicas: las BBDD dinámicas son, por el contrario, modificables
con el paso del tiempo. Así, los datos pueden actualizarse, editarse y eliminarse.
Por ejemplo, muchas tiendas varían sus inventarios y los precios de sus
productos según la temporada, por lo que una BBDD dinámica es ideal.
2. Según el contenido

La segunda clasificación de bases de datos depende de la prioridad del contenido a


analizar.
2.1 Bases de datos bibliográficas
Las BBDD bibliográficas son registros que ayudan a clasificar varios campos de datos.
Generalmente, dichos campos se pueden consultar de modo separado o conjunto.
Un claro ejemplo puede ser la información sobre un libro: autor, año de publicación,
editorial, etc.
2.2 Bases de datos de texto completo
Entre los tipos de bases de datos, las de texto completo son especialmente útiles,
puesto que permiten buscar términos específicos, palabras claves y las diversas
opciones de una base de datos bibliográfica, además de consultar el texto íntegro
almacenado. Son idóneas para trabajos académicos y de investigación.
2.3 Directorios
Los directorios son BBDD usadas por la mayoría de la gente casi a diario sin darse
cuenta. Un ejemplo claro puede ser la agenda de contactos de nuestros teléfonos
móviles, donde se almacena multitud de información como:
 Nombres y direcciones
 Número telefónico y direcciones de email
 Datos de facturación, códigos postales
3. Según los modelos de bases de datos

La tercera clasificación de bases de datos se caracteriza por los diferentes modelos


de administración de datos. Una de las grandes ventajas de estas BBDD es que
permiten la implementación de sistemas eficientes de BBDD basados en algoritmos.
3.1 Bases de datos jerárquicas
Las BBDD jerárquicas almacenan la información en una estructura jerárquica o con un
orden de importancia. Así, los datos se organizan en una figura parecida a un árbol
invertido con segmentos conocidos como nodos y ramas, que contienen
información de interés. Estos pueden ser de tres categorías:
 Padre: nodo de que se desprenden descendientes. Todos los padres se sitúan al
mismo nivel y tienen la misma importancia.
 Hijo: nodo que depende de un padre, es decir, se deriva del anterior.
 Raíz: origen de los datos, al no tener padre. Se ubica en el nivel superior del árbol
y todos los nodos salen de ella.
Entre las principales características de uno de los tipos de bases de datos más
usadas se encuentran las siguientes:
 Se puede compartir el acceso y la información con varios usuarios.
 Los datos son independientes.
 Es complicado modificarla, puesto que es una estructura rígida.
 Se necesita gran conocimiento de las unidades de información.
 Los nodos lejanos de la raíz son de difícil acceso, por lo que se requiere tiempo.
3.2 Bases de datos de red
Las BBDD de red son una variación de la anterior. Su principal diferencia radica en la
composición del nodo, ya que en este modelo pueden tener varios padres. Entre sus
principales contras es que es difícil modificarlas y adaptarlas al tener una estructura
compleja.
3.3 Bases de datos transaccionales
Las BBDD transaccionales son las encargadas de enviar y recibir datos a gran
velocidad. Es raro que los usuarios “normales” las utilicen, puesto que están dirigidas
a ciertos sectores como los sistemas bancarios, en los que por ejemplo se registran
operaciones inmediatas entre cuentas con los correspondientes datos de dichas
operaciones.
3.4 Bases de datos relacionales
Las BBDD relacionales son, en la actualidad, uno de los tipos de bases de datos más
utilizados. El lenguaje predominante en ellas es el Structured Query Language, más
conocido como SQL.
Los datos se almacenan en registros organizados en tablas, por lo que pueden asociar
y cruzar los elementos con facilidad. Es una base de datos recomendable si los
datos tienen un margen de error nulo y no necesitan modificaciones continuas. Sus
principales características son:
 Pueden ser utilizadas por cualquier usuario.
 Su gestión es fácil.
 Se puede acceder rápidamente a los datos.
 Garantiza la total consistencia de los datos, sin posibilidad de error.
Uno de los servicios de base de datos relacional, inteligente y escalable creado para
la nube que ofrecemos en Intelequia es Azure SQL Database. Sus características
basadas en inteligencia artificial automatizadas optimizan el rendimiento y la
durabilidad.
Además, sus opciones de proceso sin servidor y almacenamiento en el nivel
Hiperescala modifican de forma automática la escala de los recursos a petición, lo
que permite centrarse en la creación de nuevas aplicaciones sin tener que preocuparse
por el tamaño del almacenamiento ni la administración de los recursos.
3.5 Bases de datos deductivas o lógicas
Las BBDD deductivas o lógicas (sus principios se fundamentan en la lógica
matemática) se usan generalmente en buscadores, aunque pueden utilizarse de
otras maneras. Con ellas se pueden almacenar los datos y consultarlos mediante
búsquedas sujetas a reglas y normas previamente establecidas. Sus principales
características son:
 Permiten expresar consultas a través de reglas lógicas.
 Soportan conjuntos de datos complejos.
 Se puede inferir información mediante datos almacenados.
 Utilizan fórmulas matemáticas o algoritmos lógicos.
3.6 Bases de datos multidimensionales
Otro de los tipos de bases de datos más usados. Las BBDD multidimensionales se
utilizan para funciones concretas. Lo que las separa de las bases de datos
relacionales solo se aprecia a nivel conceptual, puesto que en las
multidimensionales los campos o atributos de una tabla pueden ser de dos tipos:
 Pueden representar dimensiones dentro de una tabla de datos.
 Pueden representar las métricas que se pretenden obtener.
Algunas de sus principales características son:
 No emplean ninguna jerarquía.
 Facilitan la búsqueda y la modificación posterior.
 Usan un espacio menor de almacenamiento.
 Tienen acceso a grandes cantidades de información.
3.7 Bases de datos orientadas a objetos
Las BBDD orientadas a objetos son de las más modernas, especialmente por su
gran capacidad y potencia. Una de sus principales características es que en ellas no
se guarda información detallada sobre el objeto, ya que se almacena por completo al
mismo.

Cada objeto tiene características propias que le permiten diferenciarse de otros


similares. Sus ventajas son claras:
 Admiten más cantidad de contenido.
 Permiten que el usuario tenga más información de primera mano.
3.8 Bases de datos documentales
Las BBDD documentales utilizan documentos, valga la redundancia, como la
estructura de almacenamiento y consulta de datos. Estos se componen por
múltiples registros y datos y se construyen con lenguaje NoSQL, lo que les
da muchas ventajas técnicas y de flexibilidad.

Con estas bases de datos se puede manejar grandes volúmenes de información en


cortos períodos de tiempo. Sus variadas funciones y módulos adaptables a
numerosos mecanismos de consulta les convierten en uno de las BBDD más
utilizadas por los programadores.
IBM DB2
Suele ser la segunda base de datos más utilizada en entornos
Unix/Linux después de Oracle. Es claramente un indiscutible ganador
en Mainframe. Hay perfiles profesionales para DB2 pero no tanto
como para Oracle. Por otro lado, el perfil de DB2 Mainframe no tiene
por qué saber moverse en DB2 Linux/Unix.

Microsoft SQL Server


Base de datos con compatibilidad únicamente para sistemas Windows.
Hay muchos perfiles expertos en SQL Server y no es difícil su
adquisición. Su integración con Microsoft Azure ha mejorado mucho su
flexibilidad y rendimiento.

Teradata
Destaca sobre los demás tipos de bases de datos por su capacidad de
almacenamiento y de análisis de datos. Suele ser utilizado en grandes
instalaciones de Big Data.

lenguaje de programación

En informática, se conoce como lenguaje de programación a un programa


destinado a la construcción de otros programas informáticos. Su nombre se
debe a que comprende un lenguaje formal que está diseñado para
organizar algoritmos y procesos lógicos que serán luego llevados a cabo por un
ordenador o sistema informático, permitiendo controlar así su comportamiento
físico, lógico y su comunicación con el usuario humano.

Dicho lenguaje está compuesto por símbolos y reglas sintácticas y


semánticas, expresadas en forma de instrucciones y relaciones lógicas, mediante
las cuales se construye el código fuente de una aplicación o pieza de software
determinado. Así, puede llamarse también lenguaje de programación al resultado
final de estos procesos creativos.

La implementación de lenguajes de programación permite el trabajo conjunto y


coordinado, a través de un conjunto afín y finito de instrucciones posibles, de
diversos programadores o arquitectos de software, para lo cual estos lenguajes
imitan, al menos formalmente, la lógica de los lenguajes humanos o naturales.

No deben confundirse, sin embargo, con los distintos tipos de lenguaje


informático. Estos últimos representan una categoría mucho más amplia, en

Tipos de lenguaje de programación

Los lenguajes de bajo nivel están diseñados para un hardware especifico.

Normalmente se distingue entre los siguientes tipos de lenguaje de programación:

 Lenguajes de bajo nivel. Se trata de lenguajes de programación que están


diseñados para un hardware específico y que por lo tanto no pueden migrar o
exportarse a otros computadores. Sacan el mayor provecho posible al sistema para
el que fueron diseñados, pero no aplican para ningún otro.

 Lenguajes de alto nivel. Se trata de lenguajes de programación que aspiran a ser


un lenguaje más universal, por lo que pueden emplearse indistintamente de la
arquitectura del hardware, es decir, en diversos tipos de sistemas. Los hay de
propósito general y de propósito específico.

 Lenguajes de nivel medio. Este término no siempre es aceptado, que propone


lenguajes de programación que se ubican en un punto medio entre los dos
anteriores: pues permite operaciones de alto nivel y a la vez la gestión local de la
arquitectura del sistema.

Otra forma de clasificación a menudo es la siguiente:

 Lenguajes imperativos. Menos flexibles, dada la secuencialidad en que construyen


sus instrucciones, estos lenguajes programan mediante órdenes condicionales y un
bloque de comandos al que retornan una vez llevada a cabo la función.

 Lenguajes funcionales. También llamados procedimentales, estos lenguajes


programan mediante funciones que son invocadas conforme a la entrada recibida,
que a su vez son resultado de otras funciones.

Los lenguajes de programación iniciales anteceden al ordenador actual

En un comienzo los lenguajes de programación eran códigos. La máquina del


telar creada por Jacquard, en el año de 1801, empleó los huecos en tarjetas que
tenían perforaciones para recrear el movimiento del brazo mecánico de una
máquina de tejer, con el objeto de crear patrones de decoración de forma
automática.

Entre los años de 1842 y 1843, Ada Lovelace, logró la traducción del trabajo
del trabajo de Mena brea sobre una máquina que propuso Charles Babbage,
“La Máquina Analítica”. Ada Lovelace, agregó unas observaciones sobre la
metodología para hacer los cálculos de los números de Bernoulli con dicha
máquina.

Herman Hollerith codificó toda la información de las tarjetas perforadas,


cuando se percató que los choferes de los trenes lograban identificar los
pasajeros usando el hueco que hacían en el boleto. Luego en, 1890, Hollerith
creo un código de datos del registro de pasajeros en dichas tarjetas.

Los códigos de computadoras iniciales se especializaban de acuerdo para que


se iban a usar. En las décadas iniciales del siglo XX, los cálculos numéricos se
basaban en los números decimales. Posteriormente, se percataron que la
lógica se podía simbolizar con números.

Alonzo Church expresó el cálculo Lambda mediante fórmulas. La máquina


de Turing, planteó los cimientos para compilar programas como datos de
un computador en la arquitectura de Von Neumann.

No obstante, el código de Turing no sirvió de forma exitosa como un


cimiento para lenguajes más avanzados, sino que se usó en el análisis de
rigor de los algoritmos.

La primera historia de los lenguajes de programación, es complicada


ubicar en el tiempo con precisión. Desde el principio, las limitaciones de los
hardware definieron la historia de los lenguajes de programación.

Inicialmente las tarjetas perforadas solo admitían unas 90 columnas, sin


embargo, se usarían para hacer una clasificación de cada una de las
tarjetas. El empleo del tambor magnético para la memoria conllevaba que
los programas debían intercalarse con las oscilaciones del tambor. Así
que, los programas dependían del hardware.

Para ciertos expertos, la máquina de tejer de Jacquard, así como la


Maquina de Babbage, eran lenguajes muy básicos y con limitaciones para
describir acciones que hacían estas máquinas. Dentro de la historia de los
lenguajes de programación, hasta las tarjetas perforadas son consideradas
como un lenguaje básico, aunque no fue creado para consumo humano.

Datos y fechas importantes

En los años 40 del siglo XX se desarrollaron los primeros ordenadores, con


alimentación de corriente eléctrica. Tenían limitaciones de velocidad y la
capacidad de memoria, obligando a los programadores a crear programas
sencillos. A la larga, se percatan de que la programación como lenguaje
necesitaba de un gran empuje intelectual ya que se podía comer errores
sino se conoce del tema.

En el año de 1948, Konrad Zuse hizo la publicación de un artículo sobre un


lenguaje de programación que desarrolló llamado Plankalkul, pero no
investigó más en esta área. Entre los lenguajes que se crearon en esa
época pueden destacar:

1943: Código ENIAC.

1948 Plankalkul, este se implementó medio siglo después.

1949 a 1954: se desarrolló un grupo de instrucciones que fueron creadas


para fabricantes determinados.
Años 50 y 60 siglo XX: Comienzo de la historia de los lenguajes de
programación

En esta época, se desarrollaron los tres lenguajes de programación aun en


vigencia, los cuales son:

1955: FORTRAN, desarrollado por John Backus.

1958: LISP, desarrollado por John McCarthy.

1959: COBOL, desarrollado por Short Range Committe, y su influencia fue


Grace Hopper.

Otro momento importante, fue para finales de los años 50, cuando se
publicó por un Comité Americano y Europeo de expertos en Computación
(Algol), acerca de un actualizado “Lenguaje para Algoritmos”. Este informe
agrupó muchas ideas y observaciones del momento y suministró dos
innovaciones relevantes para la historia de los lenguajes de programación:

Estructuras de bloques anidados: las secuencias de código y las


declaraciones relacionadas se aglomeran en bloques sin que tenga que
ser de forma explícita a procesos individuales.
Ámbito léxico: un bloque tienes sus propias variables, procesos y
funciones, que no son visibles al código fuera de este bloque, un ejemplo
serio, ocultando datos o información.

Evolución del lenguaje de programación

Primer lenguaje de programación

1843

Ada Lovelace desarrolla el primer lenguaje de programación cuando


escribió un algoritmo para la máquina analítica de Charles Babbage.

Primera generación

1940

Código máquina y Ensambladores


La primera generación de lenguajes de programación consistía
enteramente de una secuencia de 0s y 1s que los controles de la
computadora interpretan como instrucciones, eléctricamente.
Representan los primeros lenguajes de programación que la computadora
podía entender, son conocidos como lenguaje máquina.

Desarrollo del lenguaje ensamblador


1950

Es un lenguaje de programación de bajo nivel, basado en la


representación de código de máquina. (binario ) El ensamblador realiza la
traducción del Código de máquina.

Segunda generación

1950

Lenguaje simbólico (ensambladores):


Son más fáciles de utilizar que los lenguajes máquina, pero al igual que
ellos, dependen de la máquina en particular. El lenguaje de bajo nivel por
excelencia es el ensamblador. El lenguaje ensamblador es el primer
intento de sustituir el lenguaje maquina por otro más similar a los utilizados
por las personas. Este intenta desflexibilizar la representación de los
diferentes campos. Esa flexibilidad se consigue no escribiendo los campos
en binario y aproximando la escritura al lenguaje. A principios de la década
de los 50 y con el fin de facilitar la labor de los programadores, se
desarrollaron códigos mercadotécnicos para las operaciones y direcciones
simbólicas.

Fortran

1957
(“The IBM Mathematical Formula Translating System”): Un lenguaje de
programación de alto nivel de propósito general. Para cálculo numérico y
científico (como alternativa al lenguaje ensamblador). Es el lenguaje de
programación más antiguo que se utiliza hoy en día.

Lips

1958

(“List Processor”) Utilizado para la notación matemática y temas de


ciencias de la computación.

Cobol

1959

(“Common Business-Oriented Language) Usado principalmente para la


informática empresarial. Es el primer lenguaje de programación que se
demandan por el Departamento de Defensa de EE.UU..

Tercera generación

1959

LENGUAJES DE ALTO NIVEL:

Estos lenguajes son los mas utilizado por los programadores. Están
diseñados para que las personas escriban y entiendan los programas de
un modo mucho mas fácil que los lenguajes máquina y ensamblador. Un
programa escrito en lenguaje de alto nivel es independiente de la máquina
(las instrucciones no dependen del diseño del hardware o de una
computadora en particular), por lo que estos programas son portables o
transportables. Los programas escritos en lenguaje de alto nivel pueden
ser ejecutados con poca o ninguna modificación en diferentes tipos de
computadoras. Son lenguajes de programación en los que las
instrucciones enviadas para que el ordenador ejecute ciertas órdenes son
similares al lenguaje humano. Dado que el ordenador no es capaz de
reconocer estas ordenes, es necesario el uso de un intérprete que
traduzca el lenguaje de alto nivel a un lenguaje de bajo nivel que el
sistema pueda entender.

Basic

1964

(“Beginner’s All-purpose Symbolic Instruction Code”) Diseñado para la


simplicial. Su popularidad explotó a mediados de los años 70 con los
computadores personales.

Cuarta generación

1967

La Programación Orientación a Objetos (P.O.O.):


surge en Noruega en 1967 con un lenguaje llamado Simula 67,
desarrollado por Krinsten Nygaard y Ole-Johan Dahl, en el centro de
cálculo noruego.

Simula 67 introdujo por primera vez los conceptos de clases, corrutinas y


subclases (conceptos muy similares a los lenguajes Orientados a Objetos
de hoy en día).

Pascal

1970

Es un lenguaje de programación desarrollado por el profesor suizo Niklaus


Wirth. Su objetivo era crear un lenguaje que facilitara el aprendizaje de
programación a sus alumnos, utilizando la programación estructurada y
estructuración de datos. Sin embargo con el tiempo su utilización fue de
gran uso para herramientas de todo tipo.

Quinta generacion

1970

La quinta generación de computadoras, también conocida por sus siglas


en inglés, FGCS (de Fifth Generation Computer Systems), fue un
ambicioso proyecto hecho por Japón a finales de la década de 1970. Su
objetivo era el desarrollo de una nueva clase de computadoras que
utilizarían técnicas y tecnologías de inteligencia artificial tanto en el plano
del hardware como del software, usando el lenguaje PROLOG2 al nivel del
lenguaje de máquina y serían capaces de resolver problemas complejos,
como la traducción automática de una lengua natural a otra (del japonés al
inglés, por ejemplo).

1972

(Basado en un lenguaje anterior llamado “B”) Creado para sistemas Unix.


Muchos de lenguajes de programación más populares del mundo son
derivados de el, entre ellos tenemos C#, Java, JavaScript, Perl, PHP y
Python.

Ada

1980

(En honor a Ada Lovelace): Es derivado del Pascal. Contratado por el


Departamento de Defensa de los EE.UU. en 1977 para el desarrollo de
sistemas de software grandes.

C++

1983

C++ es un lenguaje de programación diseñado por Bjarne Stroustrup. La


intención de su creación fue el extender al exitoso lenguaje de
programación C con mecanismos que permitan la manipulación de objetos.
Objective-C

1983

Es un lenguaje de programación orientado a objetos creado como un


superconjunto de C para que implementase un modelo de objetos parecido
al de Smalltalk. Originalmente fue creado por Brad Cox y la corporación
StepStone en 1980.

Perl

1987

Larry Wall comenzó a trabajar en Perl en 1987 mientras trabajaba como


programador en Unisys y anunció la versión 1.0 en el grupo de noticias
comp.sources.misc el 18 de diciembre de 1987. El lenguaje se expandió
rápidamente en los siguientes años. Perl 2, publicado en 1988, aportó un
mejor motor de expresiones regulares. Perl 3, publicado en 1989, añadió
soporte para datos binarios.

Phyton

1991

se remonta hacia finales de los 80s principio de los 90s1 y su


implementación comenzó en diciembre de 1992 cuando en Navidad Guido
Van Rossum que trabajaba en el (CWI) (un centro de investigación
holandés de carácter oficial) decidió empezar el proyecto como un
pasatiempo dándole continuidad al lenguaje de programación ABC del que
había formado parte del equipo de desarrollo en el CWI,3 dicho lenguaje
se enfocaba en ser fácil de usar y aprender manteniendo potencia en su
desempeño pero el hardware disponible en la época de su creación hacía
difícil su uso y el proyecto no trascendió como se esperaba.

Ruby

1993

Ruby es un lenguaje de programacion de alto nivel que fue inventado por


Yukihiro “Matz” Matsumoto, en Japón, lanzado al mundo en 1995. Ruby es
un lenguaje interpretado, de codigo abierto, y orientado a objetos.

Java

1995

El lenguaje de programación Java fue originalmente desarrollado por


James Gosling de Sun Microsystems (la cual fue adquirida por la
compañía Oracle) y publicado en 1995 como un componente fundamental
de la plataforma Java de Sun Microsystems.

JavaScript

1995
JavaScript es un lenguaje de programación interpretado dialecto del
estándar ECMAScript. Se define como orientado a objetos2 , basado en
prototipos, imperativo, débilmente tipado y dinámico. Diseñado por:
Netscape Comunicaciones Corp., Mozilla Fundation

PHP

1995

Creado por Rasmus Lerdorf, la primera encarnación de PHP era un


conjunto simple de ficheros binarios Common Gateway Interface (CGI)
escritos en el lenguaje de programación C. Originalmente utilizado para
rastrear visitas de su currículum online, llamó al conjunto de scripts
"Personal Home Page Tools", más frecuentemente referenciado como
"PHP Tools".

son, evidentemente, los que están en uso en un mayor número de


proyectos. Te indicamos cuáles son, según un estudio publicado
anualmente por Github, y por qué deberías aprender cada uno de ellos.

JavaScript es, actualmente, el rey de los lenguajes de programación. Al


menos, en número de proyectos y programadores que colaboran con ellos
en el mayor repositorio de software del mundo. Existe una diversidad casi
ilimitada de paquetes y frameworks, tanto para el backend como para el
frontend, por lo que deberás elegir con cuidado.
Además de no ser un lenguaje sencillo, su curva de aprendizaje es una
pendiente bastante escarpada que te llevará a aprender tecnologías como
node.js, Kubernetes, etc. Cuando la superes, eso sí, tus habilidades como
programador estarán completamente al día.

El segundo lenguaje más empleado es Java. Está muy establecido en


aplicaciones corporativas y dispone de una gran base de programadores.
Pero, sin duda, el gran motivo de su popularidad actual es que es el
lenguaje nativo para la programación de aplicaciones móviles para
Android. Merece la pena conocerlo, aunque solo sea lo básico, porque
antes o después te encontrarás con código escrito en Java.

Python es el tercero de los lenguajes de programación más utilizados del


momento. Es un lenguaje con una curva de aprendizaje muy asequible.
Pero, ¡cuidado! Eso no quiere decir que vayas a dominarlo con seguir un
par de tutoriales. Hace falta tiempo y, preferiblemente, una buena
experiencia previa en programación orientada a objetos lo más canónica
posible: aunque Python te facilita una programación que siga las mejores
prácticas, es un lenguaje muy versátil en el que un programador inexperto
puede verse perdido.

Fruto de esa versatilidad está el gran número de paquetes y frameworks


disponibles. Hay frameworks muy potentes para crear APIs REST y web
como Django, pero uno de los motivos de su enorme popularidad está
siendo el auge de big data.
Dicen que los viejos rockeros nunca mueren, y ese es el caso de PHP. No
es que sea más antiguo que otros lenguajes de la lista, pero sí ha tenido
que reinventarse en varias ocasiones a lo largo de su historia. ¡Y vaya si lo
ha hecho! La versión 7 es más que una puesta al día, y ha dado alas a los
frameworks de programación más potentes para este lenguaje, Symfony y
Laravel.

Aunque es fácil de aprender, en general será necesario conocer algún


framework o, incluso, alguna de las herramientas de creación de webs más
comunes en este lenguaje, desde el simple Wordpress hasta CMS
completos como Drupal, plataformas de eCommerce como Magento y
Prestashop, etc.

Otros lenguajes con mucha demanda

1. Cualquiera de los tres lenguajes de programación anteriores es una


apuesta segura, pero la lista incluye otros que pueden ser
interesantes, bien por ser innovadores, bien por llevar muchos años
en el mercado. Ese es el caso de C++. Si con PHP hablamos de su
veteranía, C++ es el lenguaje orientado a objetos clásico, con el que
han aprendido generaciones de programadores. Entre sus ventajas
está el ser un lenguaje de programación muy rápido, que no solo
ofrece una orientación a objetos muy completa y con todos los
“juguetes para programadores” imaginables, como la sobrecarga de
operadores.

2. También tiene toda la potencia de C, lo que le hace uno de los


lenguajes más eficientes. De hecho, algunos proyectos de big data
utilizan librerías creadas en C++ por su capacidad para trabajar
velozmente con grandes volúmenes de datos. Es otro de esos
lenguajes de programación que, posiblemente, ya conozcas, y
merezca la pena profundizar en él para incorporarlo a tu “caja de
herramientas”.

3. Microsoft dispone de una buena base de software instalada en el


entorno empresarial. Por eso, la tecnología .NET y el lenguage C#
en particular son tan populares. Se podría decir que está basado en
C como C++, pero buscando la sencillez que caracterizó a Java en
comparación con este último lenguaje.

4. Si estás metido en el entorno de servidores de Windows o quieres


programar aplicaciones para este sistema operativo, es una muy
buena alternativa a otros lenguajes de programación.

5. TypeScript es el séptimo lenguaje en la lista de GitHub, lo que puede


resultar algo polémico. ¿El motivo? Este lenguaje es una ampliación
de Javascript cuya principal característica es la de ser un lenguaje
fuertemente tipado. Esto permite que el código sea mucho más
sólido, al no permitir realizar operaciones sobre objetos del tipo
equivocado, y lo hace menos sensible a fallos.

6. Aunque sus proyectos y desarrolladores bien podrían encontrarse


elevando el reinado de JavaScript en esta clasificación, TypeScript
tiene entidad en sí mismo. Si programas en JavaScript y no lo has
aprendido todavía, es el momento de hacerlo.

7. ¿Shell script? Sí, por sorprendente que parezca, es una categoría


muy activa. La programación en bash y otros interfaces de línea de
comandos (CLI) como zsh está de moda. Aunque como lenguajes de
programación pueden ser muy básicos, e incluso arcaicos, en
combinación con todas las herramientas accesibles en un sistema
UNIX o Linux son una de las herramientas más versátiles para un
administrador de sistema

Una diapositiva
es una fotografía que se crea en una materia transparente. Se trata de
una impresión positiva, que presenta colores reales, desarrollada
mediante un procedimiento fotoquímico.
Las diapositivas tradicionales se obtenían a partir del recorte de los
cuadros de una filmina. Dichos recortes luego se enmarcaban en cartón o
plástico para facilitar su almacenamiento y su proyección. Además de
destacarse por su nitidez, estas impresiones realizadas en soportes
transparentes eran valoradas por su resistencia al paso del tiempo: una
diapositiva no suele perder sus colores, a diferencia de lo que ocurre con
las fotos impresas en color.
Una filmina es un antiguo formato de imagen fija, que solían usar los
docentes en los colegios primarios y secundarios hasta que se impuso la
videocasete en la década de los ochenta, ya que era menos costoso y
ofrecía más prestaciones. Algo similar ocurrió cuando llegó al mercado
el DVD y, seguidamente, el Blu-ray.
Entre los años cuarenta y ochenta, con la filmina era fácil y poco costoso a
nivel económico emitir películas con fines educativos grabadas en 16
milímetros, ya que no requería mucho espacio de almacenamiento y
ofrecían una gran velocidad de rebobinado, una acción obligatoria para
volver a usarlas. Como si estas características no fueran suficientemente
atractivas, eran muy resistentes a los golpes y por lo tanto no era
necesario un trabajo constante de mantenimiento. De hecho, incluso en la
actualidad hay quienes continúan usándolas.
Las primeras máquinas para proyectar diapositivas constaban de
un mecanismo que permitía extraer la transparencia de un sector lateral
para que se pudiera introducir la siguiente diapositiva. Luego surgieron los
proyectores que emplean discos capaces de reproducir numerosas
diapositivas de manera automática.
Con respecto a su historia, debemos remontarnos a los inicios del siglo
XX, cuando apareció la técnica denominada Autocromo, que permitía
obtener diapositivas a color a través de la reproducción de
una síntesis aditiva. Dos de sus desventajas con respecto a las
características actuales de la diapositiva eran su escasa definición y su
limitada resolución cromática.
Más tarde llegó al mercado la técnica conocida como Kodachrome, que sí
ofrecía colores vibrantes gracias al uso de una síntesis sustractiva y la
aplicación de tres emulsiones, de manera que se cubría casi todo el
espectro cromático. En el año 1935, fue la técnica que se usó para cintas
de 8 y 16 milímetros y para diapositivas de 35 milímetros.
A comienzos de la década de los cuarenta, había alcanzado mucha
popularidad, pero ciertos defectos de color y su poca durabilidad volvieron
necesario el nacimiento de nuevas técnicas.

La fotografía impresa a color logró desplazar


la diapositiva en ciertas áreas, especialmente en el ámbito doméstico,
aunque en muchos campos profesionales siguió siendo el formato
preferido, como se menciona más arriba. Las ventajas
del almacenamiento digital, por otra parte, hacen que cualquier medio
físico parezca poco conveniente.
En la actualidad, la idea de diapositiva suele emplearse para nombrar a
cada una de las imágenes que forman parte de una presentación creada
con un software. Programas como Microsoft PowerPoint permiten
desarrollar presentaciones con múltiples diapositivas, que pueden incluir
fotografías, gráficos, textos, animaciones y otros contenidos.
Un escritor que ofrece una conferencia con consejos para crear una
novela, por ejemplo, puede apoyar su disertación con la exhibición de una
presentación armada con un programa informático. El autor, con ayuda de
una computadora (ordenador) y una pantalla gigante, puede ir mostrando
las distintas diapositivas con sus sugerencias.
Origen de las diapositivas

Introducido en 1935, fue ofrecido en un formato de 16 milímetros para


películas cinematográficas, 35 mm para diapositivas y 8 mm para películas
caseras. Aunque se utilizó originalmente para reportajes, ganó popularidad
gradualmente. A comienzos de los años 1940, algunos aficionados usaban
Kodachrome para tomar fotografías familiares, otros utilizaban
adaptadores de rollos de película con cámaras de 4x5 pulgadas. En esta
época, las películas en color tenían muchos defectos, eran costosas y las
impresiones no duraban mucho tiempo.

Emulsiones más eficaces como Ektachrome y Fujichrome fueron


sustituyendo a las de Kodachrome. Los aficionados las utilizaron hasta los
años 1970, en que la impresión de copias en colores comenzó a
desplazarla.

En los últimos años del siglo XX, las transparencias en color fueron
extensamente utilizadas en la fotografía publicitaria, documental, deportiva,
de stock y de naturaleza. Los medios digitales han reemplazado
gradualmente las transparencias en muchas de estas aplicaciones y su
uso es, en la actualidad, infrecuente.
Evolución de las diapositivas

Cuesta imaginar un mundo sin PowerPoint. Para empezar, cuesta imaginar que
Microsoft decida un día eliminar su programa de presentaciones del paquete
Office.
Algo que también cuesta imaginar es la época anterior al PowerPoint, cuando no
había un ordenador conectado a un proyector para mostrar diapositivas
digitales con vídeos, fotografías o gráficos 3D.
Antes de PowerPoint, si querías hacer una presentación necesitabas un proyector
de diapositivas, que normalmente venían en forma de pequeñas fotografías
cubiertas por un marco de plástico para facilitar el cambiar de diapositiva en una
máquina que no siempre te hacía caso.
Otra opción era contar con un proyector de transparencias, que podían ser de
tamaño DIN-A4 y que en su momento álgido llegaron a ser en color. Y si no te
gustaban estas “moderneces”, podías limitarte a mostrar carteles de cartón o
garabatear en una pizarra.
Pero PowerPoint lo cambió todo en los años 90. Se acabó ir a una copistería o
centro de reprografía a preparar tus diapositivas o transparencias. Ahora, desde
casa mismo, podías crear un archivo que mostraba a todo el mundo texto e imagen
en páginas digitales. Sólo tenías que conectar un ordenador a un proyector y
maravillar a tu audiencia.
Estamos habituados al uso de PowerPoint, y a sus muchas alternativas. Pero,
¿cómo empezó todo? ¿Quién creó este programa, imprescindible para cualquier
reunión o charla?

Primero fue para Mac


Todos tenemos un pasado y Microsoft PowerPoint, con varias décadas a sus
espaldas, no es una excepción.

Sus padres son Robert Gaskins y Dennis Austin, dos empleados de un pequeño


startup llamada Forethought. Al proyecto se les uniría más adelante Thomas
Rudkin.
Un año después de fundarse de esta empresa, empezó el proyecto de crear un
programa gráfico acorde a las nuevas tendencias de entonces, donde
las computadoras personales empezaban a despuntar.
Las primeras especificaciones de cómo debía ser este programa tenía tan sólo dos
páginas y se titulaba “Presentation Graphics for Overhead Projection”, lo que ya
daba una pista de cuál sería su propósito.
Tras un proceso de tres años, el primer PowerPoint o PowerPoint 1.0 vio la luz en
1987. Pero sólo para ordenadores Mac, Macintosh en aquel entonces. Vendió
10.000 licencias.
Como curiosidad, se iba a llamar Presenter, pero no pudo ser por problemas
legales. El nombre ya estaba registrado.
Entonces llegó Microsoft
Una pequeña startup, creada en 1983, lanza al mercado un software en 1987 que
tiene un gran éxito. Como ocurre hoy en día, cuando una empresa despunta,
siempre hay una gran multinacional que quiere hacerse con ella.

En este caso, fue Microsoft quien se interesó por PowerPoint. El motivo es que en
aquel entonces estaba desarrollando su propio programa de ordenador para
realizar presentaciones.
La acogida de PowerPoint tras su lanzamiento fue tan buena, tanto en la prensa
como en el público, que Microsoft no tardó mucho en comprar Forethought, el
startup propietario de PowerPoint por 14 millones de dólares de entonces.
Curiosamente, durante el proceso de desarrollo de PowerPoint, a Bill Gates no le
atrajo demasiado, a pesar de la recomendación de Jeff Raikes, quien se estaba
encargando de desarrollar el programa de presentaciones de Microsoft.
Pero tras la adquisición, Microsoft creó un departamento dedicado, Graphics
Business Unit, dentro de la división de software.
PowerPoint 2.0 no tardó en ver la luz, a mitad de 1988. Ya era propiedad de
Microsoft pero seguía siendo una exclusiva para Macintosh. No fue hasta 1990 que
apareció el primer Microsoft PowerPoint para Windows, en concreto para el ya
mítico Windows 3.0. Esta segunda versión ya contaba con soporte para color.
Y en 1992 se lanzó PowerPoint 3.0, que permitía emitir vídeo en proyectores y
monitores, más parecido a lo que conocemos ahora.
PowerPoint como parte de Office
El éxito de PowerPoint desde el principio y su propósito para el ámbito
empresarial y profesional hizo que desde su primera versión de Microsoft,
PowerPoint 2.0, ya formase parte de Microsoft Office, primero en Mac y en
adelante también para Windows.
Con todo, también estaba disponible para su adquisición por separado, si bien a
partir de PowerPoint 4.0 fue de venta exclusiva dentro del paquete ofimático de
Microsoft, que en aquel entonces contaba con Word 6.0, Excel 5.0 y Access 2.0.
La integración en Office ha sido así hasta nuestros días. Si bien al principio se
limitó a su venta, más adelante la integración incluyó el uso compartido de
plantillas y recursos gráficos, etc.

Después de PowerPoint 4.0 llegó PowerPoint 95 (cuya versión era la 7.0,


saltándose así dos versiones para coincidir con el resto de las componentes de
Office).
Su popularidad fue tal que en 1993 llegó a copar el 78% del mercado de software
de presentaciones, subiendo al 85% en 1997 con más de 4 millones de copias
vendidas al año.

Las siguientes versiones son más conocidas. PowerPoint 12.0 o 2007, por ejemplo,
recibió un gran cambio con la interfaz Ribbon, que añadía botones gigantes y una
nueva barra de elementos en la parte superior de la ventana principal para
así activar ciertas acciones más rápido. Además, introducía los nuevos formatos
Office XML (PPTX en el caso de PowerPoint).
Presente y futuro
Microsoft PowerPoint sigue actualizándose cada pocos años, tanto en su versión
para Windows como en la de macOS. Y desde hace tiempo podemos usarlo desde
el navegador en su versión web de Office 365.
A PowerPoint le ha surgido competencia, como Apple Keynote o Presentaciones
de Google, eso sin contar con la interminable lista de alternativas online, pero
sigue siendo la herramienta de presentaciones más popular y PowerPoint
es sinónimo de presentación.
Es innegable que las presentaciones y charlas actuales le deben mucho a este
programa, para bien o para mal, y que muchas prácticas son heredadas del estilo de
PowerPoint.
Clasificación de las diapositivas según su contenido

Diapositivas de texto

Tipo de diapositiva que da mayor importancia a la información que se


transmitirá por escrito. Estas suelen abarcar casi toda la presentación,
siendo el texto lo más importante aun si estos son acompañados por
imágenes.

Diapositivas de tabla

Son las diapositivas de texto que presenta un contenido numérico bien


organizado y a la vez está distribuido como celdas, creando una tabla de
información o tabla de datos.

Diapositivas en blanco

Es una diapositiva vacía que suele emplearse a la hora de diseñar o


introducir cualquier texto o gráfico, para posteriormente presentarla.

Diapositiva de diagrama

Son las diapositivas que hacen uso de diversos gráficos estadísticos,


conformando estos el mayor contenido de la diapositiva. Estos gráficos
muestran diversos datos que mantienen cierta relación entre sí.
Se pueden emplear diseños muy variados de diagramas, permitiendo que
la persona escoja el que más se acomode a lo que desea mostrar.

Diapositiva multimedia

Tipo de diapositiva donde la persona puede hacer uso de variados tipos de


objetos o elementos multimedia, como son vídeo, sonido, etc.

Tipos de diapositivas según su formato y naturaleza:

Diapositivas de soporte fotoquímico

Son las diapositivas que se crean por medio de una transparencia, donde
se imprime en ella una imagen positiva, que por lo generar son fotografías
copiadas o reproducidas a una diapositiva con el objetivo de presentarla en
un proyector a un tamaño que supera en mucho el original.

Estas diapositivas pueden contener dibujos realizados a mano, grabados o


piezas de revistas, etc. Son las más empleadas a la hora de realizar
presentaciones educativas, al hacer alguna publicidad o alguna
presentación de algún producto o servicio.

Estas diapositivas en la actualidad han sido reemplazadas por las


diapositivas digitales.
Diapositivas digitales

Estas diapositivas están conformadas por diversos objetos gráficos tipo


multimedia dispuestos en pantallas o páginas que están hechos en formato
digital con información precisa y breve. Estas diapositivas llegan a
contener texto, imágenes, redes, cuadros, sonidos y hasta vídeos.

Cada pantalla o página se ordena entre sí, creando una presentación de


diapositivas, donde las más empleadas son las creadas a partir del
programa PowerPoint, tipo de software de mayor uso en el mundo.

Tipos de diapositivas digitales

Diapositivas de texto

Tipo de diapositiva que se centra en la información escrita, o sea en el


texto. Es usada cuando se pretende hacer una explicación muy teórica. El
texto puede contener algunas imágenes pero estas nunca llegan a
protagonizar en la diapositiva, mas bien actúan como complemento par
apoyar el texto.

Diapositivas en blanco

Son diapositivas que le permite al usuario poder agregar cualquier


información sea de textos, de imágenes, gráficos, sonido, vídeos, etc. La
misma permite el cambio de fondos, ya que presenta diversos fondos a
elegir.
Diapositivas numéricas

Refiere a las diapositivas utilizadas a la hora de presentar datos contables,


estadísticos, etc. En estas se suelen incluir gráficos de barras, tablas
comparativas, diagramas, y demás elementos que llegan a ofrecer una
información cuantitativa.

Las diapositivas vienen en conjunto formado de varias aplicaciones


llamado paquete de office el cual para obtenerlo debemos adquirir el
paquete en algunos dispositivos individualmente se puede utilizar
Ve un paso por delante con lo último en aplicaciones con tecnología de IA:

 Crea documentos inspiradores con funcionalidades de asistencia inteligente en


Word, Excel y PowerPoint
 Guarda hasta 500 000 fotos* y archivos con 1 TB de almacenamiento en la nube
de OneDrive (*se supone que el tamaño de archivo es de 2 MB)
 Disfruta de una experiencia de calendario y correo electrónico sin anuncios con
Outlook

Valor excepcional

           

Usa Microsoft 365 en tu ordenador de sobremesa, portátil, tableta y teléfono.

     

Microsoft 365 es compatible con Windows, macOS, iOS y Android.

   

Recomendado para 2-6 personas

Microsoft 365 Familia


USD$79.99 al año

  Perfecto para un máximo de 6 personas


  Hasta 6 TB de almacenamiento en la nube, lo que equivale a 1 TB por usuario
  Funciones de seguridad premium en la aplicación móvil1

Microsoft 365 Personal


USD$59.99 al año

  1 persona
  1 TB de almacenamiento

Qué es Internet:

Internet es un neologismo del inglés que significa red informática descentralizada


de alcance global. Se trata de un sistema de redes interconectadas mediante
distintos protocolos que ofrece una gran diversidad de servicios y recursos, como,
por ejemplo, el acceso a archivos de hipertexto a través de la web.

Internet es un anglicismo que se forma por la abreviación del término International


Network of Computers, que en español se podría traducir como ‘Red Internacional
de Computadoras’, o también como ‘Red de redes’.

En español, la palabra internet está considerada como un nombre propio. La Real


Academia Española (RAE), en su diccionario, admite que se escriba con o sin
mayúscula inicial. De allí que, preferentemente, se utilice sin artículo, aunque en
caso de usarlo, se recomienda el uso femenino (la), ya que el nombre equivalente
en español vendría a ser ‘red’, que es femenino.

Vea también el concepto de Redes.

Origen de internet

Existen dos versiones sobre el inicio de internet. La más popular señala su creación
como una respuesta del Departamento de Defensa estadounidense, quienes en los
años 60 buscaban la forma en la que todos los ordenadores que se utilizaban
dentro de la organización funcionaran en red, aún y cuando una de las
computadoras sufriera una falla debido a un ataque enemigo.

Sin embargo, otra versión menos extendida señala que en esa misma época, en la
Oficina para Tecnologías de Procesado de la Información (IPTO), un hombre
llamado Robert Taylor ( quien se estrenaba como director de la oficina) tuvo la idea
de generar un sistema que permitiera que los investigadores pudiesen compartir
recursos a través de la utilización de enlaces.

Si esta idea funcionaba, les permitiría hacer más eficiente su trabajo y evitar la
compra innecesaria de más computadoras, considerando que para esa época eran
sumamente costosas y complicadas de trasladar e instalar.

El proyecto fue inicialmente aprobado para su desarrollo por ARPA, (Agencia de


Proyectos de Investigación Avanzados), que aunque en principio se dedicaba a la
financiación de investigaciones académicas, luego pasó a ser parte del
Departamento de Defensa estadounidense, llamándose DARPA. Para muchos, de
allí se extiende la creencia de que la internet fue un proyecto desarrollado con fines
militares, cuando en realidad se trató de una solución diseñada y financiada con
fines civiles y de investigación.

La web ha evolucionado desde su creación de forma rápida en diferentes


aspectos:
La web ha evolucionado desde su creación de forma rápida en diferentes aspectos:

 Rápidez de acceso y número de usuarios conectados.


 Ámbitos de aplicación. El uso de las redes de comunicación ha ido aumentando
exponencialmente desde su creación, actualmente múltiples de las actividades
cotidianas que realizamos se pueden realizar de forma más rápida y eficaz a través de
las redes (reservas de hotel, avión, tren,�, pago de tributos, solicitud de cita previa,
transferencias bancarias, compra electrónica, etc).
 Tipo de interacción del usuario. La evolución que ha seguido la web en relación al rol
que los usuarios tienen en el acceso a la misma ha ido también evolucionando.
Se conocen tres etapas en la evolución a Internet:

 Web 1.0. Se basa en la Sociedad de la Información, en medios de entretenimiento y


consumo pasivo (medios tradicionales, radio, TV, email). Las páginas web son
estáticas y con poca interacción con el usuario (web 1.0, páginas para leer).
 Web 2.0. Se basa en la Sociedad del Conocimiento, la autogeneración de contenido,
en medios de entretenimiento y consumo activo. En esta etapa las páginas web se
caracterizan por ser dinámicas e interactivas (web 2.0, páginas para leer y escribir)
en donde el usuario comparte información y recursos con otros usuarios.
 Web 3.0. Las innovaciones que se están produciendo en estos momentos se basan
en Sociedades Virtuales, realidad virtual, web semántica, búsqueda inteligente.
Se conocen tres etapas en la evolución a Internet:

 Web 1.0. Se basa en la Sociedad de la Información, en medios de entretenimiento y


consumo pasivo (medios tradicionales, radio, TV, email). Las páginas web son
estáticas y con poca interacción con el usuario (web 1.0, páginas para leer).
 Web 2.0. Se basa en la Sociedad del Conocimiento, la autogeneración de contenido,
en medios de entretenimiento y consumo activo. En esta etapa las páginas web se
caracterizan por ser dinámicas e interactivas (web 2.0, páginas para leer y escribir)
en donde el usuario comparte información y recursos con otros usuarios.

 Web 3.0. Las innovaciones que se están produciendo en estos momentos se basan
en Sociedades Virtuales, realidad virtual, web semántica, búsqueda inteligente.

clasificación del internet


POR SU AUDIENCIA 
o Públicos: Se trata de sitios públicos, con acceso libre.
o Extranet: Sitios con acceso limitado, puede tratarse de
clientes o proveedores de una empresa.
o Intranet: Regularmente se trata de redes privadas, tal
vez de una empresa u organización, con acceso
restringido.
POR SU DINAMISMO.
o Sitios interactivos: Donde el usuario puede entrar y
con la información que recibe puede cambiar o influir
en el contenido, tal como pasa en la redes sociales
donde podemos editar y cambiar el contenido de la
página.
o Sitios estáticos: Sitios donde solo los diseñadores
pueden hacer cambios o modificaciones.
POR SU ESTRUCTURA: Lo sitios Web se presentan con
diversas estructura, lineal, jerárquica, parrilla, e web pura y
mixta.
POR SU APERTURA.
o Estructura abierta: Podemos acceder a cualquier
documento con solo escribir su dirección.
o Estructura cerrada: Solo hay una entrada principal
por decirlo así, por donde el usuario tiene que entrar y
acceder a los documentos deseados.
o Estructura semicerrada: Es una combinación de la
dos, es decir se tiene que entrar por puntos
específicos para acceder a la página principal y
secciones importantes.
POR SU PROFUNDIDAD.
Depende de la cantidad de enlaces que hay que pulsar para
llegar al contenido deseado, esperando regularmente que no
sean más de 3.
POR SUS OBJETIVOS.
Estos pueden ser comerciales, informativos, de ocio,
navegación, artísticos o personales.

Influencia de Internet en los Mercados Eléctricos

Comercio electrónico

La red de computadores ha tenido, como ya se mencionó, en


el comercio electrónico a uno de sus principales (si no el
principal) aliado en su vertiginosa expansión. Basta ver el
crecimiento de sitios dedicados exclusivamente al comercio
de libros, música, videos, software, hardware de
computadores, automóviles, casas, arte, acciones, en fin.

Entonces es válido hacerse la pregunta ¿se podrá transar


energía en Internet? La respuesta sin duda es afirmativa.
Luego del desarrollo de los mercados en primer lugar, y de la
tecnología en segundo, sólo falta ver un desarrollo en las
legislaturas y reglamentos que regulan los mercados junto
con los organismos coordinadores.

El potencial del medio es impresionante, ya que se tendría


además de enormes volúmenes de información la posibilidad
de vender y comprar energía en forma instantánea
generando así un mercado "instantáneo" de energía que
puede cambiar la forma en que ella se transa y se cobra hoy
en día.

Hasta hoy, no se ha desarrollado comercialmente tal sistema,


pero previendo el potencial del sistema, no cabe duda de
será implementado en el mediano plazo.

Acceso a la información

La característica más notable del WWW hoy en día son las


posibilidades de acceder a la más variada información con
sólo hacer un click. Los volúmenes de datos son tan
extendidos que cuesta filtrar los datos realmente
interesantes, luego dar con lo que uno busca puede ser un
tanto complejo.

Sin embargo, tratándose de los mercados eléctricos en


general pueden obtenerse las más variadas informaciones,
ya sea sobre comportamiento de redes, curvas de carga,
estimaciones de demanda, leyes eléctricas, etc.

El mercado eléctrico se ve ampliamente favorecido y sobre


todo sus clientes e inversores debido a que son ellos quienes
se crean infinitas oportunidades de conocimiento de lo que
sucede en el ambiente eléctrico. Los inversores pueden
alcanzar datos y contrastarlos con los de otras compañías. La
red se transforma en un instrumento importante en la
evaluación de nuevos proyectos de inversión ya que en ella
se encuentra la fuente más plural y heterogénea de
información.

Del mismo modo, los clientes se pueden informar acerca de


tarifas y comenzar a solucionar problemas comunes. Basta
recordar el racionamiento eléctrico al que se vio sometido el
SIC chileno en los meses de Abril y Mayo de 1999. La
empresa distribuidora Chilectra, previendo la avalancha de
consultas telefónicas que saturarían sus sistemas, decidió
implementar un sistema de auto información por medio del
WEB (www.chilectra.cl) que le ayudó a aliviar la carga que se
generó en esas fechas.

Así, la red comienza a jugar un papel en que los grandes


conglomerados y las empresas más pequeñas se hacen
presente en la red, no por un asunto de moda, sino porque el
cliente es su foco y a él quieren entregar toda la información
que a éste le sea relevante.

Telemetría en el control de procesos relacionados

Otro tema que cobra relevancia es el que se relaciona con la


operación remota de sistemas. Si hay algo que en un sistema
eléctrico es inevitable es la necesidad de mantener la red en
un perfecto equilibrio debido a la imposibilidad de almacenar
energía y potencia en grandes cantidades. Para esto, todos
los equipos que conforman la cadena productiva deben estar
en permanente monitoreo.

Las posibilidades que ofrece Internet en cuanto a ofrecer un


respaldo a las redes de control de procesos no deben quedar
aparte. La red posee el potencial necesario para poder
controlar sistemas en forma centralizada, de modo que las
generadoras, transmisoras o distribuidoras pueden controlar
efectiva y eficientemente sus maquinarias en forma
centralizada. Sin embargo, la fragilidad y saturación del
medio así como también las restricciones de seguridad que
impone la operación de un sistema eléctrico de gran
magnitud son vallas que aún se deben superar.

Pero a pesar de estos factores que impiden la ejecución de


este tipo de proyectos, no es difícil de imaginar lo que se
lograría controlando un sistema en forma coordinada,
haciendo el despacho más económico además de comprar y
vender la energía todo de forma centralizada además de
bajar los costos por cuanto se utilizaría una red pública y no
costosas redes privadas para la operación. Probablemente
este enfoque llevaría al mercado forzosamente a un
esquema de un operador central, independiente o no, que
pasaría a ser el eje del sistema eléctrico.
Coordinación Inter empresas

La posibilidad de mantener conectadas a las empresas del


sector eléctrico brinda la posibilidad de disminuir el tamaño
de un organismo coordinador, sin eliminarlo obviamente. El
hecho de mantener una conexión, más allá de las bondades
del correo electrónico, otorga seguridad y confianza al
sistema de modo que ellas puedan obtener el más rápido y
confiable acceso a datos que pueden resultar críticos en la
operación del sistema, además de otorgarle trasparencia al
sector. Quizás el uso de la telefonía IP verá aquí su mayor
desarrollo más cercano, ya que aumentar el ancho de banda
del Internet existente es costoso, pero que las empresas
tengan Intranets o redes propias de alto tráfico es más viable.

¿Qué son los antivirus?


Los antivirus son programas que fueron creados en la década de los 80's con el
objetivo de detectar y eliminar virus informáticos. 

Con el paso del tiempo los sistemas operativos e internet han evolucionado, lo que


ha hecho que los antivirus se actualicen constantemente, convirtiéndose en programas 
avanzados que no sólo detectan los virus, sino que los bloquean, desinfectan archivos
y previenen infecciones de los mismos. Actualmente, los antivirus reconocen
diferentes tipos de virus como malware, spyware, gusanos, troyanos, rootkits, etc.

Clasificación de los antivirus

Antivirus preventorios:
Estos antivirus se caracterizan por avisar antes de que se presente la infección. Este
tipo, por lo general, permanece en la memoria del computador, monitoreando las
acciones y funciones del sistema.
Antivirus identificadores:
Este tipo de antivirus tiene objetivo identificar programas infecciosos que pueden
afectar el sistema. Además, rastrean secuencias de códigos específicos vinculados con
dichos virus.

Antivirus des contaminadores:


Tienen características similares a los identificadores. Sin embargo, se diferencian en
que estos antivirus se especializan en descontaminar un sistema que fue infectado, a
través de la eliminación de programas malignos. El objetivo principal de este tipo de
virus es que el sistema vuelva a estar como en un inicio.

En el mercado de los antivirus


1-Norton

2-Avast
3-Avg Software

La evolución de los antivirus

La información es parte de los activos de una empresa y debe


ser protegida. En esta entrega hablaremos de antivirus, su
evolución y sus principales características, y cual deberíamos
de elegir en nuestro negocio para sentirnos lo más seguros
posible.
virus informático

Técnicamente, un virus informático es un programa


informático auto propagado. Lo especial de los virus, en
comparación con otras formas de malware, es que pueden
propagarse en el PC sin el consentimiento del usuario*. El
virus informático se infiltra en otros programas informáticos,
se propaga e infecta otros sistemas. El virus informático
puede, por lo tanto, causar cambios en el sistema operativo o
daños en otros programas. En el transcurso de esto, el usuario
final suele sufrir pérdidas de datos en su propio PC o incluso
daños en el hardware. Estrictamente hablando, hay que
distinguir entre el virus y gusano informático: a diferencia de
los llamados gusanos informáticos, un virus informático suele
propagarse sólo localmente, mucho más lentamente y, por lo
tanto, causa menos daños en general.
Tipos de virus informáticos

En general, se pueden distinguir dos tipos diferentes de virus


informáticos según la vía de infección. Se trata, por un lado,
de virus de PC que infectan archivos y, por otro, de virus que
se copian a sí mismos durante el arranque. La ventaja de los
virus de arranque es que se activan directamente al inicio del
sistema.
Los virus de programa se dividen en virus de no-suscripción y
virus de suscripción. Los primeros se colocan al principio o al
final de un archivo ejecutable. Sin embargo, el tamaño del
archivo se modifica por el archivo adjunto del virus
informático. Los virus de sobreescritura no cambian el tamaño
del archivo porque este tipo de virus informático sobrescribe
el principio del archivo.
También hay virus de llamada, por ejemplo, que insertan un
tipo de enlace en el archivo a ser infectado. Esto lleva al virus
real, que está oculto en el PC.

La evolución de los virus

Los virus podríamos decir que existen desde que, en el año


1962, Vyssotsky, McIlroy y Morris, de la firma Bell
Telephone Laboratories de EE. UU., crearon un juego de
lucha de programas que se autorreplicaban, llamado Darwin,
con la meta de ver cuál de los tres lograba apoderarse antes de
la memoria de la máquina. Con anterioridad, Stahl desarrolló
bajo el lenguaje máquina del IBM-650 una primera
experiencia con programas que se autorreproducían siguiendo
los postulados propuestos por el matemático John von
Neumann, en 1951.

En el año 1981 comenzó a propagarse en los ordenadores


personales el virus Elkcloner, más tarde fue el Core War. A
partir de 1985 se impone el PC con sistema operativo DOS y,
en 1986, con la creación del virus Brain comienza una nueva
etapa en el desarrollo de los programas que llevan malas
intenciones implícitas. El primer virus para PC fue Ashar una
evolución de Brain.
En 1988, surge el primer virus en Internet. El gusano Morris
ataca 6.000 de los 60.000 hosts de la red.
Caballo de Troya.

Este deviene en la informática por alusión al caballo de la


mitología griega, dada la similitud con la cual el virus se
presenta a la persona, este es descargado por la misma
persona bajo la modalidad de programa o aplicación, pero una
vez ejecutada comienza a generar problemas en el
funcionamiento interno del dispositivo, algunas veces alteran
programas e ocasiones generan que aplicaciones realicen
actividades por si solas.
Se conoce también como troyano, y su infección puede
acarrear el daño generalizado del sistema.

Gusanos.
Se trata de un virus que llega por la apertura de una página o
bien de un programa, pero este solamente genera la copia de
los documentos o de los
programas en sí, un gusano,
resulta invasivo por generar la
duplicación de aquellos con la
finalidad de ralentizar el
dispositivo e impedir su
funcionamiento.

Virus de macro/código fuente.


Denominados así por tratarse de una amplia gama de virus
que llegan al ordenador (infectan exclusivamente una
computadora), y que se adhieren a los archivos de Word y
Excel, tienen por característica duplicar este archivo y generar
la emisión de correos electrónicos o de mensajes en
cualesquiera de las plataformas.
Virus de boot.

O también conocido como virus de arranque, es aquel que


solamente se activa al momento de que se inicia el
dispositivo, su forma de invasión solo proviene de un
dispositivo externo llámese disquete, cd, o pen drive.
Se caracteriza por no ejercer acción alguna hasta tanto no
haya invadido todo el sistema, momento para el cual ocasiona
el colapso interno y el dispositivo no enciende más.

Virus mutante.
Son aquellos que invaden el sistema solo por medio de la
descarga y posterior ejecución de un archivo resultando en
múltiples copias del mismo, pero con diferentes códigos de
origen.

De aquí su denominación de mutantes pues cambian y varían


de una forma u otra, siendo de dificultosa detección, su daño
determina la multiplicidad de archivos basura.
Hoax.

Son alertas subliminales de virus que se detectan en ciertas


páginas engañosas, en sí no son virus, pero dado que invaden
la funcionabilidad del programa son considerados como
potencialmente dañinos.
Bombas de tiempo.

Son aquellos que se activan en determinado momento.


1. Tipos de virus informáticos residentes en memoria
Estos virus se alojan en la memoria del ordenador y se activan
cuando el sistema operativo se ejecuta, infectando a todos los
archivos que se abren. Permanecen allí incluso después de que
se ejecute el código malicioso. Tienen control sobre la
memoria del sistema y asignan bloques de memoria a través
de los cuales ejecuta su propio código. Su objetivo es
corromper archivos y programas cuando son abiertos,
cerrados, copiados, renombrados, etc.

2. Virus de acción directa

El objetivo principal de estos tipos de virus informáticos es


replicarse y actuar cuando son ejecutados. Cuándo se cumple
una condición específica, el virus se pondrán en acción para
infectar a los ficheros en el directorio o carpeta que se
especifica en el archivo autoexec.bat Este archivo de
procesamiento por lotes está siempre en el directorio raíz del
disco duro y carga ciertas operaciones cuando el ordenador
arranca. El virus infecta uno tras otro todos los archivos que
encuentra y que previamente ha seleccionado como sus
víctimas. También es capaz de infectar dispositivos externos.
Cada vez que se ejecuta el código, estos tipos de virus
informáticos cambian su ubicación para infectar nuevos
archivos, pero generalmente se encuentra en el directorio raíz
del disco duro.

3. Virus de sobreescritura
Estos tipos de virus informáticos se caracterizan por el hecho
de que borran la información contenida en los ficheros que
infectan, haciéndolos parcial o totalmente inútiles. Una vez
infectados, el virus reemplaza el contenido del fichero sin
cambiar su tamaño. La única manera de limpiar un archivo
infectado por un virus de sobreescritura es borrar el archivo
completamente, perdiendo así el contenido original. Sin
embargo, es muy fácil de detectar este tipo de virus ya que el
programa original se vuelve inútil.

También podría gustarte