Trabajo Practico de Tecnología
Trabajo Practico de Tecnología
Trabajo Practico de Tecnología
El concepto de Sistema Operativo surge en la década de los 50. El primer Sistema Operativo de la
historia fue creado en 1956 para un ordenador IBM 704, y básicamente lo único que hacía era
comenzar la ejecución de un programa cuando el anterior terminaba.
En los años 60 se produce una revolución en el campo de los Sistemas Operativos. Aparecen
conceptos como sistema multitarea, sistema multiusuario, sistema multiprocesadores y sistema en
tiempo real.
Es en esta década cuando aparece UNIX, la base de la gran mayoría de los Sistemas Operativos
que existen hoy en día.
Como consecuencia de este crecimiento exponencial de usuarios, la gran mayoría de ellos sin ningún
conocimiento sobre lenguajes de bajo o alto nivel, hizo que en los años 80, la prioridad a la hora de
diseñar un sistema operativo fuese la facilidad de uso, surgiendo así las primeras interfaces de
usuario.
completamente libre, similar a UNIX, al que le faltaba para funcionar un núcleo funcional. Hoy en día
la mayoría de la gente conoce por Linux al Sistema Operativo que realmente se llama GNU/Linux
ADMINISTRACIÓN DE TAREAS:
o MONOTAREA: los que permiten sólo ejecutar un programa a la vez
o MULTITAREA: los que permiten ejecutar varias tareas o
programas al mismo tiempo
ADMINISTRACIÓN DE USUARIOS
o MONOUSUARIO: aquellos que sólo permiten trabajar a un
usuario, como es el caso de los ordenadores personales
o MULTIUSUARIO: los que permiten que varios usuarios ejecuten
sus programas a la vez.
ORGANIZACIÓN INTERNA O ESTRUCTURA
o Monolítico
o Jerárquico
o Cliente-servidor
MANEJO DE RECURSOS O ACCESO A SERVICIOS
o CENTRALIZADOS: si permite utilizar los recursos de un solo
ordenador
o DISTRIBUIDOS: si permite utilizar los recursos (CPU, memoria,
periféricos...) de más de un ordenador al mismo tiempo
Microsoft Windows
Apple MacOS
GNU/LINUX
Bloc de Notas
WordPad
Microsoft Word
Hoja electrónica
Una hoja electrónica de trabajo es un programado que emula en forma
electrónica la hoja de trabajo. Reemplaza los tres instrumentos típicos de
trabajo de un analista financiero: la hoja de trabajo en papel, el lápiz y la
calculadora. La hoja de trabajo es reemplazada por un conjunto de celdas
dispuestas en filas y columnas (matriz) cuyo contenido se guarda en la
memoria principal de la computadora; el lápiz queda reemplazado por el
teclado y la unidad de aritmética y lógica reemplaza la calculadora.
La hoja electrónica
Desde hace varios años, Microsoft en su afán de brindar cada vez mejores
sistemas computarizados, ha ido perfeccionando sus programas y
Microsoft Excel no es la excepción, antes de la aparición de esta hoja
electrónica que en la actualidad sirve para muchas actividades, existían en
el mercado, programas de hojas electrónicas como Lotus 123 y Q-pro.
Hoja electrónica
Es una hoja de cálculo que permite la manipulación de datos arreglados en
filas y columnas. Las columnas están representadas por letras y las filas
por números. La intersección de la columna y la fila se conoce como la
celda. La dirección de la celda es la letra (o las letras) de la columna con el
número de la fila. Ejemplo: la dirección de la celda que queda en la
segunda fila y la cuarta columna es D2.
Una celda puede contener texto, un número o una fórmula que establece
una relación con otras celdas, o sea que, puede trabajar con datos
alfanuméricos, numéricos y lógicos. Cada vez que se cambia el contenido
de una celda, la hoja electrónica libera de lo tedioso de hacer calcular
nuevamente a mano, ahorrando una gran cantidad de tiempo.
1. Rótulos de columnas
Las columnas en las hojas de cálculo se determinan con letras empezando
por la A, sigue la B, C, D,..
2. Rótulos de filas
3. Celda
Las celdas son los cuadrados en los que se divide la hoja de cálculo, es la
intersección entre fila y columna.
1494
1846
1950
1961
1979
Fue la primera hoja de cálculo electrónica que se diseñó con este fin en
específico. Este programa se lanzó en una primera versión para Apple II,
se necesitaba una gran velocidad para actualizar los datos contables y
estos datos se organizaban en una matriz conformada por filas y
columnas.
1980
1982
1983
1985
El primer programa de Excel fue creado para Apple, este programa fue el
primero en utilizar una interfaz gráfica con menús desplegables y la
capacidad de dar un clic utilizando un mouse, otra de las características
que hizo que sea una de las hojas electrónicas más utilizadas es que
incluyo un libro de hojas, también revoluciono con la introducción de
números y letras, así como la elaboración de datos automáticos.
1988
2007
Esta hoja electrónica de cálculo está incluida en la suite iWork para las
computadoras Mac, entre sus características más importantes sobresalen
las tablas inteligentes, lienzo flexible, importación y exportación de
archivos de Excel, mejores gráficos e imágenes.
Excel.
Lotus 1.2.3
Sin embargo, como todos los productos de IBM, esta terminó perdiendo
clientes frente a la potencia de Microsoft, empresa que siempre lanzaba
productos con características similares pero reforzadas.
Calc.
Una de las opciones que se ha granjeado un gran éxito por ser gratuita, y
además por disponer las herramientas que traen incluidas las hojas de
cálculo de Excel y de Lotus; es Calc, la cual viene de la mano del software
de Linux.
Numbers.
Este es un programa de la firma de la manzana, es decir, de la potente
Apple, conocida por ser una versión mucho más veloz que el propio Excel,
la cual cuenta con cuadros de diálogos para cada una de las funciones que
vienen explicadas de forma detallada.
Aunado a ello, incorpora plantillas para las hojas de cálculos, de modo tal,
que facilita mucho más el trabajo del usuario. Esta incorpora otra ventaja
cual es la posibilidad de convertir en demás programas o bien aplicaciones
y permanecer con las características y el contenido intacto sin mayores
alteraciones.
Kspread.
Es una versión beta de Linux, la cual permite importar las hojas de cálculo
de demás programas, esta además muestra una interfaz mucho más
sencilla de usar.
Quattro pro.
Es una aplicación desarrollada por una empresa para Corel, ésta viene con
múltiples funciones, las cuales permiten la importación y conversión de
hojas de Excel a esta y viceversa, la característica que la coloca por
encima, es la posibilidad de hacer gráficos múltiples, dinámicos, y además
de crear mapas, a efectos de agregarles estadísticas.
De modo tal, que siendo un producto ofrecido por Corel, resulta bastante
completo hallando suficiente uso entre aquellos que laboran con
estadísticas cualitativas y cuantitativas.
Sus funciones resultan fáciles de llevar a cabo, con la debida lectura de los
cuadros de dialogo y además con las debidas practicas hasta lograr
dominar la misma.
El término bases de datos fue escuchado por primera vez en un simposio celebrado en California en
1963.
En una primera aproximación, se puede decir que una base de datos es un conjunto de información
relacionada que se encuentra agrupada o estructurada.
Desde el punto de vista informático, una base de datos es un sistema formado por un conjunto de
datos almacenados en discos que permiten el acceso directo a ellos y un conjunto de programas que
manipulen ese conjunto de datos.
Por su parte, un sistema de Gestión de Bases de datos es un tipo de software muy especifico
dedicado a servir de interfaz entre la base de datos, el usuario y las aplicaciones que la utilizan; o lo
que es lo mismo, una agrupación de programas que sirven para definir, construir y manipular una
base de datos, permitiendo así almacenar y posteriormente acceder a los datos de forma rápida y
estructurada.
Actualmente, las bases de datos están teniendo un impacto decisivo sobre el creciente uso de las
computadoras.
Pero para poder entender más profundamente una base de datos cabe entender su historia.
orígenes
Los orígenes de las bases de datos se remontan a la Antigüedad donde ya existían bibliotecas y toda
clase de registros. Además también se utilizaban para recoger información sobre las cosechas y
censos. Sin embargo, su búsqueda era lenta y poco eficaz y no se contaba con la ayuda de máquinas
que pudiesen reemplazar el trabajo manual.
Posteriormente, el uso de las bases de datos se desarrolló a partir de las necesidades de almacenar
grandes cantidades de información o datos. Sobre todo, desde la aparición de las primeras
computadoras, el concepto de bases de datos ha estado siempre ligado a la informática.
En 1884 Herman Hollerith creó la máquina automática de tarjetas perforadas, siendo nombrado así
el primer ingeniero estadístico de la historia. En esta época, los censos se realizaban de forma
manual.
Ante esta situación, Hollerith comenzó a trabajar en el diseño de una maquina tabuladora
o censadora, basada en tarjetas perforadas.
Posteriormente, en la década de los cincuenta se da origen a las cintas magnéticas, para automatizar
la información y hacer respaldos. Esto sirvió para suplir las necesidades de información de las nuevas
industrias. Y a través de este mecanismo se empezaron a automatizar información, con la desventaja
de que solo se podía hacer de forma secuencial.
Década de 1960
Posteriormente en la época de los sesenta, las computadoras bajaron los precios para que las
compañías privadas las pudiesen adquirir; dando paso a que se popularizara el uso de los discos,
cosa que fue un adelanto muy efectivo en la época, debido a que a partir de este soporte se podía
consultar la información directamente, sin tener que saber la ubicación exacta de los datos.
En esta misma época se dio inicio a las primeras generaciones de bases de datos de red y las bases
de datos jerárquicas, ya que era posible guardar estructuras de datos en listas y arboles.
Otro de los principales logros de los años sesenta fue la alianza de IBM y American Airlines para
desarrollar SABRE, un sistema operativo que manejaba las reservas de vuelos, transacciones e
informaciones sobre los pasajeros de la compañía American Airlines.
Y, posteriormente, en esta misma década, se llevo a cabo el desarrollo del IDS desarrollado por
Charles Bachman ( que formaba parte de la CODASYL) supuso la creación de un nuevo tipo de
sistema de bases de datos conocido como modelo en red que permitió la creación de un standard en
los sistemas de bases de datos gracias a la creación de nuevos lenguajes de sistemas de información.
Década de 1970
Por lo que respecta a la década de los setenta, Edgar Frank Codd, científico informático ingles
conocido por sus aportaciones a la teoría de bases de datos relacionales, definió el modelo relacional
a la par que publicó una serie de reglas para los sistemas de datos relacionales a través de su artículo
“Un modelo relacional de datos para grandes bancos de datos compartidos”.
Este hecho dio paso al nacimiento de la segunda generación de los Sistemas Gestores de Bases de
Datos.
Como consecuencia de esto, durante la década de 1970, Lawrence J. Ellison, más conocido como
Larry Ellison, a partir del trabajo de Edgar F. Codd sobre los sistemas de bases de datos relacionales,
desarrolló el Relacional Software Sistema, o lo que es lo mismo, lo que actualmente se conoce como
Oracle Corporación, desarrollando así un sistema de gestión de bases de datos relacional con el
mismo nombre que dicha compañía.
Posteriormente en la época de los ochenta también se desarrollará el SQL
(Estructurad Queryx Lenguaje) o lo que es lo mismo un lenguaje de consultas o lenguaje declarativo
de acceso a bases de datos relacionales que permite efectuar consultas con el fin de recuperar
información de interés de una base de datos y hacer cambios sobre la base de datos de forma
sencilla; además de analiza grandes cantidades de información y permitir especificar diversos tipos
de operaciones frente a la misma información, a diferencia de las bases de datos de los años
ochenta que se diseñaron para aplicaciones de procesamiento de transacciones.
Pero cabe destacar que ORACLE es considerado como uno de los sistemas de bases de datos más
completos que existen en el mundo, y aunque su dominio en el mercado de servidores
empresariales ha sido casi total hasta hace relativamente poco, actualmente sufre la competencia
del SQL Server de la compañía Microsoft y de la oferta de otros Sistemas Administradores de Bases
de Datos Relacionales con licencia libre como es el caso de PostgreSQL, MySQL o Firebird que
aparecerían posteriormente en la década de 1990.
Década de 1980
Por su parte, a principios de los años ochenta comenzó el auge de la comercialización de los sistemas
relacionales, y SQL comenzó a ser el estándar de la industria, ya que las bases de datos relacionales
con su sistema de tablas (compuesta por filas y columnas) pudieron competir con las bases
jerárquicas y de red, como consecuencia de que su nivel de programación era sencillo y su nivel de
programación era relativamente bajo.
En la década de 1990 la investigación en bases de datos giró en torno a las bases de datos orientadas
a objetos. Las cuales han tenido bastante éxito a la hora de gestionar datos complejos en los campos
donde las bases de datos relacionales no han podido desarrollarse de forma eficiente. Así se
desarrollaron herramientas como Excel y Access del paquete de Microsoft Office que marcan el
inicio de las bases de datos orientadas a objetos.
Fue también en esta época cuando se empezó a modificar la primera publicación hecha por ANSI del
lenguaje SQL y se empezó a agregar nuevas expresiones regulares, consultas recursivas, trigos y
algunas características orientadas a objetos, que posteriormente en el siglo XXI volverá a sufrir
modificaciones introduciendo características de XML, cambios en sus funciones, estandarización del
objeto séquense y de las columnas autonuméricas. Y además, se creará la posibilidad de que SQL se
pueda utilizar conjuntamente con XML, y se definirá las maneras de cómo importar y guardar datos
XML en una base de datos SQL. Dando asi, la posibilidad de proporcionar facilidades que permiten a
las aplicaciones integrar el uso de JQuery (lenguaje de consulta XML) para acceso concurrente a
datos ordinarios SQL y documentos XML. Y posteriormente, se dará la posibilidad de usar la
cláusula orden by.
Aunque el boom de la década de los noventa será es el nacimiento del Word Wide Web a finales de
la década, ya que a través de este se facilitará la consulta a bases de datos.
SIGLO XXI
En la actualidad, las tres grandes compañías que dominan el mercado de las bases de datos son IBM,
Microsoft y Oracle. Por su parte, en el campo de internet, la compañía que genera gran cantidad de
información es Google. Aunque existe una gran variedad de software que permiten crear y manejar
bases de datos con gran facilidad, como por ejemplo LINQ, que es un proyecto de Microsoft que
agrega consultas nativas semejantes a las de SQL a los lenguajes de la plataforma .NET. El objetivo de
este proyecto es permitir que todo el código hecho en Visual Studio sea también orientado a
objetos; ya que antes de LINQ la manipulación de datos externos tenía un concepto más
estructurado que orientado a objetos; y es por eso que trata de facilitar y estandarizar el acceso a
dichos objetos.
Cabe destacar que Visual Studio es un entorno de desarrollo integrado para sistemas operativos
Windows que soporta varios lenguajes de programación tales como Visual C++, Visual#, Visual J#,
ASP.NET y Visual Basic.NET, aunque se están desarrollando las extensiones necesarias para otros,
cuyo objetivo es permitir crear aplicaciones, sitios y aplicaciones web, así como servicios web a
cualquier entorno que soporte la plataforma .Net, creando así aplicaciones que intercomuniquen
entre estaciones de trabajo, páginas web y dispositivos móviles.
Década de 1950
En este lapso de tiempo se da origen a las cintas magnéticas, las cuales sirvieron para suplir las
necesidades de información de las nuevas industrias. Por medio de este mecanismo se empezó a
automatizar la información de las nóminas, como por ejemplo el aumento de salario. Consistía en leer
una cinta o más y pasar los datos a otra, y también se podían pasar desde las tarjetas perforadas.
Simulando un sistema de Backup, que consiste en hacer una copia de seguridad o copia de respaldo,
para guardar en un medio extraíble la información importante. La nueva cinta a la que se transfiere la
información pasa a ser una cinta maestra. Estas cintas solo se podían leer secuencial y
ordenadamente.
Década de 1960
El uso de los discos en ese momento fue un adelanto muy efectivo, ya que por medio de este soporte
se podía consultar la información directamente, esto ayudo a ahorrar tiempo. No era necesario saber
exactamente donde estaban los datos en los discos, ya que en milisegundos era recuperable la
información. A diferencia de las cintas magnéticas, ya no era necesaria la secuencialidad, y este tipo
de soporte empieza a ser ambiguo.
Los discos dieron inicio a las Bases de Datos, de red y jerárquicas, pues los programadores con su
habilidad de manipulación de estructuras junto con las ventajas de los discos era posible guardar
estructuras de datos como listas y árboles.
Década de 1970
Edgar Frank Codd (23 de agosto de 1923 – 18 de abril de 2003), en un artículo "Un modelo relacional
de datos para grandes bancos de datos compartidos" ("A Relational Model of Data for Large Shared
Data Banks") en 1970, definió el modelo relacional y publicó una serie de reglas para la evaluación
de administradores de sistemas de datos relacionales y así nacieron las bases de datos relacionales.
A partir de los aportes de Codd el multimillonario Larry Ellison desarrollo la base de datos Oracle, el
cual es un sistema de administración de base de datos, que se destaca por sus transacciones,
estabilidad, escalabilidad y multiplataforma.
Inicialmente no se uso el modelo relacional debido a que tenía inconvenientes por el rendimiento, ya
que no podían ser competitivas con las bases de datos jerárquicas y de red. Ésta tendencia cambio
por un proyecto de IBM el cual desarrolló técnicas para la construcción de un sistema de bases de
datos relacionales eficientes, llamado System R.
Década de 1980
Las bases de datos relacionales con su sistema de tablas, filas y columnas, pudieron competir con
las bases de datos jerárquicas y de red, ya que su nivel de programación era bajo y su uso muy
sencillo.
En esta década el modelo relacional ha conseguido posicionarse del mercado de las bases de datos.
Y también en este tiempo se iniciaron grandes investigaciones paralelas y distribuidas, como las
bases de datos orientadas a objetos.
Para la toma de decisiones se crea el lenguaje SQL, que es un lenguaje programado para consultas.
El programa de alto nivel SQL es un lenguaje de consulta estructurado que analiza grandes
cantidades de información el cual permite especificar diversos tipos de operaciones frente a la misma
información, a diferencia de las bases de datos de los 80 que eran diseñadas para las aplicaciones
de procesamiento de transacciones. Los grandes distribuidores de bases de datos incursionaron con
la venta de bases de datos orientada a objetos.
El boom de esta década fue la aparición de la WWW “Word Wide Web‿ ya que por éste medio se
facilitaba la consulta de las bases de datos. Actualmente tienen una amplia capacidad de
almacenamiento de información, también una de las ventajas es el servicio de siete días a la semana
las veinticuatro horas del día, sin interrupciones a menos que haya planificaciones de mantenimiento
de las plataformas o el software.
Siglo XXI
En la actualidad existe gran cantidad de alternativas en línea que permiten hacer búsquedas
orientadas a necesidades especificas de los usuarios, una de las tendencias más amplias son las
bases de datos que cumplan con el protocolo Open Archives Initiative – Protocol for Metadata
Harvesting (OAI-PMH) los cuales permiten el almacenamiento de gran cantidad de artículos que
permiten una mayor visibilidad y acceso en el ámbito científico y general.
Teradata
Destaca sobre los demás tipos de bases de datos por su capacidad de
almacenamiento y de análisis de datos. Suele ser utilizado en grandes
instalaciones de Big Data.
lenguaje de programación
Entre los años de 1842 y 1843, Ada Lovelace, logró la traducción del trabajo
del trabajo de Mena brea sobre una máquina que propuso Charles Babbage,
“La Máquina Analítica”. Ada Lovelace, agregó unas observaciones sobre la
metodología para hacer los cálculos de los números de Bernoulli con dicha
máquina.
Otro momento importante, fue para finales de los años 50, cuando se
publicó por un Comité Americano y Europeo de expertos en Computación
(Algol), acerca de un actualizado “Lenguaje para Algoritmos”. Este informe
agrupó muchas ideas y observaciones del momento y suministró dos
innovaciones relevantes para la historia de los lenguajes de programación:
1843
Primera generación
1940
Segunda generación
1950
Fortran
1957
(“The IBM Mathematical Formula Translating System”): Un lenguaje de
programación de alto nivel de propósito general. Para cálculo numérico y
científico (como alternativa al lenguaje ensamblador). Es el lenguaje de
programación más antiguo que se utiliza hoy en día.
Lips
1958
Cobol
1959
Tercera generación
1959
Estos lenguajes son los mas utilizado por los programadores. Están
diseñados para que las personas escriban y entiendan los programas de
un modo mucho mas fácil que los lenguajes máquina y ensamblador. Un
programa escrito en lenguaje de alto nivel es independiente de la máquina
(las instrucciones no dependen del diseño del hardware o de una
computadora en particular), por lo que estos programas son portables o
transportables. Los programas escritos en lenguaje de alto nivel pueden
ser ejecutados con poca o ninguna modificación en diferentes tipos de
computadoras. Son lenguajes de programación en los que las
instrucciones enviadas para que el ordenador ejecute ciertas órdenes son
similares al lenguaje humano. Dado que el ordenador no es capaz de
reconocer estas ordenes, es necesario el uso de un intérprete que
traduzca el lenguaje de alto nivel a un lenguaje de bajo nivel que el
sistema pueda entender.
Basic
1964
Cuarta generación
1967
Pascal
1970
Quinta generacion
1970
1972
Ada
1980
C++
1983
1983
Perl
1987
Phyton
1991
Ruby
1993
Java
1995
JavaScript
1995
JavaScript es un lenguaje de programación interpretado dialecto del
estándar ECMAScript. Se define como orientado a objetos2 , basado en
prototipos, imperativo, débilmente tipado y dinámico. Diseñado por:
Netscape Comunicaciones Corp., Mozilla Fundation
PHP
1995
Una diapositiva
es una fotografía que se crea en una materia transparente. Se trata de
una impresión positiva, que presenta colores reales, desarrollada
mediante un procedimiento fotoquímico.
Las diapositivas tradicionales se obtenían a partir del recorte de los
cuadros de una filmina. Dichos recortes luego se enmarcaban en cartón o
plástico para facilitar su almacenamiento y su proyección. Además de
destacarse por su nitidez, estas impresiones realizadas en soportes
transparentes eran valoradas por su resistencia al paso del tiempo: una
diapositiva no suele perder sus colores, a diferencia de lo que ocurre con
las fotos impresas en color.
Una filmina es un antiguo formato de imagen fija, que solían usar los
docentes en los colegios primarios y secundarios hasta que se impuso la
videocasete en la década de los ochenta, ya que era menos costoso y
ofrecía más prestaciones. Algo similar ocurrió cuando llegó al mercado
el DVD y, seguidamente, el Blu-ray.
Entre los años cuarenta y ochenta, con la filmina era fácil y poco costoso a
nivel económico emitir películas con fines educativos grabadas en 16
milímetros, ya que no requería mucho espacio de almacenamiento y
ofrecían una gran velocidad de rebobinado, una acción obligatoria para
volver a usarlas. Como si estas características no fueran suficientemente
atractivas, eran muy resistentes a los golpes y por lo tanto no era
necesario un trabajo constante de mantenimiento. De hecho, incluso en la
actualidad hay quienes continúan usándolas.
Las primeras máquinas para proyectar diapositivas constaban de
un mecanismo que permitía extraer la transparencia de un sector lateral
para que se pudiera introducir la siguiente diapositiva. Luego surgieron los
proyectores que emplean discos capaces de reproducir numerosas
diapositivas de manera automática.
Con respecto a su historia, debemos remontarnos a los inicios del siglo
XX, cuando apareció la técnica denominada Autocromo, que permitía
obtener diapositivas a color a través de la reproducción de
una síntesis aditiva. Dos de sus desventajas con respecto a las
características actuales de la diapositiva eran su escasa definición y su
limitada resolución cromática.
Más tarde llegó al mercado la técnica conocida como Kodachrome, que sí
ofrecía colores vibrantes gracias al uso de una síntesis sustractiva y la
aplicación de tres emulsiones, de manera que se cubría casi todo el
espectro cromático. En el año 1935, fue la técnica que se usó para cintas
de 8 y 16 milímetros y para diapositivas de 35 milímetros.
A comienzos de la década de los cuarenta, había alcanzado mucha
popularidad, pero ciertos defectos de color y su poca durabilidad volvieron
necesario el nacimiento de nuevas técnicas.
En los últimos años del siglo XX, las transparencias en color fueron
extensamente utilizadas en la fotografía publicitaria, documental, deportiva,
de stock y de naturaleza. Los medios digitales han reemplazado
gradualmente las transparencias en muchas de estas aplicaciones y su
uso es, en la actualidad, infrecuente.
Evolución de las diapositivas
Cuesta imaginar un mundo sin PowerPoint. Para empezar, cuesta imaginar que
Microsoft decida un día eliminar su programa de presentaciones del paquete
Office.
Algo que también cuesta imaginar es la época anterior al PowerPoint, cuando no
había un ordenador conectado a un proyector para mostrar diapositivas
digitales con vídeos, fotografías o gráficos 3D.
Antes de PowerPoint, si querías hacer una presentación necesitabas un proyector
de diapositivas, que normalmente venían en forma de pequeñas fotografías
cubiertas por un marco de plástico para facilitar el cambiar de diapositiva en una
máquina que no siempre te hacía caso.
Otra opción era contar con un proyector de transparencias, que podían ser de
tamaño DIN-A4 y que en su momento álgido llegaron a ser en color. Y si no te
gustaban estas “moderneces”, podías limitarte a mostrar carteles de cartón o
garabatear en una pizarra.
Pero PowerPoint lo cambió todo en los años 90. Se acabó ir a una copistería o
centro de reprografía a preparar tus diapositivas o transparencias. Ahora, desde
casa mismo, podías crear un archivo que mostraba a todo el mundo texto e imagen
en páginas digitales. Sólo tenías que conectar un ordenador a un proyector y
maravillar a tu audiencia.
Estamos habituados al uso de PowerPoint, y a sus muchas alternativas. Pero,
¿cómo empezó todo? ¿Quién creó este programa, imprescindible para cualquier
reunión o charla?
En este caso, fue Microsoft quien se interesó por PowerPoint. El motivo es que en
aquel entonces estaba desarrollando su propio programa de ordenador para
realizar presentaciones.
La acogida de PowerPoint tras su lanzamiento fue tan buena, tanto en la prensa
como en el público, que Microsoft no tardó mucho en comprar Forethought, el
startup propietario de PowerPoint por 14 millones de dólares de entonces.
Curiosamente, durante el proceso de desarrollo de PowerPoint, a Bill Gates no le
atrajo demasiado, a pesar de la recomendación de Jeff Raikes, quien se estaba
encargando de desarrollar el programa de presentaciones de Microsoft.
Pero tras la adquisición, Microsoft creó un departamento dedicado, Graphics
Business Unit, dentro de la división de software.
PowerPoint 2.0 no tardó en ver la luz, a mitad de 1988. Ya era propiedad de
Microsoft pero seguía siendo una exclusiva para Macintosh. No fue hasta 1990 que
apareció el primer Microsoft PowerPoint para Windows, en concreto para el ya
mítico Windows 3.0. Esta segunda versión ya contaba con soporte para color.
Y en 1992 se lanzó PowerPoint 3.0, que permitía emitir vídeo en proyectores y
monitores, más parecido a lo que conocemos ahora.
PowerPoint como parte de Office
El éxito de PowerPoint desde el principio y su propósito para el ámbito
empresarial y profesional hizo que desde su primera versión de Microsoft,
PowerPoint 2.0, ya formase parte de Microsoft Office, primero en Mac y en
adelante también para Windows.
Con todo, también estaba disponible para su adquisición por separado, si bien a
partir de PowerPoint 4.0 fue de venta exclusiva dentro del paquete ofimático de
Microsoft, que en aquel entonces contaba con Word 6.0, Excel 5.0 y Access 2.0.
La integración en Office ha sido así hasta nuestros días. Si bien al principio se
limitó a su venta, más adelante la integración incluyó el uso compartido de
plantillas y recursos gráficos, etc.
Las siguientes versiones son más conocidas. PowerPoint 12.0 o 2007, por ejemplo,
recibió un gran cambio con la interfaz Ribbon, que añadía botones gigantes y una
nueva barra de elementos en la parte superior de la ventana principal para
así activar ciertas acciones más rápido. Además, introducía los nuevos formatos
Office XML (PPTX en el caso de PowerPoint).
Presente y futuro
Microsoft PowerPoint sigue actualizándose cada pocos años, tanto en su versión
para Windows como en la de macOS. Y desde hace tiempo podemos usarlo desde
el navegador en su versión web de Office 365.
A PowerPoint le ha surgido competencia, como Apple Keynote o Presentaciones
de Google, eso sin contar con la interminable lista de alternativas online, pero
sigue siendo la herramienta de presentaciones más popular y PowerPoint
es sinónimo de presentación.
Es innegable que las presentaciones y charlas actuales le deben mucho a este
programa, para bien o para mal, y que muchas prácticas son heredadas del estilo de
PowerPoint.
Clasificación de las diapositivas según su contenido
Diapositivas de texto
Diapositivas de tabla
Diapositivas en blanco
Diapositiva de diagrama
Diapositiva multimedia
Son las diapositivas que se crean por medio de una transparencia, donde
se imprime en ella una imagen positiva, que por lo generar son fotografías
copiadas o reproducidas a una diapositiva con el objetivo de presentarla en
un proyector a un tamaño que supera en mucho el original.
Diapositivas de texto
Diapositivas en blanco
Valor excepcional
1 persona
1 TB de almacenamiento
Qué es Internet:
Origen de internet
Existen dos versiones sobre el inicio de internet. La más popular señala su creación
como una respuesta del Departamento de Defensa estadounidense, quienes en los
años 60 buscaban la forma en la que todos los ordenadores que se utilizaban
dentro de la organización funcionaran en red, aún y cuando una de las
computadoras sufriera una falla debido a un ataque enemigo.
Sin embargo, otra versión menos extendida señala que en esa misma época, en la
Oficina para Tecnologías de Procesado de la Información (IPTO), un hombre
llamado Robert Taylor ( quien se estrenaba como director de la oficina) tuvo la idea
de generar un sistema que permitiera que los investigadores pudiesen compartir
recursos a través de la utilización de enlaces.
Si esta idea funcionaba, les permitiría hacer más eficiente su trabajo y evitar la
compra innecesaria de más computadoras, considerando que para esa época eran
sumamente costosas y complicadas de trasladar e instalar.
Web 3.0. Las innovaciones que se están produciendo en estos momentos se basan
en Sociedades Virtuales, realidad virtual, web semántica, búsqueda inteligente.
Comercio electrónico
Acceso a la información
Antivirus preventorios:
Estos antivirus se caracterizan por avisar antes de que se presente la infección. Este
tipo, por lo general, permanece en la memoria del computador, monitoreando las
acciones y funciones del sistema.
Antivirus identificadores:
Este tipo de antivirus tiene objetivo identificar programas infecciosos que pueden
afectar el sistema. Además, rastrean secuencias de códigos específicos vinculados con
dichos virus.
2-Avast
3-Avg Software
Gusanos.
Se trata de un virus que llega por la apertura de una página o
bien de un programa, pero este solamente genera la copia de
los documentos o de los
programas en sí, un gusano,
resulta invasivo por generar la
duplicación de aquellos con la
finalidad de ralentizar el
dispositivo e impedir su
funcionamiento.
Virus mutante.
Son aquellos que invaden el sistema solo por medio de la
descarga y posterior ejecución de un archivo resultando en
múltiples copias del mismo, pero con diferentes códigos de
origen.
3. Virus de sobreescritura
Estos tipos de virus informáticos se caracterizan por el hecho
de que borran la información contenida en los ficheros que
infectan, haciéndolos parcial o totalmente inútiles. Una vez
infectados, el virus reemplaza el contenido del fichero sin
cambiar su tamaño. La única manera de limpiar un archivo
infectado por un virus de sobreescritura es borrar el archivo
completamente, perdiendo así el contenido original. Sin
embargo, es muy fácil de detectar este tipo de virus ya que el
programa original se vuelve inútil.