1.2.6. La Computadora Personal Ideal para Programación

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 4

1.2.6.

La computadora personal ideal para programación


Hoy día el estudiante de informática o de computación y mucho más el profesional, dispone de un
amplio
abanico de computadoras a precios asequibles y con prestaciones altas. En el segundo semestre de 2006
se pueden encontrar computadoras personales (PC) con 1.024 MB de memoria, grabadoras de DVD de
doblecapa, procesador Pentium de 3.00/3.20 GH2 y un monitor plano 17", disco duro de 200/400 GB
por 800 a 1.000 € e incluso más económicos. En computadoras pórtatíles se pueden encontrar modelos
de 1024 MB, 60-80 GB, procesadores Intel Pentium de 1,736 GHz, 1,83 GHz, pantalla de 15,4" y con
precios de 800 a 1200 €. La Tabla 1.2 resume nuestra propuesta y recomendación de características
medias
para un/una PC, a mediados de 2006.
Tabla 1.2. Características medias de una computadora portatil (laptop).
Procesador Intel Centrino 1.6 a 1,73/2.0 GHz; Intel CorneDuo (1.73/1.83 GHz; AMD Turion 64).
Memoria 512 MB a 1.0 GB/2 GB.
Disco duro 60-120 GB.
Internet Tarjeta de red; modem 56 Kbps; red inalámbrica 802,11 b/g; Bluetooth.
Vídeo Memoria de vídeo de 128 a 512 MB.
Pantalla 15", 15,4" o 17" (se comercializan también de 11", 12" y 13").
Almacenamiento Grabadora DVD +/– RW de doble capa.
Puertos 3/4 puertos USB 2.0, 1 IEEE, lector de tarjetas.
Marcas HP, Compaq, Dell, IBM, EI System, Gateways, Acer, Toshiba, Sony, Cofiman...
1.3. REPRESENTACIÓN DE LA INFORMACIÓN EN LAS COMPUTADORAS
Una computadora es un sistema para procesar información de modo automático. Un tema vital en el
proceso de funcionamiento de una computadora es estudiar la forma de representación de la información
en dicha computadora. Es necesario considerar cómo se puede codificar la información en patrones de
bits que sean fácilmente almacenables y procesables por los elementos internos de la computadora.
Las formas de información más significativas son: textos, sonidos, imágenes y valores numéricos y,
cada una de ellas presentan peculiaridades distintas. Otros temas importantes en el campo de la
programación
se refieren a los métodos de detección de errores que se puedan producir en la transmisión o
almacenamiento de la información y a las técnicas y mecanismos de comprensión de información al
objeto de que ésta ocupe el menor espacio en los dispositivos de almacenamiento y sea más rápida su
transmisión.
1.3.1. Representación de textos
La información en formato de texto se representa mediante un código en el que cada uno de los distintos
símbolos del texto (tales como letras del alfabeto o signos de puntuación) se asignan a un único patrón
de bits. El texto se representa como una cadena larga de bits en la cual los sucesivos patrones
representan
los sucesivos símbolos del texto original.
Introducción a la ciencia de la computación y a la programación 13
En resumen, se puede representar cualquier información escrita (texto) mediante caracteres. Los
caracteres que se utilizan en computación suelen agruparse en cinco categorías:
1. Caracteres alfabéticos (letras mayúsculas y minúsculas, en una primera versión del abecedario
inglés).
A, B, C, D, E, ... X, Y, Z, a, b, c, ... , X, Y, Z
2. Caracteres numéricos (dígitos del sistema de numeración).
0, 1, 2, 3, 4, 5, 6, 7, 8, 9 sistema decimal
3. Caracteres especiales (símbolos ortográficos y matemáticos no incluidos en los grupos anteriores).
{ } Ñ ñ ! ? & > # ç ...
4. Caracteres geométricos y gráficos (símbolos o módulos con los cuales se pueden representar
cuadros, figuras geométricas, iconos, etc.
| —| ||——
♠_ ...
5. Caracteres de control (representan órdenes de control como el carácter para pasar a la siguiente
línea [NL] o para ir al comienzo de una línea [RC, retorno de carro, «carriage return, CR»]
emitir un pitido en el terminal [BEL], etc.).
Al introducir un texto en una computadora, a través de un periférico, los caracteres se codifican según
un código de entrada/salida de modo que a cada carácter se le asocia una determinada combinación de
n bits.
Los códigos más utilizados en la actualidad son: EBCDIC, ASCII y Unicode.
• Código EBCDIC (Extended Binary Coded Decimal Inter Change Code).
Este código utiliza n = 8 bits de forma que se puede codificar hasta m = 28 = 256 símbolos diferentes.
Éste fue el primer código utilizado para computadoras, aceptado en principio por IBM.
• Código ASCII (American Standard Code for Information Interchange).
El código ASCII básico utiliza 7 bits y permite representar 128 caracteres (letras mayúsculas
y minúsculas del alfabeto inglés, símbolos de puntuación, dígitos 0 a 9 y ciertos controles de
información
tales como retorno de carro, salto de línea, tabulaciones, etc.). Este código es el más utilizado
en computadoras, aunque el ASCII ampliado con 8 bits permite llegar a 28 (256) caracteres
distintos, entre ellos ya símbolos y caracteres especiales de otros idiomas como el español.
• Código Unicode
Aunque ASCII ha sido y es dominante en los caracteres se leen como referencia, hoy día se
requiere de la necesidad de representación de la información en muchas otras lenguas, como el
portugués, español, chino, el japonés, el árabe, etc. Este código utiliza un patrón único de 16 bits
para representar cada símbolo, que permite 216 bits o sea hasta 65.536 patrones de bits (símbolos)
diferentes.
Desde el punto de vista de unidad de almacenamiento de caracteres, se utiliza el archivo (fichero).
Un archivo consta de una secuencia de símbolos de una determinada longitud codificados utilizando
ASCII o Unicode y que se denomina archivo de texto. Es importante diferenciar entre archivos de texto
simples que son manipulados por los programas de utilidad denominados editores de texto y los
archivos
de texto más elaborados que se producen por los procesadores de texto, tipo Microsoft Word.
Ambos constan de caracteres de texto, pero mientras el obtenido con el editor de texto, es un archivo de
texto puro que codifica carácter a carácter, el archivo de texto producido por un procesador de textos
contiene números, códigos que representan cambios de formato, de tipos de fuentes de letra y otros, e
incluso pueden utilizar códigos propietarios distintos de ASCII o Unicode.
14 Programación en C++. Algoritmos, estructuras de datos y objetos
1.3.2. Representación de valores númericos
El almacenamiento de información como caracteres codificados es ineficiente cuando la información se
registra como numérica pura. Veamos esta situación con la codificación del número 65; si se almacena
como caracteres ASCII utilizando un byte por símbolo, se necesita un total de 16 bits, de modo que el
número mayor que se podía almacenar en 16 bits (dos bytes) sería 99. Sin embargo, si utilizamos
notación
binaria para almacenar enteros, el rango puede ir de 0 a 65.535 (216 – 1) para números de 16 bits.
Por consiguiente, la notación binaria (o variantes de ellas) es la más utilizada para el almacenamiento de
datos numéricos codificados.
La solución que se adopta para la representación de datos numéricos es la siguiente: al introducir un
número en la computadora se codifica y se almacena como un texto o cadena de caracteres, pero dentro
del programa a cada dato se le envía un tipo de dato específico y es tarea del programador asociar cada
dato al tipo adecuado correspondiente a las tareas y operaciones que se vayan a realizar con dicho dato.
El método práctico realizado por la computadora es que una vez definidos los datos numéricos de un
programa, una rutina (función interna) de la biblioteca del compilador (traductor) del lenguaje de
programación
se encarga de transformar la cadena de caracteres que representa el número en su notación
binaria.
Existen dos formas de representar los datos numéricos: números enteros o números reales.
Representación de enteros
Los datos de tipo entero se representan en el interior de la computadora en notación binaria. La memoria
ocupada por los tipos enteros depende del sistema, pero normalmente son dos, bytes (en las versiones
de MS-DOS y versiones antiguas de Windows y cuatro bytes en los sistemas de 32 bits como Windows
o Linux). Por ejemplo, un entero almacenado en 2 bytes (16 bits):
1000 1110 0101 1011
Los enteros se pueden representar con signo (signed, en C++) o sin signo (unsigned, en C++);
es decir, números positivos o negativos. Normalmente, se utiliza un bit para el signo. Los enteros sin
signo al no tener signo pueden contener valores positivos más grandes. Normalmente, si un entero no se
especifica «con/sin signo» se suele asignar con signo por defecto u omisión.
El rango de posibles valores de enteros depende del tamaño en bytes ocupado por los números y si
se representan con signo o sin signo (la Tabla 1.3 resume características de tipos estándar en C++).
Representación de reales
Los números reales son aquellos que contienen una parte decimal como 2,6 y 3,14152. Los reales se
representan en notación científica o en coma flotante; por esta razón en los lenguajes de programación,
como C++, se conocen como números en coma flotante.
Existen dos formas de representar los números reales. La primera se utiliza con la notación del punto
decimal (ojo en el formato de representación español de números decimales, la parte decimal se
representa
por coma).
Ejemplos
12.35 99901.32 0.00025 9.0
La segunda forma para representar números en coma flotante en la notación científica o exponencial,
conocida también como notación E. Esta notación es muy útil para representar números muy grandes o
muy pequeños.
Introducción a la ciencia de la computación y a la programación 15
Opcional (signo +/–)
Se puede utilizar el E
Signo +/o u omitido
+6.45 E+15
Punto decimal opcional
Ningún espacio

{
Notación exponencial
Exponente
Mantisa
Base de numeración (10, 2...)
N = M · BE
Ejemplos
2.52 e + 8
8.34 E – 4 equivale a 8.34/104 = 0.000834
7E5
–18.35e15
5.95E25
9.11e – 31 equivale a 0.000000000000000000000000000000911
Representación de caracteres
Un documento de texto se escribe utilizando un conjunto de caracteres adecuado al tipo de documento.
En los lenguajes de programación se utilizan, principalmente, dos códigos de caracteres. El más común
es ASCII (American Standard Code for Information Interchange) y algunos lenguajes, tal como Java,
utilizan Unicode (www.unicode.org). Ambos códigos se basan en la asignación de un código numérico
a cada uno de los tipos de caracteres del código.
En C++, los caracteres se procesan normalmente usando el tipo char, que asocia cada carácter a un
código numérico que se almacena en un byte.
El código ASCII básico que utiliza 7 bits (128 caracteres distintos) y el ASCII ampliado a 8 bits (256
caracteres distintos) son los códigos más utilizados. Así se pueden representar caracteres tales como 'A',
'B', 'c', '$', '4', '5', etc.
En el caso de C++ se considera un dato de tipo carácter denominado wchar_t que sirve para representar
caracteres de tipo internacional para manejar lenguajes extranjeros.
La Tabla 1.3, recoge los tipos enteros, reales y carácter utilizados en C++, la memoria utilizada (número
de bytes ocupados por el dato) y el rango de números.
1.3.3. Representación de imágenes
Las imágenes se adquieren mediante periféricos especializados tales como escáneres, cámaras digitales
de vídeo, cámaras fotográficas, etc. Una imagen, al igual que otros tipos de información, se representan
por patrones de bits, generados por el periférico correspondiente. Existen dos métodos básicos para
representar
imágenes: mapas de bits y mapas de vectores.
16 Programación en C++. Algoritmos, estructuras de datos y objetos
En las técnicas de mapas de bits, una imagen se considera como una colección de puntos, cada uno
de los cuales se llama pixel (abreviatura de «picture element»). Una imagen en blanco y negro se
representa
como una cadena larga de bits que representan las filas de píxeles en la imagen, donde cada bit es
bien 1 o bien 0, dependiendo de que el pixel correspondiente sea blanco o negro. En el caso de imágenes
en color, cada pixel se representa por una combinación de bits que indican el color de los pixel. Cuando
se utilizan técnicas de mapas de bits, el patrón de bits resultante se llama mapa de bits, significando que
el patrón de bits resultante que representa la imagen es poco más que un mapa de la imagen.
Muchos de los periféricos de computadora —tales como cámaras de vídeo, escáneres, etc.— convierten
imágenes de color en formato de mapa de bits. Los formatos más utilizados en la representación
de imágenes se muestran en la Tabla 1.4.
Tabla 1.4. Mapas de bits.
Formato Origen y descripción
BMP Microsoft. Formato sencillo con imágenes de gran calidad pero con el inconveniente de ocupar
mucho (no útil para la web).
JPEG Grupo JPEG. Calidad aceptable para imágenes naturales. Incluye compresión. Se utiliza en
la web.
GIF CompuServe. Muy adecuado para imágenes no naturales (logotipos, banderas, dibujos anidados...).
Muy usuado en la web.
Mapas de vectores. Otros métodos de representar una imagen se fundamentan en descomponer la
imagen en una colección de objetos tales como líneas, polígonos y textos con sus respectivos atributos
o detalles (grosor, color, etc.).
Tabla 1.5. Mapas de vectores.
Formato Descripción
IGES ASME/ANSI. Estándar para intercambio de datos y modelos de (AutoCAD,...).
Pict Apple Computer. Imágenes vectoriales.
EPS Adobe Computer.
TrueType Apple y Microsoft para EPS.

También podría gustarte