Investigacion Michel Adrian

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 10

Dimensiones

Es una de las características visuales más importantes del vídeo. Consiste en el


tamaño del vídeo, que engloba la anchura y la la altura, expresado en píxeles
cuando se visualiza al 100%, es decir, sin agrandar ni reducir. Si un vídeo es de
320 píxeles de ancho y 240 píxeles de altura, se dice que tiene dimensiones de
320 x 240 píxeles.

Las dimensiones seleccionadas para un vídeo a menudo dependen de la forma en


que se distribuye. Así, los vídeos que están destinados a desempeñar un papel a
través de Internet suelen tener menor dimensión como 320 x 240 píxeles. Por el
contrario, los vídeos que están destinados a desarrollarse en el escritorio, tienen
una mayor dimensión de 640 x 480 píxeles.   En el caso de la televisión de Alta
Definición (HDTV), los vídeos tienen un número aún mayor de dimensiones,
siendo tan altas como 1920×1080 píxeles.

Los reproductores pueden mostrar un vídeo a pantalla completa o con una


ampliación. En estos casos el vídeo pierde calidad de imagen y esta pérdida
depende del formato de archivo.

Códec
Es el acrónimo de «codificación/decodificación». En general, los diferentes códecs
existentes en la actualidad se utilizan para comprimir archivos de vídeo, audio e
imágenes, con el objetivo  de que de esta manera resulte más fácil manejarlos. Un
códec, por lo tanto, comprime o descomprime archivos multimedia. El reproductor
de Windows Media y otras aplicaciones utilizan códecs para reproducir y crear
archivos multimedia.

Puede componerse de dos partes: un codificador que comprime el archivo


multimedia (codificación) y un descodificador que descomprime el archivo
(descodificación). Algunos códecs incluyen ambas partes, y otros códecs sólo
incluyen una de ellas.
Al utilizar códecs para comprimir un archivo multimedia, en general se obtendrá un
resultado con cierta pérdida de calidad, ya que para lograr reducir el tamaño de la
fuente original, se producirá una pérdida de información durante el proceso.

Pero también existen algunos tipos de códecs que no reportan pérdidas, tales
como FLAC y MSU, que permiten la reproducción de un archivo de audio o vídeo
sin pérdidas cuando el archivo es codificado nuevamente.

Velocidad de transmisión (bitraje-bitrate)


Se conoce por bitrate a la velocidad de transmisión o flujo de datos y consiste en
la cantidad de bits de información que se produce en un segundo de un vídeo. El
bitrate es uno de los aspectos clave que determinará la calidad del vídeo.  El vídeo
tendrá más calidad cuanto mayor sea su bitrate y el archivo que lo contiene a su
vez tendrá mayor peso. Esto se debe a que cuando el flujo de datos es pobre, el
sistema del ordenador debe agrupar una gran cantidad de píxeles que contienen
la misma información, generando una redundancia que afecta directamente a la
calidad del vídeo.

Puede ser fijo o variable: un bitrate establece numéricamente la tasa de bits por


segundo que utilizará en el proceso de codificación, y ésta en el caso de un bitrate
fijo se mantendrá de forma constante durante toda la duración del audio o vídeo,
mientras que un bitrate variable, por el contrario, dependiendo de las
características de cada cuadro de imagen, cambiará disminuyendo y aumentando
de acuerdo a las necesidades de información que se presenten durante el audio o
vídeo.  El bitrate variable suele tener una mayor calidad de imagen porque recoge
más calidad en escenas muy cargadas o con mucho movimiento y ahorra en
aquellas más estáticas.

Fotogramas por segundo


Es el número de fotogramas que componen un segundo del vídeo. Con la cámara
pueden seleccionarse los f/s que desean capturarse por segundo. Normalmente
los vídeos se graban a 50-60 f/s, aunque actualmente existen cámaras que graban
muchos más, y que permiten realizar cámaras lentas de mucha calidad, ya que no
es necesario estirar o congelar el fotograma. Normalmente se emplean 15 f/s para
dibujos animados y 24 f/s para largometrajes.

Sistemas de televisión
Actualmente existen tres estándares televisivos a nivel mundial, el NTFS, PAL y
SECAM. La diferencia entre ellos estriba en la velocidad en la que se emiten los
fotogramas y su resolución, que es ligeramente mayor en el formato PAL. Cada
país tiene uno de los tres sistemas de transmisión televisiva. Todos los aparatos
utilizados, cámaras de filmación de vídeo, televisiones, etc., se encuentran
acordes con el sistema de transmisión estándar propio de cada país. En el caso
de PC u ordenadores, se encuentran preparados para visualizar varios sistemas.

NTSC (National Televisión Systems Committee) es el que se utiliza los países


de Japón y Estados Unidos. La forma de transmisión en NTSC, es de 525 líneas
en la pantalla a una velocidad de unos 30 fotogramas por segundo.

PAL (Phase Alernating Line) es el estándar utilizado en Europa, Australia, China


y Suramérica, con lo cual España utiliza este sistema de transmisión. El sistema
PAL emite 625 líneas a través de una serie de ráfagas producidas por electrones
sobre la pantalla del televisor a una velocidad o frecuencia de 25 fotogramas.

Sistema SECAM (Séquentiel Couleur avec Mémoire) es el que se utiliza en los


países de Francia y Japón. La transmisión televisiva en SECAM, se forma
escaneando la pantalla del televisor a 625 líneas y a una frecuencia de 25 frames
por segundo.

Este sistema es compatible con el sistema PAL, ya que utilizan los mismos
formatos de escaneo y velocidades en los frames, la diferencia es la forma de
cómo se codifica el color. Con esto queremos decir que podemos reproducir
filmaciones en aparatos de sistema SECAM o a la inversa.

Proporción o ratio de aspecto


Se trata de la proporción entre anchura y altura (dimensiones) en un vídeo.

Los televisores y monitores tradicionales tenían 4:3 (1,33:1): cuando se convierte


un vídeo original para ser visto en 4:3 hay que recurrir a recortar parte de los lados
y al “Letterbox” (rellenar con bandas negras) para no distorsionar la imagen.

Las nuevas pantallas panorámicas tienen 16:9 (1,78:1).

Las pantallas de cine (CinemaScope) (2,35:1).


Resolución de vídeo
Es el tamaño del cuadro (area), y generalmente se mide por cantidad píxeles.

Existe la resolución SD (720×480) que se corresponde con la resolución de la


televisión tradicional. Le sigue la resolución HD 720 (1280×720). A esa le sigue la
resolución HD1080 (1920×1080), también conocida como Full HD. Seguidamente,
continua la 2K (2048×1080) y después 4K (4096X2160).

Este valor repercute directamente en la calidad del video a la hora de visualizarlo.


El número de píxeles que contiene la imagen de cada “fotograma” determina el
tamaño máximo al que se puede ver la imagen sin que se produzca “pixelado».

Streaming
En la navegación por Internet es necesario descargar previamente el archivo
(página HTML, imagen JPG, audio MP3, etc.) desde el servidor remoto al cliente
local para luego visualizarlo en la pantalla de este último.

La tecnología de streaming se utiliza para optimizar la descarga y reproducción de


archivos de audio y video que suelen tener un cierto peso.

El streaming funciona de la siguiente forma:

 Conexión con el servidor. El reproductor cliente conecta con el servidor


remoto y éste comienza a enviarle el archivo.

 Buffer. El cliente comienza a recibir el fichero y construye un buffer o


almacén donde empieza a guardarlo.

 Inicio de la reproducción. Cuando el buffer se ha llenado con una


pequeña fracción inicial del archivo original, el reproductor cliente comienza
a mostrarlo mientras continúa en segundo plano con el resto de la
descarga.
 Caídas de la velocidad de conexión. Si la conexión experimenta ligeros
descensos de velocidad durante la reproducción, el cliente podría seguir
mostrando el contenido consumiendo la información almacenada en el
buffer. Si llega a consumir todo el buffer se detendría hasta que se volviera
a llenar.

El streaming puede ser de dos tipos dependiendo de la tecnología instalada en el


servidor:

 Descarga progresiva. Se produce en servidores web que disponen de


Internet Information Server (IIS), Apache, Tomcat, etc. El archivo de vídeo o
audio solicitado por el cliente es liberado por el servidor como cualquier otro
archivo utilizando el protocolo HTTP. Sin embargo, si el archivo ha sido
especialmente empaquetado para streaming, al ser leído por el reproductor
cliente, se iniciará en streaming en cuanto se llene el buffer.

 Transmisión por secuencias. Se produce en servidores multimedia que


disponen de un software especial para gestionar más óptimamente el
streaming de audio y vídeo: Windows Media Server, Flash Communication
Server, etc. La utilización de un servidor multimedia ofrece múltiples
ventajas frente al servidor web. Las más destacadas son:

1. Mayor rapidez en la visualización de este tipo de contenidos.


2. La comunicación entre servidor/cliente se puede realizar por protocolos
alternativos al HTTP. Tiene el inconveniente del bloqueo impuesto por
Firewalls pero tiene la ventaja de una mayor rapidez.
3. Mejor gestión del procesador y ancho de banda de la máquina del servidor
ante peticiones simultáneas de varios clientes del mismo archivo de audio o
vídeo.
4. Control predefinido sobre la descarga que pueden realizar los clientes:
autentificada, filtrada por IP, sin almacenarla en la caché del cliente, etc.
5. Mayor garantía de una reproducción ininterrumpida gracias al
establecimiento de una conexión de control inteligente entre servidor y
cliente.
6. Posibilidad de distribución de transmisiones de audio y vídeo en directo.

Producción Digital
Los contenidos digitales son cualquier pieza de información que podemos incluir
en un medio digital. Pueden estar formados por textos, imágenes, vídeos,
mapas… ¡no hay límite para la creatividad!

Podcast
Un podcast es una pieza de audio con una periodicidad definida y vocación de
continuidad que se puede descargar en internet. De forma más amplia, también
pueden considerarse podcasts los audios con montajes de fotos fijas.
Se trata de un programa de radio personalizable y descargable que puede
montarse en una web o blog, incluso en plataformas tan populares como iTunes,
Spotify, SoundCloud o Ivoox, entre otras. La disponibilidad de herramientas
tecnológicas y la existencia de estas plataformas para almacenar y compartir
contenidos está favoreciendo la difusión y expansión de los podcasts.
El origen etimológico del término ha quedado hoy en día obsoleto, ya que proviene
de “iPod” (aparato para escuchar música y audio a través del sistema iTunes de
Apple) y “broadcast” (difusión de contenidos). Esta definición tenía sentido hace
tiempo, cuando era necesario disponer de un iPod para poder reproducirlos, pero
hoy en día los podcasts se pueden escuchar sin problemas desde cualquier
página web.
Un podcast también es contenido
Un podcast no deja de ser un tipo de contenido, como un post o un ebook, pero en
un formato diferente, con las siguientes características:
 Es un audio digital que puede combinar voz, música y efectos sonoros.
 Normalmente suele presentarse en formato mp3 o wab.
 Las grabaciones en podcast se alojan en una web desde donde pueden ser
descargadas y, muchas veces, reproducidas en directo.
 Permite un contenido muy variado: noticias, tutoriales y otros contenidos
didácticos, piezas radiofónicas, etc.
 No requiere una gran inversión, únicamente un sistema de grabación digital
básico.

Formatos de vídeo
Los vídeos digitales se pueden guardar en archivos de distintos formatos.
Cada uno se corresponde con una extensión específica del archivo que lo
contiene. Existen muchos tipos de formatos de video. Aquí se citan algunos de los
más utilizados. Asimismo cada tipo de archivo admite en cada momento un códec
de compresión distinto.
AVI
Es el formato estándar para almacenar video digital. Cuando se captura video
desde una cámara digital al ordenador, se suele almacenar en este formato con el
códec DV (Digital Video). El archivo AVI puede contener video con una calidad
excelente. Sin embargo el peso del archivo resulta siempre muy elevado.
El formato AVI puede ser visualizado con la mayoría de reproductores: Windows
Media, QuickTime, etc. siempre y cuando se encuentren instalados en el equipo
los adecuados códecs para cada tipo de reproductor.
Es ideal para guardar videos originales que han sido capturados de la cámara
digital (codificados con DV). No es recomendable publicarlos en Internet en este
formato por su enorme peso.
MPEG
Es un formato estándar para la compresión de video digital. Son archivos de
extensión .MPG ó .MPEG. Admite distintos tipos de códecs de compresión:
MPEG-1 (calidad CD), MPEG-2 (calidad DVD), MPEG-3 (orientado al audio MP3)
y MPEG-4 (más orientado a dispositivos móviles y a la web). Se reproducen con
Windows Media Player y QuickTime.
MOV
Es el formato de video y audio desarrollado por Apple. Utiliza un códec propio que
evoluciona en versiones con bastante rapidez. Este tipo de archivos también
pueden tener extensión *.QT. Se recomienda utilizar el reproductor de QuickTime.
Existe una versión gratuita del mismo que se puede descargar de Internet. Es
ideal para publicar videos en Internet por su razonable calidad/peso.
WMV
Ha sido desarrollado recientemente por Microsoft. Utiliza el códec MPEG-4 para la
compresión de video. También puede tener extensión *.ASF Sólo se puede
visualizar con una versión actualizada de Windows Media 7 o superior. Esta
aplicación viene integrada dentro de Windows. Es ideal para publicar videos en
Internet por razonable calidad/peso.
FLV
Es un formato que utiliza el reproductor Adobe Flash para visualizar vídeo en
Internet. Utiliza el códec Sorenson Spark y el códec On2 VP6. Ambos permiten
una alta calidad visual con bitrates reducidos. Son archivos de extensión *.FLV. Se
pueden reproducir desde distintos reproductores locales: MPlayer, VLC media
player, Riva, Xine, etc.
 Opción recomendada para la web por su accesibilidad. Al visualizarse a
través del reproductor de Flash es accesible desde la mayoría de los
sistemas operativos y navegadores web.
 Los repositorios de vídeo más conocidos en Internet utilizan este formato
para la difusión de vídeos: YouTube, Google Video, iFilm, etc.
MP4
El nombre completo es Reproductor MP4 y fue creado por Martí Campderròs. Es
un término de marketing que se emplea para denominar a los reproductores
digitales de multimedia. El formato MP4 en general (también podemos
denominarlo archivo .mp4) es técnicamente lo que se conoce como MPEG-4 Parte
14. Se trata de un formato estándar (ISO/IEC 14496-14) y es un formato
contenedor de pistas multimedia.
Es decir, este formato define cómo se pueden contener en el archivo las pistas de
audio y de vídeo (llamados data streams) en diversos formatos, y puede incluso
contener subtítulos también. Sin embargo, el término MP4 viene por su condición
de sucesores de los reproductores MP3, queriendo asociarlo con la capacidad que
posee de reproducir vídeo.

MP3
El MPEG-2 Audio Layer III, o más conocido como MP3, es un formato de
compresión de audio digital desarrollado con un algoritmo que reduce el tamaño
del archivo considerablemente, aunque con una pequeña pérdida de calidad. Aún
así, es el formato de audio más usado en computadoras y en reproductores
portátiles.

WMA
Siglas de Windows Media Audio, es un formato de audio desarrollado por el
desarrollador senior de Microsoft, Henrique Malvar y su equipo. Hablando en
términos generales, WMA puede designar lo mismo un formato que un codec. Y
gracias a su compatibilidad con iTunes, este formato se ha vuelto muy popular,
convirtiéndose en una seria amenaza al MP3.

También podría gustarte