2.1.1
El almacenamiento digital de los archivos audiovisuales
Actualmente, existen numerosos sistemas de almacenamiento digital
para los archivos audiovisuales; y aunque los principales criterios
para valorarlos sea su precio, robustez, anchos de banda, aplicaciones
flexibles y escalables basadas en estándares tecnológicos comunes,
así como la conservación de sus contenidos y garantía de funcionamiento
a corto y mediano plazo (del largo plazo, casi nunca se plantea
el tema), la forma de catalogación, acceso y explotación de los
archivos son los factores que determinan toda consideración al respecto.
Sin embargo, y tal como se mostró en el apartado anterior, en términos
de tecnología de archivos audiovisuales, hay elementos indiscutibles
que se tendrían que tener en cuenta para definir el tipo de ingesta
y/o almacenamiento digital a seguir: ya sea los procedimientos y
soportes físicos(81), entre cintas magnéticas,
discos ópticos, discos duros, tarjetas o memorias de estado sólido,
ficheros, redes y protocolos IP.
La ingesta y/o almacenamiento digital de contenidos audiovisuales
se realiza normalmente de manera manual o automatizada por medio
de transferencias o regrabaciones de soportes, ya que de un modo
planificado, el gestor de recursos permite la captura de las listas
de documentos a grabar, directamente de su fuente original o bien
importada de otros sistemas y señales que pueden tener varias fuentes
como: audio o videograbadoras (VTRs), ficheros de audio o vídeo
ubicados en otros servidores, cámaras, receptores, etc.
Todas
las señales registradas podrían ir almacenándose de forma que se
pueda acceder a un histórico de los contenidos guardando sus referencias
en una base de datos. Una vez que se recupera el audio o video se
puede desarrollar una herramienta de captura de fotogramas (keyframes)
o imágenes estáticas del vídeo, para su uso en otras aplicaciones.
Estas imágenes fijas extraídas del vídeo se guardaran en el gestor
digital de los archivos audiovisuales con todos sus indicadores
específicos.
Pero,
más allá de la técnicas de digitalización que tienen un valor indiscutible
para la catalogación y conservación de imágenes y sonidos, desde
los años 80, existe otro procedimiento clave, el cual es esencial
para todo nuevo archivo audiovisual: su almacenamiento a partir
de la compresión digital(82).
Es evidente que este procedimiento ha impulsado sin lugar a dudas
el desarrollo de las técnicas audiovisuales digitales, ya que permite
que, con soluciones tecnológicas muy adecuadas, pero también económicamente
ventajosas, se puedan manejar y almacenar grandes volúmenes de información
visual y sonora, reduciendo al mínimo el espacio del soporte que
se requiere para llevarlos, tenerlos o manejarlos. Con la compresión
digital, también aparecen como valores agregados otras ventajas,
aplicaciones y posibilidades a partir de los siguientes formatos:
- Los formatos
a baja compresión
Estos
formatos (menores de 15 Mbps) tienen como un punto común la no utilización
de la compresión inter-imágenes; es decir, comprimiendo cada imagen
independientemente de las imágenes que las preceden y las siguen.
Se pueden citar en esta categoría, los formatos no comprimidos de
alta definición o alta resolución visual aplicados al cine, los
formatos vídeo sin compresión significativa como el D1 o el BETA
digital, y la familia de formatos MPEG que se basan en la aplicación
de algoritmos(83). Estos formatos se utilizan
esencialmente para los archivos audiovisuales de alta calidad, la
postproducción y los efectos especiales visuales. Los formatos DV
(DVCPRO y DVCAM) utilizados para la producción video brodcast y
doméstico, son parte de esta familia.
Los diferentes formatos de MPEG(84) (mayores
de 15Mbps) han sido definidos por normas establecidas por grupos
de expertos representantes de la industria e investigación informática
y telemática, así como de los medios audiovisuales, que asocian
tres técnicas de compresión digital: los algoritmos de reducción
de imágenes fijas, bajo la forma de un cuarto de pantalla (formato
SIF del MPEG - 1) o de una columna por dos (formato D1 del MPEG
2), y sobre todo, la codificación diferencial de imágenes. Esta
técnica que consiste definir ciertas imágenes como referencia -
y codificar las otras imágenes por su diferencia en relación con
estas imágenes permite a los formatos MPEG proponer una buena relación
calidad / ancho de banda, utilizando el hecho que generalmente hay
poca diferencia entre dos imágenes que se enlazan en un flujo en
movimiento. Sin embargo, también con esta técnica, los algoritmos
de compresión, y en menor medida los decompresión, necesitan más
cálculos complejos, limitan las posibilidades de utilizar estos
formatos, y en particular en los campos de la producción y de la
postproducción audiovisual(85).
Se
trata de una técnica de compresión con pérdidas, pues descarta parte
de la información original. Lo que le hace útil es, precisamente,
que los datos que pierde son precisamente los que el ojo humano
no es capaz de percibir (pérdida perceptiva). Tal y como se ha indicado
anteriormente, en la medida que le está permitido al usuario decidir
cuál es el grado de compresión deseado, una vez rebasado el límite
impuesto por el sistema de vídeo utilizado, la degradación de la
imagen comienza a evidenciarse.
A título de ejemplo, con las tecnologías profesionales actuales
de compresión, con un formato MPEG-2, todo vídeo se puede codificar
en promedio a 3,5 Mbps para tener una imagen en pantalla completa
con calidad DVD y aproximadamente de 1,5 Mbps para tener una imagen
en pantalla completa con calidad VHS. Por otra parte, con un formato
de compresión MPEG-4 se podrá tener una calidad DVD para un ancho
de banda del orden de 1,5 Mbps; no hay que olvidar que la aparición
del formato MPEG-4 fue concebido dentro de su fase de estandarización
como una solución unificada para los distintos anchos de banda dedicados
a la difusión y producción utilizados en Internet. Recientemente
se ha definido un innovador estándar MPEG-7 para facilitar la construcción
de sistemas de información audiovisual ante los nuevos retos derivados
del extraordinario tamaño de los archivos audiovisuales que hay
comprimir para reducirlos y, así rebajar tanto sus costes de almacenamiento
como los de difusión o distribución y de acceso(86).
- Los formatos
Internet para la difusión y distribución audiovisual con tecnología
streaming
A
comienzos de los años 90, dentro de la convergencia tecnológica
de la informática con los medios audiovisuales, y en especial aquellos
que contienen imágenes visuales en movimiento como el vídeo, surgieron
diversos desarrollos informáticos como el streaming que reagrupa
un conjunto de tecnologías permitiendo, a través de una computadora
u ordenador, escuchar contenidos sonoros y/o de mirar contenidos
de vídeo de forma continua y sin que exista tele carga previa. Todo
contenido de audio o video es codificado desde un emisor, de acuerdo
con un formato y ancho de banda, el cual es enviado por Internet(87).
Siempre
se han considerado que los formatos de vídeo y audio a baja resolución
son parte de la naturaleza de las aplicaciones en streaming;
sin embargo, utilizando redes de líneas ADSL a 512 Kbps y a 1 Mbps
se pueden alcanzar calidades de alta resolución, tratando de mejorar
el nivel de calidad sonora. De ahí que ante la relación calidad
de imagen versus ancho de banda versus costo, en un vídeo codificado
se pueden ofrecer diferentes anchos de banda en streaming
como:
34 |
80 |
150 |
300 |
512 |
1 |
kbps |
kbps |
kbps |
kbps |
kbps |
Mbps |
Normalmente
en streaming, se consideran los siguientes parámetros de
ancho de banda para la difusión, recepción y lectura de los contenidos
audiovisuales: en audio, se considera segmentos a partir de 20 kbps
en banda reducida, y de 64 a 128 kbps en banda ancha; en vídeo,
de 34 kbps en banda reducida y de 150 a 300 kbps en banda ancha.
|
81.
La digitalización de los archivos audiovisuales tiene como argumento
fundamental el dilema planteado por el desuso cada vez más acelerado
de los soportes analógicos; sin embargo, todavía queda por resolver
una incógnita que se genera con la conservación digital, ya que
por un lado, se continua fortaleciendo la idea de que no hay que
eliminar los soportes de los antiguos formatos para seguirlos conservando
y, por otro, se trata a toda costa de impulsar la digitalización
de los archivos audiovisuales, su demanda y acceso. La pregunta
y los supuestos en los que se basa esta incógnita parten a menudo
de informaciones erróneas, pero la adopción de la tecnología digital
por parte de las organizaciones de difusión tiene efectos profundos
en la práctica de los archivos audiovisuales, en la demanda del
propio acceso y en su planificación estratégica. De hecho, el valor
de las copias de películas, los discos de vinilo y otros soportes
que antes se consideraban y trataban como productos de consumo reemplazables
y desechables ahora empiezan a verse como artefactos que deben entenderse
y tratarse desde una óptica muy distinta. Este cambio de actitud
ha conferido una nueva condición, por ejemplo, a las películas de
nitrato que se han conservado y a la cuestión general de las normas,
la capacidad y las aptitudes necesarias para las proyecciones. Edmondson,
Ray, Filosofía y Principios de los Archivos Audiovisuales, Ed. UNESCO,
París, 2004.
82. Desde el punto de vista analógico, el flujo
continuo de información tanto del vídeo como del audio, puede medirse
como una señal eléctrica de voltaje variable, dentro de parámetros
milimétricos; pero para procesar digitalmente esta señal de forma
discreta se debe, al igual que se hace cuando se capturan señales
analógicas, crear ficheros de información reconocibles y manipulables
transfiriéndolos a un sistema binario. El vídeo analógico define
el estándar de líneas por fotograma y fotogramas por segundo (no
todas las líneas contienen vídeo activo). Para digitalizar una señal
de vídeo analógico es necesario muestrear todas las líneas de vídeo
activo. Una digitalización sin utilizar compresión de datos, ocupa
una cantidad ingente de espacio en el disco, y necesita un procesador
que sea capaz de mover esos ficheros a la velocidad requerida. Según
la calidad requerida, un solo segundo de vídeo puede llegar a ocupar
hasta 21 Mb. Lo que quiere decir que para capturar un minuto de
imagen en movimiento necesitamos 12,6 Gb. Se llama CODEC al conjunto
de un compresor y un expansor (COdificador y DECodificador) utilizado
para esta función. El compresor reduce la velocidad binaria de la
señal, mientras que el expansor devuelve a la señal su velocidad
binaria original. Para ello utiliza el llamado factor de compresión,
que no es sino la relación de las velocidades binarias de la fuente
y el canal. Por ejemplo: una compresión 10:1 nos diría que la velocidad
binaria se ha comprimido 10 veces con respecto a la original. En
una compresión 3.5:1 (en calidad broadcast o de teledifusión), el
flujo de datos se coloca en 6 Mb por segundo de imagen. En VHS,
la compresión puede llegar hasta 8:1, lo que significa un tamaño
de archivo de 2,6 Mb por segundo de imagen.
83. Es un conjunto de reglas definidas para obtener
un resultado determinado por medio de un número finito de operaciones
matemáticas.
84. Mientras las imágenes fijas son totalmente
diferentes entre sí, el vídeo es una evolución en el tiempo de una
imagen de partida. Los cuadros adyacentes, por tanto, suelen estar
fuertemente relacionados. El formato MPEG compara las imágenes consecutivas
con la original y muestrea solamente las diferencias entre ellas
antes de comprimirlas. Lógicamente, los datos diferencia pueden
ser tratados como imágenes y ser objeto de otros procesos de compresión.
También es evidente que, ante un cambio de escena, el muestreo es
completo. El formato MPEG se utiliza para todas aquellas aplicaciones
que precisan la transmisión de imágenes en movimiento. La compresión
puede ser muy alta, a fin de poder enviar gran cantidad de información
sin peligro de saturar la red. En un formato MPEG las imágenes pueden
ser comprimidas hasta un 200:1. También puede comprimir audio y
las señales necesarias para sincronizar ambos. Es muy utilizado,
sobre todo, en la transmisión de imágenes televisivas por cable.
85. A finales de los años 90, la transnacional
SONY ha desarrollado también el formato Beta - SX con norma MPEG
2 para responder las necesidades de producción broadcast, y en competencia
con los formatos DV.
86. No hay que olvidar que una hora de vídeo con
calidad broadcast (25 Mbps) genera un archivo de 12 Gbytes; y si
se necesitara trasladar este archivo audiovisual desde una librería
de cintas de datos como la DLT8000 de 6 MBps al disco se tendrá
que esperar hasta 40 minutos y si son DTF2 de 24 MBps el tiempo
de espera será de 10 minutos. Incluso las copias entre discos y/o
a través de redes de alta velocidad o gran ancho de banda (FC, Gigabit,
etc.) requieren de tiempos muy significativos para transferencias
de archivos. Sistema de Información Audiovisual. Tecnologías Digitales
Audiovisuales, S. L. (TEDIAL) www.tedial.com
87. El flujo de audio o de audio/vídeo se prepara
en paquetes para poder transmitirlos hacia un usuario conectado
a la red de Internet. Los contenidos son mostrados a medida que
son almacenados en la memoria, y se accede a ellos utilizando un
programa informático lector, el cual va a memorizar un primer segmento
corto de audio y/o video (generalmente entre 6 y 10 segundos), para
mostrarlo después mientras memoriza un segmento segundo, y así de
forma continua. La duración del segmento se define también por la
codificación que permite absorber los eventuales momentos de espera
generados en la red Internet, ya que todos los paquetes creados
por el codificador no utilizan a fuerza el mismo camino y deben
ser colocados en orden para reconstituir el flujo inicial. De hecho,
la señal de audio o de vídeo, codificado en directo desde un emisor
específico, se recibirá siempre por el usuario con un retraso entre
20 a 30 segundos, y en función de los parámetros de codificación.
|