2.1.1 El almacenamiento digital de los archivos audiovisuales

Actualmente, existen numerosos sistemas de almacenamiento digital para los archivos audiovisuales; y aunque los principales criterios para valorarlos sea su precio, robustez, anchos de banda, aplicaciones flexibles y escalables basadas en estándares tecnológicos comunes, así como la conservación de sus contenidos y garantía de funcionamiento a corto y mediano plazo (del largo plazo, casi nunca se plantea el tema), la forma de catalogación, acceso y explotación de los archivos son los factores que determinan toda consideración al respecto.

Sin embargo, y tal como se mostró en el apartado anterior, en términos de tecnología de archivos audiovisuales, hay elementos indiscutibles que se tendrían que tener en cuenta para definir el tipo de ingesta y/o almacenamiento digital a seguir: ya sea los procedimientos y soportes físicos(81), entre cintas magnéticas, discos ópticos, discos duros, tarjetas o memorias de estado sólido, ficheros, redes y protocolos IP.

La ingesta y/o almacenamiento digital de contenidos audiovisuales se realiza normalmente de manera manual o automatizada por medio de transferencias o regrabaciones de soportes, ya que de un modo planificado, el gestor de recursos permite la captura de las listas de documentos a grabar, directamente de su fuente original o bien importada de otros sistemas y señales que pueden tener varias fuentes como: audio o videograbadoras (VTRs), ficheros de audio o vídeo ubicados en otros servidores, cámaras, receptores, etc.

Todas las señales registradas podrían ir almacenándose de forma que se pueda acceder a un histórico de los contenidos guardando sus referencias en una base de datos. Una vez que se recupera el audio o video se puede desarrollar una herramienta de captura de fotogramas (keyframes) o imágenes estáticas del vídeo, para su uso en otras aplicaciones. Estas imágenes fijas extraídas del vídeo se guardaran en el gestor digital de los archivos audiovisuales con todos sus indicadores específicos.

Pero, más allá de la técnicas de digitalización que tienen un valor indiscutible para la catalogación y conservación de imágenes y sonidos, desde los años 80, existe otro procedimiento clave, el cual es esencial para todo nuevo archivo audiovisual: su almacenamiento a partir de la compresión digital(82).

Es evidente que este procedimiento ha impulsado sin lugar a dudas el desarrollo de las técnicas audiovisuales digitales, ya que permite que, con soluciones tecnológicas muy adecuadas, pero también económicamente ventajosas, se puedan manejar y almacenar grandes volúmenes de información visual y sonora, reduciendo al mínimo el espacio del soporte que se requiere para llevarlos, tenerlos o manejarlos. Con la compresión digital, también aparecen como valores agregados otras ventajas, aplicaciones y posibilidades a partir de los siguientes formatos:

  • Los formatos a baja compresión

Estos formatos (menores de 15 Mbps) tienen como un punto común la no utilización de la compresión inter-imágenes; es decir, comprimiendo cada imagen independientemente de las imágenes que las preceden y las siguen. Se pueden citar en esta categoría, los formatos no comprimidos de alta definición o alta resolución visual aplicados al cine, los formatos vídeo sin compresión significativa como el D1 o el BETA digital, y la familia de formatos MPEG que se basan en la aplicación de algoritmos(83). Estos formatos se utilizan esencialmente para los archivos audiovisuales de alta calidad, la postproducción y los efectos especiales visuales. Los formatos DV (DVCPRO y DVCAM) utilizados para la producción video brodcast y doméstico, son parte de esta familia.

  • Los formatos MPEG

Los diferentes formatos de MPEG(84) (mayores de 15Mbps) han sido definidos por normas establecidas por grupos de expertos representantes de la industria e investigación informática y telemática, así como de los medios audiovisuales, que asocian tres técnicas de compresión digital: los algoritmos de reducción de imágenes fijas, bajo la forma de un cuarto de pantalla (formato SIF del MPEG - 1) o de una columna por dos (formato D1 del MPEG 2), y sobre todo, la codificación diferencial de imágenes. Esta técnica que consiste definir ciertas imágenes como referencia - y codificar las otras imágenes por su diferencia en relación con estas imágenes permite a los formatos MPEG proponer una buena relación calidad / ancho de banda, utilizando el hecho que generalmente hay poca diferencia entre dos imágenes que se enlazan en un flujo en movimiento. Sin embargo, también con esta técnica, los algoritmos de compresión, y en menor medida los decompresión, necesitan más cálculos complejos, limitan las posibilidades de utilizar estos formatos, y en particular en los campos de la producción y de la postproducción audiovisual(85).

Se trata de una técnica de compresión con pérdidas, pues descarta parte de la información original. Lo que le hace útil es, precisamente, que los datos que pierde son precisamente los que el ojo humano no es capaz de percibir (pérdida perceptiva). Tal y como se ha indicado anteriormente, en la medida que le está permitido al usuario decidir cuál es el grado de compresión deseado, una vez rebasado el límite impuesto por el sistema de vídeo utilizado, la degradación de la imagen comienza a evidenciarse.

A título de ejemplo, con las tecnologías profesionales actuales de compresión, con un formato MPEG-2, todo vídeo se puede codificar en promedio a 3,5 Mbps para tener una imagen en pantalla completa con calidad DVD y aproximadamente de 1,5 Mbps para tener una imagen en pantalla completa con calidad VHS. Por otra parte, con un formato de compresión MPEG-4 se podrá tener una calidad DVD para un ancho de banda del orden de 1,5 Mbps; no hay que olvidar que la aparición del formato MPEG-4 fue concebido dentro de su fase de estandarización como una solución unificada para los distintos anchos de banda dedicados a la difusión y producción utilizados en Internet. Recientemente se ha definido un innovador estándar MPEG-7 para facilitar la construcción de sistemas de información audiovisual ante los nuevos retos derivados del extraordinario tamaño de los archivos audiovisuales que hay comprimir para reducirlos y, así rebajar tanto sus costes de almacenamiento como los de difusión o distribución y de acceso(86).

  • Los formatos Internet para la difusión y distribución audiovisual con tecnología streaming

A comienzos de los años 90, dentro de la convergencia tecnológica de la informática con los medios audiovisuales, y en especial aquellos que contienen imágenes visuales en movimiento como el vídeo, surgieron diversos desarrollos informáticos como el streaming que reagrupa un conjunto de tecnologías permitiendo, a través de una computadora u ordenador, escuchar contenidos sonoros y/o de mirar contenidos de vídeo de forma continua y sin que exista tele carga previa. Todo contenido de audio o video es codificado desde un emisor, de acuerdo con un formato y ancho de banda, el cual es enviado por Internet(87).

Siempre se han considerado que los formatos de vídeo y audio a baja resolución son parte de la naturaleza de las aplicaciones en streaming; sin embargo, utilizando redes de líneas ADSL a 512 Kbps y a 1 Mbps se pueden alcanzar calidades de alta resolución, tratando de mejorar el nivel de calidad sonora. De ahí que ante la relación calidad de imagen versus ancho de banda versus costo, en un vídeo codificado se pueden ofrecer diferentes anchos de banda en streaming como:

34 80 150 300 512 1
kbps kbps kbps kbps kbps Mbps

Normalmente en streaming, se consideran los siguientes parámetros de ancho de banda para la difusión, recepción y lectura de los contenidos audiovisuales: en audio, se considera segmentos a partir de 20 kbps en banda reducida, y de 64 a 128 kbps en banda ancha; en vídeo, de 34 kbps en banda reducida y de 150 a 300 kbps en banda ancha.


81. La digitalización de los archivos audiovisuales tiene como argumento fundamental el dilema planteado por el desuso cada vez más acelerado de los soportes analógicos; sin embargo, todavía queda por resolver una incógnita que se genera con la conservación digital, ya que por un lado, se continua fortaleciendo la idea de que no hay que eliminar los soportes de los antiguos formatos para seguirlos conservando y, por otro, se trata a toda costa de impulsar la digitalización de los archivos audiovisuales, su demanda y acceso. La pregunta y los supuestos en los que se basa esta incógnita parten a menudo de informaciones erróneas, pero la adopción de la tecnología digital por parte de las organizaciones de difusión tiene efectos profundos en la práctica de los archivos audiovisuales, en la demanda del propio acceso y en su planificación estratégica. De hecho, el valor de las copias de películas, los discos de vinilo y otros soportes que antes se consideraban y trataban como productos de consumo reemplazables y desechables ahora empiezan a verse como artefactos que deben entenderse y tratarse desde una óptica muy distinta. Este cambio de actitud ha conferido una nueva condición, por ejemplo, a las películas de nitrato que se han conservado y a la cuestión general de las normas, la capacidad y las aptitudes necesarias para las proyecciones. Edmondson, Ray, Filosofía y Principios de los Archivos Audiovisuales, Ed. UNESCO, París, 2004.
82. Desde el punto de vista analógico, el flujo continuo de información tanto del vídeo como del audio, puede medirse como una señal eléctrica de voltaje variable, dentro de parámetros milimétricos; pero para procesar digitalmente esta señal de forma discreta se debe, al igual que se hace cuando se capturan señales analógicas, crear ficheros de información reconocibles y manipulables transfiriéndolos a un sistema binario. El vídeo analógico define el estándar de líneas por fotograma y fotogramas por segundo (no todas las líneas contienen vídeo activo). Para digitalizar una señal de vídeo analógico es necesario muestrear todas las líneas de vídeo activo. Una digitalización sin utilizar compresión de datos, ocupa una cantidad ingente de espacio en el disco, y necesita un procesador que sea capaz de mover esos ficheros a la velocidad requerida. Según la calidad requerida, un solo segundo de vídeo puede llegar a ocupar hasta 21 Mb. Lo que quiere decir que para capturar un minuto de imagen en movimiento necesitamos 12,6 Gb. Se llama CODEC al conjunto de un compresor y un expansor (COdificador y DECodificador) utilizado para esta función. El compresor reduce la velocidad binaria de la señal, mientras que el expansor devuelve a la señal su velocidad binaria original. Para ello utiliza el llamado factor de compresión, que no es sino la relación de las velocidades binarias de la fuente y el canal. Por ejemplo: una compresión 10:1 nos diría que la velocidad binaria se ha comprimido 10 veces con respecto a la original. En una compresión 3.5:1 (en calidad broadcast o de teledifusión), el flujo de datos se coloca en 6 Mb por segundo de imagen. En VHS, la compresión puede llegar hasta 8:1, lo que significa un tamaño de archivo de 2,6 Mb por segundo de imagen.
83. Es un conjunto de reglas definidas para obtener un resultado determinado por medio de un número finito de operaciones matemáticas.
84. Mientras las imágenes fijas son totalmente diferentes entre sí, el vídeo es una evolución en el tiempo de una imagen de partida. Los cuadros adyacentes, por tanto, suelen estar fuertemente relacionados. El formato MPEG compara las imágenes consecutivas con la original y muestrea solamente las diferencias entre ellas antes de comprimirlas. Lógicamente, los datos diferencia pueden ser tratados como imágenes y ser objeto de otros procesos de compresión. También es evidente que, ante un cambio de escena, el muestreo es completo. El formato MPEG se utiliza para todas aquellas aplicaciones que precisan la transmisión de imágenes en movimiento. La compresión puede ser muy alta, a fin de poder enviar gran cantidad de información sin peligro de saturar la red. En un formato MPEG las imágenes pueden ser comprimidas hasta un 200:1. También puede comprimir audio y las señales necesarias para sincronizar ambos. Es muy utilizado, sobre todo, en la transmisión de imágenes televisivas por cable.
85. A finales de los años 90, la transnacional SONY ha desarrollado también el formato Beta - SX con norma MPEG 2 para responder las necesidades de producción broadcast, y en competencia con los formatos DV.
86. No hay que olvidar que una hora de vídeo con calidad broadcast (25 Mbps) genera un archivo de 12 Gbytes; y si se necesitara trasladar este archivo audiovisual desde una librería de cintas de datos como la DLT8000 de 6 MBps al disco se tendrá que esperar hasta 40 minutos y si son DTF2 de 24 MBps el tiempo de espera será de 10 minutos. Incluso las copias entre discos y/o a través de redes de alta velocidad o gran ancho de banda (FC, Gigabit, etc.) requieren de tiempos muy significativos para transferencias de archivos. Sistema de Información Audiovisual. Tecnologías Digitales Audiovisuales, S. L. (TEDIAL) www.tedial.com
87. El flujo de audio o de audio/vídeo se prepara en paquetes para poder transmitirlos hacia un usuario conectado a la red de Internet. Los contenidos son mostrados a medida que son almacenados en la memoria, y se accede a ellos utilizando un programa informático lector, el cual va a memorizar un primer segmento corto de audio y/o video (generalmente entre 6 y 10 segundos), para mostrarlo después mientras memoriza un segmento segundo, y así de forma continua. La duración del segmento se define también por la codificación que permite absorber los eventuales momentos de espera generados en la red Internet, ya que todos los paquetes creados por el codificador no utilizan a fuerza el mismo camino y deben ser colocados en orden para reconstituir el flujo inicial. De hecho, la señal de audio o de vídeo, codificado en directo desde un emisor específico, se recibirá siempre por el usuario con un retraso entre 20 a 30 segundos, y en función de los parámetros de codificación.

retroceder avanzar