La FCC adoptó un estándar para la
transmisión de la televisión digital en los Estados Unidos. El formato de vídeo
analógico contando sólo con una resolución y una frecuencia de cuadros está
siendo retirado en favor de una variedad de formatos de vídeo digital que varían
en resolución y frecuencia de cuadros. Básicamente, la NTSC define un cuadro de
vídeo conteniendo un total de 525 líneas entrelazadas, de tal modo que las
líneas impares se despliegan antes de todas las líneas impares a una frecuencia
de 30 Hz aproximadamente. El equipo de televisión de un estudio se basa en esta
estructura fija de tiempo y sincronización.
En contraste, el nuevo estándar de la
Advanced Television Systems Committee (ATSC) no es solo más versátil,
también incluye compresión de las señales de vídeo y audio, así como usa
transporte en paquetes para vídeo, audio y datos. El flujo resultante de bits de
vídeo es modulado para la transmisión al aire.
Claramente, la transición del estándar
análogo NTSC al ATSC digital comprimido de alta definición va a transformar
completamente la manera en la que los estudios de televisión captan, almacenan,
procesan y transmiten la nueva señal de vídeo. La recompensa debe ser un mejor
producto con mucha mayor eficiencia.
Formatos de imágenes soportados por
el estándar ATSC
| Tamaño de imagen |
Tasa de cuadros |
Proporciones |
| 1920*1080 |
60i |
--- |
30p |
24p |
16 :9 |
--- |
| 1280*720 |
--- |
60p |
30p |
24p |
16 :9 |
--- |
| 704*480 |
60i |
60p |
30p |
24p |
16 :9 |
4 :3 |
| 640*480 |
60i |
60p |
30p |
24p |
--- |
4 :3 |
| i=entrelazado p=progresivo |
Detrás de los lentes
La producción de programas de televisión
entrelaza tecnología con arte. Alguien que mira solamente unos minutos de su
programa de televisión favorito, observa escenas con ángulos de cámara variantes,
cambios abruptos de lugares, inserción de publicidad, efectos de vídeo y audio y
otros efectos especiales. Para producir sus espectáculos, la industria de la
televisión ha desarrollado equipo especial y depende de personal altamente
capacitado. Es mejor pensar en el complicado ajuste que debe hacerse antes de
cambiar la infraestructura de televisión analógica a digital.
Típicamente, un canal de televisión tiene
varios estudios, dos o más cabinas de control, un cuarto de equipo y un
transmisor. La persona que observa un noticiero local de 30 minutos, típicamente
ve dos locutores, un reportero del clima, un reportaje en vivo, una entrevista
pregrabada, etc. Y todo esto interrumpido algunas veces por comerciales. Las
personas que están siendo grabadas son asistidas por maquilladores, camarógrafos
y otros asistentes.
En la cabina de control (Fig. 1), los
ingenieros de producción se enfrentan a una pared llena de monitores de vídeo.
Estos incluyen tomas de las diferentes cámaras, reportajes remotos, dispositivos
gráficos, el comercial que está a punto de salir al aire y, si es necesario, una
transmisión satelital de algún proveedor.

Figura 1
Estudio de televisión.
La señal NTSC contiene señales de
sincronización horizontal y vertical de tal manera que el equipo receptor puede
desplegar correctamente la información en la pantalla. Un estudio de televisión
tiene un generador de sincronía de referencia con el que todo el vídeo en la
planta debe ser sincronizado. Esta sincronización es también llamada studio genlock.
En el cuarto de equipo, un ruteador, que
puede tener cientos de entradas de vídeo y puertos de salida, contiene todo el
vídeo de un canal de TV. Con pulsar un botón, el ruteador permite la fácil
conexión entre las diferentes cámaras de vídeo, generadores de caracteres y
otros equipos del estudio. El switcher de producción es la pieza más
importante del cuarto de control y es usado para crear efectos especiales, como
desvanecidos de pantallas, e inserta comerciales.
La cabina de control es donde los
productores del espectáculo determinan el flujo y sabor de la transmisión. A
cargo de una transmisión en vivo está el director técnico, quien decide qué va
al aire, usando un switcher de producción para seleccionar el vídeo
apropiado. Todos están comunicados por un canal de intercomunicación en la
cabina de control y el estudio, con el fin de estar bien coordinados y poder
resolver problemas conjuntamente.
En los reportes climatológicos, el
reportero del clima parece estar parado enfrente de un gran mapa. En realidad,
el reportero está parado enfrente de una pared azul o verde. El vídeo que
contiene el mapa es mezclado con el vídeo conteniendo al reportero para dar el
efecto que vemos. Esta operación, hecha por el switcher de producción, es
llamada chroma-keying.
El encargado del tiempo en el estudio
informa a todos acerca de el tiempo restante para los comerciales, etc. Los
técnicos en la cabina de sonido mantienen los niveles adecuados de sonido y
hacen las mezclas que se requieren.

Figura 2a
Televisión convencional.

Figura 2b
Televisión digital, estudio completo de producción.

Figura 2c Televisión digital, estudio de paso.
En los cables
En un estudio convencional de NTSC, las
señales son transmitidas por cables coaxiales de un equipo a otro. Una estación
de TV típica tiene cientos de cables conectados en el cuarto de equipo, la
cabina de control, el estudio y la cabina de audio. Además, hay cables separados
para intercomunicación, redes de computadoras y conexiones telefónicas. Las
estaciones de televisión también tienen una sofisticada área de gráficas por
computadora, en donde diseñadores crean gráficos para uso en los programas.
Algunas estaciones de TV tienen un
transmisor remoto. Para transferir el programa NTSC al transmisor, es usada una
liga estudio - transmisor (STL o studio-to-transmitter link). Un
STL es usualmente implementado vía microondas o una línea de transmisión por
cable.
Equipo digital para vídeo NTSC
La señal de vídeo originada por una cámara
de estudio está en banda base. En ella, las componentes de color son señales
separadas (R, G, B). Pero a causa de que los primeros sistemas NTSC necesitaban
ser compatibles con la televisión blanco y negro, las señales R, G, B fueron
convertidas a Y, U, V (Y, luminosidad; U = B - Y; V = R - Y). Este sistema está
también basado en el sistema visual humano: los receptores de color (conos) son
menos que los de luminancia (bastones), y tienen mucha menor resolución espacial.
Por lo tanto, es necesario un menor ancho de banda para las señales de color U y
V que para la señal de luminancia Y. Si se hace una conversión RGB - YUV
manteniendo el ancho de banda completo para el color (tinte mas saturación), se
llama un muestreo 4:4:4.
Un muestreo usado es el 4:2:2, que
disminuye la resolución sin pérdida perceptible de calidad, y también disminuye
el ancho de banda en un 33%. Un 4:2:0 reduce aún más el ancho de banda de la
información de color aún más.
Los rápidos avances en circuitos
integrados digitales han hecho posible una nueva clase de equipo de estudio,
llamado equipo digital para vídeo NTSC. Nuevos switchers de
producción, ruteadores y generadores de caracteres soportan un tipo de vídeo
4:2:2. Para la producción con mayor calidad, existen estándares internacionales,
como el ITUR (International Telecommunication Union’s Reccomendation
601). Este estándar tiene una resolución activa de 720 pixels por 485 líneas,
con un esquema 4:2:2. También existen estándares para el intercambio de datos de
serial a paralelo entre equipos, como el SMPTE-259D (de la Society of Motion
Pictures and Television Engineers), una interface a 360 Mb/s (entre
generadores digitales de caracteres y routers).
Aunque la mayoría de los estudios de
televisión usan aún el equipo analógico de NTSC, muchos han empezado a hacer la
transición a todas las comodidades que ofrecen los equipos digitales para la
producción de programas en formato NTSC.
La nueva televisión
El nuevo estándar de televisión de alta
definición ATSC define cuatro formatos básicos de televisión digital (Tabla 1).
Estos formatos están definidos por el número de pixels por línea, el número de
líneas por cuadro de vídeo, la frecuencia de repetición de los cuadros, la
relación ancho - altura y la estructura de los cuadros (entrelazados o
progresivos). El entrelazado es una técnica que usan las cámaras para tomar dos
veces la escena durante el mismo tiempo de un cuadro. En la primera toma, se
crea un campo de vídeo, conteniendo las líneas impares y, durante la segunda, se
toman las líneas pares. Esta técnica, usada en el vídeo NTSC, genera un menor
parpadeo y por lo tanto, mayor brillantez en el receptor de vídeo para la
frecuencia de cuadro dada (y ancho de banda). Por otro lado, la mayor parte del
vídeo generado por computadora es tomado progresivamente, en el que cada cuadro
de vídeo contiene todas las líneas en orden.
El estándar ATSC incluye ambos formatos.
Es aún cuestión de debate el que vaya a ser usado. Algunas compañías de
computadoras piden una versión de menor resolución del formato progresivo, que
es compatible con los monitores de computadora. Los productores de televisión
están de acuerdo en la inclusión de múltiples formatos, y esperan que el uso de
los formatos entrelazados serán más comunes al principio.
El nuevo estándar incluye dos formatos
para televisión de alta definición (HDTV). En uno, 1920 pixels y 1080 líneas de
vídeo son entrelazadas, mientras que en el otro 1280 pixels y 720 líneas de
vídeo están en el formato progresivo. La mayor parte del equipo para HDTV que ha
surgido como cámaras y switchers de producción está diseñado para el formato de
1920 pixels por 1080 líneas. Esto es debido principalmente al retraso en el
diseño de cámaras y monitores progresivos de HDTV. Como casi todas las películas
(a 24 cuadros por segundo) se traducen a un formato progresivo de vídeo, las
películas en formato HDTV serán muy probablemente las primeras en transmitirse.
Entre otros formatos de ATSC, el formato
progresivo de 704 pixels por 480 líneas de vídeo será probablemente usado en
algunas emisoras de televisión. Comparado con el estándar NTSC, tiene un aspecto
más ancho (relación de 16 a 9, contra 4 a 3).

Figura 3 Estándares de la ATSC.
Finalmente, ATSC soporta también los
formatos de standard - definition television (SDTV). Ambos son
entrelazados y tienen 704 pixels por 480 líneas o 680 pixels por 480 líneas.
Como la mayoría de la infraestructura para los estudios de televisión soporta
uno u otro de estos formatos, la mayoría de la producción local (por ejemplo,
noticias) se quedará probablemente con uno de estos formatos al principio.
Como ATSC permite estos 4 formatos, la
cadena de bits comprimidos puede cambiar abruptamente en formato de vídeo aún
cuando esté siendo transmitida. Por ejemplo, un comercial podría ser transmitido
en el formato progresivo 704 por 480, seguido por una película en el formato
progresivo 1280 por 720, seguida por un noticiero local en el formato
entrelazado 640 por 480. El estándar ATSC requiere que el receptor de vídeo
pueda desplegar todos estos formatos en su formato propio.
Compresión en los estudios digitales de TV
ATSC en los Estados Unidos especifica que
el formato de compresión de vídeo es el Moving Pictures Expert Group’s
MPEG-2 (Fig. 3). También especifica compresión AC-3 para audio. Un vídeo clip no
comprimido en HDTV muestreado a 4:2:2, con 10 segundos de duración, requiere 1.2
Gb de memoria. Obviamente, para almacenar y enviar varias horas de vídeo, se
requiere compresión.
El estándar ATSC permite, por diseño, una
muy alta calidad de la imagen decodificada una sola vez. Si el mismo vídeo es
comprimido y descomprimido varias veces, la calidad del vídeo cae rápidamente.
Para salir de este problema, una compresión a varias velocidades de bit tiene
que evolucionar para los estudios de TV.
Con el equipo de producción no comprimida
actual, los efectos pueden ser puestos en cualquier cuadro de vídeo NTSC
arbitrariamente (un director técnico que decide cortar la escena de una cámara
para poner un comercial, puede hacerlo instantáneamente). Cualquier equipo de
producción para vídeo comprimido debe igualar este requerimiento. Un sistema
intra-codificado puede ciertamente salvar la situación: todos los cuadros intra-codificados
son independientes, entonces modificar o borrar cualquier cuadro no afecta los
demás en la cadena de bits.
Avances futuros en la tecnología pueden
permitir el diseño de switchers de producción que operan en vídeo
comprimido (solo con itra cuadros), como los splicers que permiten la
inserción o edición de un cuadro en cadenas de bits comprimidos. Se trabaja aún
en la búsqueda de técnicas que permitan hacer tales modificaciones.
La compresión en el estudio de TV no sólo
reduce los costos de guardar y archivar, también permite transmitir vídeo
grabado a otro destino más rápido que en tiempo real. La tabla 2 muestra varios
modos de compresión que pueden ser necesitados en un estudio. Además, la
compresión puede ser optimizada para la velocidad de bits requerida, el tipo de
encodificación y decodificación y la calidad que debe ser mantenida.
Si la velocidad de bits que se usa en un
estudio es entre 200 y 270 Mbps, entonces los datos comprimidos pueden ser
almacenados y transmitidos por equipo con un formato no comprimido de acuerdo a
la SMPTE 259. Sony y Panasonic han propuesto sistemas como estos (Tabla 3). Sus
propósitos permiten equipo de escritura D1 y D5 que es actualmente muy usado
para almacenar datos comprimidos. La versión de 270 Mbps de SMPTE 259 puede ser
usada para almacenar y transmitir datos hasta a 200 Mbps y la versión 360 Mbps
puede ser usada para velocidades de hasta 270 Mbps. Al tiempo que más equipo que
soporta HDTV se expande, el digital SDTV va a dar el camino a la programación en
HDTV.
Compresión en un estudio
de TV
| Aplicación de estudio |
Tasa de compresión |
Formato de código |
| Video Producción |
4 :1 |
Cuadros I solamente |
| Enlaces de contribución |
10 :1 |
Estructura de cuadro IPPP |
| Archivo y almacenaje |
25 :1 |
Estructura de cuadro IPIP |
| Transmisión |
50 :1 |
Estructura IPBBBBP |
I=Cuadros Independientes B=Cuadros bidireccionados P=Cuadros predecidos GOP=Grupo de imágenes |
| Disponibilidad de equipo NTSC |
| Equipo de transmisión |
HDTV sin comprimir |
HDTV comprimido |
| Cámara |
Sony, Panasonic |
--- |
| Switcher de producción |
Sony, Panasonic |
--- |
| Switcher ruteador |
--- |
Basado en ATM (a) |
| Sincronizador de cuadros |
--- |
(a) |
| Codificador |
Sony, Mitsubishi |
--- |
| Máquinas de cintas |
Sony, Panasonic |
Panasonic |
| Servidores |
--- |
Silicon Graphics, Sun
Microsystems |
| Equipo para prueba de MPEG |
--- |
Tektronix, Hewlett-Packard |
| (a) En desarrollo. |
La costura entre cuadros (splicing)
Cuando una fuente de vídeo es cambiada y
reemplazada por otra fuente de vídeo, se hace una costura. Pasa seguido en los
programas cuando, por ejemplo, una estación local interrumpe su alimentación de
red para insertar un programa generado localmente. En el caso de escenas de
vídeo no comprimidas, es relativamente fácil coser dos segmentos juntos.
Todo lo que se requiere es sincronizar las dos fuentes de vídeo. El operador
puede hacer un splice en los límites de cualquier cuadro porque cada cuadro en
cada cadena contiene la misma cantidad de datos y los límites entre los cuadros
están sincronizados.
Pero los sistemas de cadenas de bits
comprimidos contienen cuadros de vídeo de tamaño diferente. El número de bits
usado para representar cada cuadro puede variar dependiendo de un gran número de
factores, entre los que se encuentran:
-
El tipo de codificación usada. Un cuadro predecido,
codificado usando compensación de movimiento de datos de otro cuadro, requiere
usualmente menos bits para codificarse que un vídeo intra-codificado que
contiene toda la información necesaria para decodificar la imagen original.
-
La variabilidad en el tamaño de películas del mismo tipo.
Entre más compleja sea la imagen, el número de bits necesario para codificarla
será mayor.
-
La velocidad de bits que la codificación de vídeo debe
cumplir. Para hacer esto, el encodificador puede cambiar arbitrariamente el
número de bits que asigna a la película.

Figura 4 Sonido comprimido AC-3
La cadena a la que se va hace referencia a
la cadena de la que se viene. Como las dos cadenas contienen la información I, P
y B, cambiar arbitrariamente de una cadena a la otra crearía un serio desorden
en el decodificador.
Usar cuadros predecidos también crea
cadenas de bits en las que la correcta decodificación de cada cuadro requiere de
la presencia de los demás. El punto de splicing debe ser seleccionado
cuidadosamente, de manera que cada cuadro en la secuencia resultante alrededor
del splice tiene toda la información necesaria para decodificarlo. Un
splice exitoso entre estas dos secuencias puede darse solo en el punto
indicado.
Hacer un splice es fácil entre dos
escenas de vídeo no comprimido (el equipo sólo tiene que esperar la esquina
vertical del cuadro (Fig. 4). Coser una cadena de bits comprimidos es más
complicado porque hay un número variable de bits en los cuadros y las dos
cadenas de bits raramente están alineadas. Esta operación tampoco puede ser
hecha arbitrariamente por el uso de los cuadros predecidos P y B. La cadena de
bits debe ser creada con los puntos de splicing marcados, para que el
splicer pueda esperar una localización adecuada para hacer el splice.
Cada encodificador de vídeo debe crear
también una cadena de bits que mantenga la integridad de un buffer de datos
localizado en el decodificador, para prevenir desbordamiento. Este buffer, cuyo
tamaño depende de la especificación MPEG, es usado para almacenar la
representación comprimida de cada cuadro de vídeo hasta que sea tiempo de que
ese cuadro sea decodificado.
Para proporcionar una calidad de imagen
óptima, el encodificador de vídeo usa todas las ventajas del tamaño del buffer.
Dos encodificadores encodifican separadamente las cadenas “de” y “a”.
Individualmente, las dos cadenas no violan los límites del buffer, pero cuando
se cosen, hay un desbordamiento. Esto creará un estado momentáneo de
desequilibrio en el encodificador, y el proceso se alentará. Para salir de este
problema, se deben poner especificaciones estrictas en los puntos de splicing.
Esto da por resultado, tener ambas cadenas con igual longitud en el buffer. El splicer debe identificar los puntos de cosido y unir ambas cadenas en
éstos.
En el caso de una cadena de bits de vídeo
pre-encodificado, el splicer también debe poder leer información de un
disco o cinta y poder crear los puntos de splicing. Un grupo de
ingenieros especializados en la empaquetación de televisión de la SMPTE, está
creando normas para estas situaciones.
Transmisión de televisión digital
Los primeros servicios de DTV empezaron en
1998. En este momento tenemos una combinación de televisión estándar, televisión de
alta definición y datos. El uso de televisión estándar o de alta definición es
definido por la transmisora, de acuerdo al tipo de programa transmitido y al
público al que va dirigido. Los servicios de datos que acompañan a la SDTV o a
la HDTV pueden estar o no relacionados con el programa que se transmite. Por
ejemplo, los servicios de datos pueden proporcionar información adicional, como
la dirección en internet del producto que se está visualizando. El usuario, si
lo quiere, puede entrar a esta página usando el control remoto del receptor y
visualizándola en la pantalla de la televisión.
Los primeros pasos para esta transición ya
han sido hechos, y numerosos esfuerzos están realizándose con el fin de crear y
probar equipo y técnicas requeridas para estos servicios. Entre éstos, tenemos:
-
El
proyecto High Definition Broadcast Technology (HDBT) del NIST (National
Institute of Standards and Technology). Este programa incluye buscar
empresas para acelerar el desarrollo y la comercialización de nuevas tecnologías
en el área de la HDTV. Algunas de las compañías participantes son Sun
Microsystems, Philips y MCI. Las áreas de búsqueda son, entre otras, el
desarrollo de compresión MPEG para diferentes áreas del estudio, métodos de
transmisión ATM basados en la codificación MPEG y proceso de señales comprimidas.
-
El Advanced Television Systems Committee. Este es un esfuerzo conjunto de varias
empresas relacionadas con los estándares de DTV, para certificar el nuevo equipo
que viene al mercado.
-
La
estación modelo WHD-TV. Otro esfuerzo conjunto, dirigido por Maximum Service
Television y la Consumer Electronics Manufacturers Association (CEMA)
y que busca promover los estándares HDTV y probar el equipo al tiempo que está
disponible.
Aunque no hay muchas televisiones de alta
definición disponibles aún, muchas estaciones ya trabajan digitalmente en la
producción. Estas son WHD-TV (Washington), WRAL (Raleigh) y WCBS-HD (New York).
Las capacidades de estas estaciones varían de la transmisión de pruebas hasta la
producción y transmisión completa de programas en HDTV. WHD-TV recientemente
realizó una transmisión del primer programa simulado en vivo en NTSC y HDTV.
En lo que otras transmisoras se convierten
a HDTV, probablemente dos configuraciones en el estudio van a coexistir: la
estación de producción completa para los mercados más grandes y transmisión en
red, y la estación de paso, que es lo mínimo necesario para salir al aire
digitalmente.
La estación de producción completa
La estación de producción completa (Fig.
2), debe soportar el existente equipo NTSC. Cuando sea posible, debe permitir
también hacer operaciones con datos comprimidos (como almacenar y el splicing),
para evitar errores de codificación y decodificación. La configuración se parece
a la creada por el proyecto NIST HDBT. En este caso, una red ATM de alta
velocidad transmite las cadenas de bits comprimidos por todo el estudio.
Asimismo, esta red ATM transmite la intercomunicación, sonido digital y datos.
Todo el equipo (servidores, encodificadores, etc.) tiene una interfaz con la red
ATM, que es el switch central del estudio que reemplaza el ruteador los
estudios convencionales.
El trabajo del transcodificador es
convertir de un formato de compresión a otro (por ejemplo, un 155 Mbps I-P-I-P
en un 45 Mbps I-P-B-B). Todos los dispositivos en la red de computadoras están
controlados por la estación de trabajo (workstation) de control del estudio.
Esta arquitectura también permite la conexión con otros estudios de TV con las
redes existentes de telecomunicaciones. Una interface de red es necesitada para
este caso.
Al principio, la producción de vídeo va a
hacerse en vídeo no comprimido. Con el avance de la tecnología de compresión,
más parte de la producción se hará con vídeo comprimido. La mayoría de los
estudios probablemente cambiarán a vídeo comprimido, pero retendrán elementos no
comprimidos para aprovechar las ventajas que éstos proporcionan.
La estación de paso
Las 1000 pequeñas estaciones de TV
afiliadas en red en los Estados Unidos, dependen en gran parte de las más
grandes para la mayoría de su producción. También adicionan comerciales locales
para generar ganancias y proporcionar noticias e información local.
A causa de sus necesidades especiales,
estas empresas pueden beneficiarse substancialmente del equipo que cose
las cadenas de datos comprimidas. Estas estaciones recibirán una señal satelital
de la red y sin tener que decodificar (y re-encodificar) la cadena de bits,
serán capaces de introducir sus comerciales. Lo malo es que existen aún
problemas técnicos que impiden que este tipo de aparatos esté disponible
comercialmente. Un problema que necesita resolverse es el cómo añadir un
logotipo de la estación local en el dominio comprimido.
Para las noticias locales, las pequeñas
compañías pueden seguir usando el equipo NTSC, cuya salida puede ser
encodificada para transmisión, usando un encodificador tradicional (Fig. 2). En
esta configuración, la alimentación de la red va a ser recibida y pasada por un
switcher de datos comprimidos para transmitirla localmente. El switcher debe
permitir la inserción de comerciales locales a la red. Opcionalmente, también
puede haber un encodificador de vídeo para permitir la entrada de señales
generadas localmente en formato estándar o de alta definición. Esta
configuración está abierta para permitir la inserción de nuevos equipos en la
producción local. |