WikiCiencia - Electrónica y Electricidad - Comunicaciones - Cómo funciona la TV digital

Firenox
PRINCIPALELECTRONICAINFORMATICATECNOLOGIANOTICIASDESTACADOS
 

Cómo funciona la TV digital

La FCC adoptó un estándar para la transmisión de la televisión digital en los Estados Unidos. El formato de vídeo analógico contando sólo con una resolución y una frecuencia de cuadros está siendo retirado en favor de una variedad de formatos de vídeo digital que varían en resolución y frecuencia de cuadros. Básicamente, la NTSC define un cuadro de vídeo conteniendo un total de 525 líneas entrelazadas, de tal modo que las líneas impares se despliegan antes de todas las líneas impares a una frecuencia de 30 Hz aproximadamente. El equipo de televisión de un estudio se basa en esta estructura fija de tiempo y sincronización.

En contraste, el nuevo estándar de la Advanced Television Systems Committee (ATSC) no es solo más versátil, también incluye compresión de las señales de vídeo y audio, así como usa transporte en paquetes para vídeo, audio y datos. El flujo resultante de bits de vídeo es modulado para la transmisión al aire.

Claramente, la transición del estándar análogo NTSC al ATSC digital comprimido de alta definición va a transformar completamente la manera en la que los estudios de televisión captan, almacenan, procesan y transmiten la nueva señal de vídeo. La recompensa debe ser un mejor producto con mucha mayor eficiencia.

Formatos de imágenes soportados por el estándar ATSC

Tamaño de imagen Tasa de cuadros Proporciones
1920*1080 60i --- 30p 24p 16 :9 ---
1280*720 --- 60p 30p 24p 16 :9 ---
704*480 60i 60p 30p 24p 16 :9 4 :3
640*480 60i 60p 30p 24p --- 4 :3
i=entrelazado p=progresivo

Detrás de los lentes

La producción de programas de televisión entrelaza tecnología con arte. Alguien que mira solamente unos minutos de su programa de televisión favorito, observa escenas con ángulos de cámara variantes, cambios abruptos de lugares, inserción de publicidad, efectos de vídeo y audio y otros efectos especiales. Para producir sus espectáculos, la industria de la televisión ha desarrollado equipo especial y depende de personal altamente capacitado. Es mejor pensar en el complicado ajuste que debe hacerse antes de cambiar la infraestructura de televisión analógica a digital.

Típicamente, un canal de televisión tiene varios estudios, dos o más cabinas de control, un cuarto de equipo y un transmisor. La persona que observa un noticiero local de 30 minutos, típicamente ve dos locutores, un reportero del clima, un reportaje en vivo, una entrevista pregrabada, etc. Y todo esto interrumpido algunas veces por comerciales. Las personas que están siendo grabadas son asistidas por maquilladores, camarógrafos y otros asistentes.

En la cabina de control (Fig. 1), los ingenieros de producción se enfrentan a una pared llena de monitores de vídeo. Estos incluyen tomas de las diferentes cámaras, reportajes remotos, dispositivos gráficos, el comercial que está a punto de salir al aire y, si es necesario, una transmisión satelital de algún proveedor.

Figura 1 Estudio de televisión.

La señal NTSC contiene señales de sincronización horizontal y vertical de tal manera que el equipo receptor puede desplegar correctamente la información en la pantalla. Un estudio de televisión tiene un generador de sincronía de referencia con el que todo el vídeo en la planta debe ser sincronizado. Esta sincronización es también llamada studio genlock.

En el cuarto de equipo, un ruteador, que puede tener cientos de entradas de vídeo y puertos de salida, contiene todo el vídeo de un canal de TV. Con pulsar un botón, el ruteador permite la fácil conexión entre las diferentes cámaras de vídeo, generadores de caracteres y otros equipos del estudio. El switcher de producción es la pieza más importante del cuarto de control y es usado para crear efectos especiales, como desvanecidos de pantallas, e inserta comerciales.

La cabina de control es donde los productores del espectáculo determinan el flujo y sabor de la transmisión. A cargo de una transmisión en vivo está el director técnico, quien decide qué va al aire, usando un switcher de producción para seleccionar el vídeo apropiado. Todos están comunicados por un canal de intercomunicación en la cabina de control y el estudio, con el fin de estar bien coordinados y poder resolver problemas conjuntamente.

En los reportes climatológicos, el reportero del clima parece estar parado enfrente de un gran mapa. En realidad, el reportero está parado enfrente de una pared azul o verde. El vídeo que contiene el mapa es mezclado con el vídeo conteniendo al reportero para dar el efecto que vemos. Esta operación, hecha por el switcher de producción, es llamada chroma-keying.

El encargado del tiempo en el estudio informa a todos acerca de el tiempo restante para los comerciales, etc. Los técnicos en la cabina de sonido mantienen los niveles adecuados de sonido y hacen las mezclas que se requieren.

Figura 2a Televisión convencional.

Figura 2b Televisión digital, estudio completo de producción.

Figura 2c Televisión digital, estudio de paso.

En los cables

En un estudio convencional de NTSC, las señales son transmitidas por cables coaxiales de un equipo a otro. Una estación de TV típica tiene cientos de cables conectados en el cuarto de equipo, la cabina de control, el estudio y la cabina de audio. Además, hay cables separados para intercomunicación, redes de computadoras y conexiones telefónicas. Las estaciones de televisión también tienen una sofisticada área de gráficas por computadora, en donde diseñadores crean gráficos para uso en los programas.

Algunas estaciones de TV tienen un transmisor remoto. Para transferir el programa NTSC al transmisor, es usada una liga estudio - transmisor (STL o studio-to-transmitter link). Un STL es usualmente implementado vía microondas o una línea de transmisión por cable.

Equipo digital para vídeo NTSC

La señal de vídeo originada por una cámara de estudio está en banda base. En ella, las componentes de color son señales separadas (R, G, B). Pero a causa de que los primeros sistemas NTSC necesitaban ser compatibles con la televisión blanco y negro, las señales R, G, B fueron convertidas a Y, U, V (Y, luminosidad; U = B - Y; V = R - Y). Este sistema está también basado en el sistema visual humano: los receptores de color (conos) son menos que los de luminancia (bastones), y tienen mucha menor resolución espacial. Por lo tanto, es necesario un menor ancho de banda para las señales de color U y V que para la señal de luminancia Y. Si se hace una conversión RGB - YUV manteniendo el ancho de banda completo para el color (tinte mas saturación), se llama un muestreo 4:4:4.

Un muestreo usado es el 4:2:2, que disminuye la resolución sin pérdida perceptible de calidad, y también disminuye el ancho de banda en un 33%. Un 4:2:0 reduce aún más el ancho de banda de la información de color aún más.

Los rápidos avances en circuitos integrados digitales han hecho posible una nueva clase de equipo de estudio, llamado equipo digital para vídeo NTSC. Nuevos switchers de producción, ruteadores y generadores de caracteres soportan un tipo de vídeo 4:2:2. Para la producción con mayor calidad, existen estándares internacionales, como el ITUR (International Telecommunication Union’s Reccomendation 601). Este estándar tiene una resolución activa de 720 pixels por 485 líneas, con un esquema 4:2:2. También existen estándares para el intercambio de datos de serial a paralelo entre equipos, como el SMPTE-259D (de la Society of Motion Pictures and Television Engineers), una interface a 360 Mb/s (entre generadores digitales de caracteres y routers).

Aunque la mayoría de los estudios de televisión usan aún el equipo analógico de NTSC, muchos han empezado a hacer la transición a todas las comodidades que ofrecen los equipos digitales para la producción de programas en formato NTSC.

La nueva televisión

El nuevo estándar de televisión de alta definición ATSC define cuatro formatos básicos de televisión digital (Tabla 1). Estos formatos están definidos por el número de pixels por línea, el número de líneas por cuadro de vídeo, la frecuencia de repetición de los cuadros, la relación ancho - altura y la estructura de los cuadros (entrelazados o progresivos). El entrelazado es una técnica que usan las cámaras para tomar dos veces la escena durante el mismo tiempo de un cuadro. En la primera toma, se crea un campo de vídeo, conteniendo las líneas impares y, durante la segunda, se toman las líneas pares. Esta técnica, usada en el vídeo NTSC, genera un menor parpadeo y por lo tanto, mayor brillantez en el receptor de vídeo para la frecuencia de cuadro dada (y ancho de banda). Por otro lado, la mayor parte del vídeo generado por computadora es tomado progresivamente, en el que cada cuadro de vídeo contiene todas las líneas en orden.

El estándar ATSC incluye ambos formatos. Es aún cuestión de debate el que vaya a ser usado. Algunas compañías de computadoras piden una versión de menor resolución del formato progresivo, que es compatible con los monitores de computadora. Los productores de televisión están de acuerdo en la inclusión de múltiples formatos, y esperan que el uso de los formatos entrelazados serán más comunes al principio.

El nuevo estándar incluye dos formatos para televisión de alta definición (HDTV). En uno, 1920 pixels y 1080 líneas de vídeo son entrelazadas, mientras que en el otro 1280 pixels y 720 líneas de vídeo están en el formato progresivo. La mayor parte del equipo para HDTV que ha surgido como cámaras y switchers de producción está diseñado para el formato de 1920 pixels por 1080 líneas. Esto es debido principalmente al retraso en el diseño de cámaras y monitores progresivos de HDTV. Como casi todas las películas (a 24 cuadros por segundo) se traducen a un formato progresivo de vídeo, las películas en formato HDTV serán muy probablemente las primeras en transmitirse.

Entre otros formatos de ATSC, el formato progresivo de 704 pixels por 480 líneas de vídeo será probablemente usado en algunas emisoras de televisión. Comparado con el estándar NTSC, tiene un aspecto más ancho (relación de 16 a 9, contra 4 a 3).

Figura 3 Estándares de la ATSC.

Finalmente, ATSC soporta también los formatos de standard - definition television (SDTV). Ambos son entrelazados y tienen 704 pixels por 480 líneas o 680 pixels por 480 líneas. Como la mayoría de la infraestructura para los estudios de televisión soporta uno u otro de estos formatos, la mayoría de la producción local (por ejemplo, noticias) se quedará probablemente con uno de estos formatos al principio.

Como ATSC permite estos 4 formatos, la cadena de bits comprimidos puede cambiar abruptamente en formato de vídeo aún cuando esté siendo transmitida. Por ejemplo, un comercial podría ser transmitido en el formato progresivo 704 por 480, seguido por una película en el formato progresivo 1280 por 720, seguida por un noticiero local en el formato entrelazado 640 por 480. El estándar ATSC requiere que el receptor de vídeo pueda desplegar todos estos formatos en su formato propio.

Compresión en los estudios digitales de TV

ATSC en los Estados Unidos especifica que el formato de compresión de vídeo es el Moving Pictures Expert Group’s MPEG-2 (Fig. 3). También especifica compresión AC-3 para audio. Un vídeo clip no comprimido en HDTV muestreado a 4:2:2, con 10 segundos de duración, requiere 1.2 Gb de memoria. Obviamente, para almacenar y enviar varias horas de vídeo, se requiere compresión.

El estándar ATSC permite, por diseño, una muy alta calidad de la imagen decodificada una sola vez. Si el mismo vídeo es comprimido y descomprimido varias veces, la calidad del vídeo cae rápidamente. Para salir de este problema, una compresión a varias velocidades de bit tiene que evolucionar para los estudios de TV.

Con el equipo de producción no comprimida actual, los efectos pueden ser puestos en cualquier cuadro de vídeo NTSC arbitrariamente (un director técnico que decide cortar la escena de una cámara para poner un comercial, puede hacerlo instantáneamente). Cualquier equipo de producción para vídeo comprimido debe igualar este requerimiento. Un sistema intra-codificado puede ciertamente salvar la situación: todos los cuadros intra-codificados son independientes, entonces modificar o borrar cualquier cuadro no afecta los demás en la cadena de bits.

Avances futuros en la tecnología pueden permitir el diseño de switchers de producción que operan en vídeo comprimido (solo con itra cuadros), como los splicers que permiten la inserción o edición de un cuadro en cadenas de bits comprimidos. Se trabaja aún en la búsqueda de técnicas que permitan hacer tales modificaciones.

La compresión en el estudio de TV no sólo reduce los costos de guardar y archivar, también permite transmitir vídeo grabado a otro destino más rápido que en tiempo real. La tabla 2 muestra varios modos de compresión que pueden ser necesitados en un estudio. Además, la compresión puede ser optimizada para la velocidad de bits requerida, el tipo de encodificación y decodificación y la calidad que debe ser mantenida.

Si la velocidad de bits que se usa en un estudio es entre 200 y 270 Mbps, entonces los datos comprimidos pueden ser almacenados y transmitidos por equipo con un formato no comprimido de acuerdo a la SMPTE 259. Sony y Panasonic han propuesto sistemas como estos (Tabla 3). Sus propósitos permiten equipo de escritura D1 y D5 que es actualmente muy usado para almacenar datos comprimidos. La versión de 270 Mbps de SMPTE 259 puede ser usada para almacenar y transmitir datos hasta a 200 Mbps y la versión 360 Mbps puede ser usada para velocidades de hasta 270 Mbps. Al tiempo que más equipo que soporta HDTV se expande, el digital SDTV va a dar el camino a la programación en HDTV.

Compresión en un estudio de TV

Aplicación de estudio Tasa de compresión Formato de código
Video Producción 4 :1 Cuadros I solamente
Enlaces de contribución 10 :1 Estructura de cuadro IPPP
Archivo y almacenaje 25 :1 Estructura de cuadro IPIP
Transmisión 50 :1 Estructura IPBBBBP
I=Cuadros Independientes
B=Cuadros bidireccionados
P=Cuadros predecidos
GOP=Grupo de imágenes

 

Disponibilidad de equipo NTSC
Equipo de transmisión HDTV sin comprimir HDTV comprimido
Cámara Sony, Panasonic ---
Switcher de producción Sony, Panasonic ---
Switcher ruteador --- Basado en ATM (a)
Sincronizador de cuadros --- (a)
Codificador Sony, Mitsubishi ---
Máquinas de cintas Sony, Panasonic Panasonic
Servidores --- Silicon Graphics, Sun Microsystems
Equipo para prueba de MPEG --- Tektronix, Hewlett-Packard
(a) En desarrollo.

La costura entre cuadros (splicing)

Cuando una fuente de vídeo es cambiada y reemplazada por otra fuente de vídeo, se hace una costura. Pasa seguido en los programas cuando, por ejemplo, una estación local interrumpe su alimentación de red para insertar un programa generado localmente. En el caso de escenas de vídeo no comprimidas, es relativamente fácil coser dos segmentos juntos. Todo lo que se requiere es sincronizar las dos fuentes de vídeo. El operador puede hacer un splice en los límites de cualquier cuadro porque cada cuadro en cada cadena contiene la misma cantidad de datos y los límites entre los cuadros están sincronizados.

Pero los sistemas de cadenas de bits comprimidos contienen cuadros de vídeo de tamaño diferente. El número de bits usado para representar cada cuadro puede variar dependiendo de un gran número de factores, entre los que se encuentran:

  • El tipo de codificación usada. Un cuadro predecido, codificado usando compensación de movimiento de datos de otro cuadro, requiere usualmente menos bits para codificarse que un vídeo intra-codificado que contiene toda la información necesaria para decodificar la imagen original.

  • La variabilidad en el tamaño de películas del mismo tipo. Entre más compleja sea la imagen, el número de bits necesario para codificarla será mayor.

  • La velocidad de bits que la codificación de vídeo debe cumplir. Para hacer esto, el encodificador puede cambiar arbitrariamente el número de bits que asigna a la película.

Figura 4 Sonido comprimido AC-3

La cadena a la que se va hace referencia a la cadena de la que se viene. Como las dos cadenas contienen la información I, P y B, cambiar arbitrariamente de una cadena a la otra crearía un serio desorden en el decodificador.

Usar cuadros predecidos también crea cadenas de bits en las que la correcta decodificación de cada cuadro requiere de la presencia de los demás. El punto de splicing debe ser seleccionado cuidadosamente, de manera que cada cuadro en la secuencia resultante alrededor del splice tiene toda la información necesaria para decodificarlo. Un splice exitoso entre estas dos secuencias puede darse solo en el punto indicado.

Hacer un splice es fácil entre dos escenas de vídeo no comprimido (el equipo sólo tiene que esperar la esquina vertical del cuadro (Fig. 4). Coser una cadena de bits comprimidos es más complicado porque hay un número variable de bits en los cuadros y las dos cadenas de bits raramente están alineadas. Esta operación tampoco puede ser hecha arbitrariamente por el uso de los cuadros predecidos P y B. La cadena de bits debe ser creada con los puntos de splicing marcados, para que el splicer pueda esperar una localización adecuada para hacer el splice.

Cada encodificador de vídeo debe crear también una cadena de bits que mantenga la integridad de un buffer de datos localizado en el decodificador, para prevenir desbordamiento. Este buffer, cuyo tamaño depende de la especificación MPEG, es usado para almacenar la representación comprimida de cada cuadro de vídeo hasta que sea tiempo de que ese cuadro sea decodificado.

Para proporcionar una calidad de imagen óptima, el encodificador de vídeo usa todas las ventajas del tamaño del buffer. Dos encodificadores encodifican separadamente las cadenas “de” y “a”. Individualmente, las dos cadenas no violan los límites del buffer, pero cuando se cosen, hay un desbordamiento. Esto creará un estado momentáneo de desequilibrio en el encodificador, y el proceso se alentará. Para salir de este problema, se deben poner especificaciones estrictas en los puntos de splicing. Esto da por resultado, tener ambas cadenas con igual longitud en el buffer. El splicer debe identificar los puntos de cosido y unir ambas cadenas en éstos.

En el caso de una cadena de bits de vídeo pre-encodificado, el splicer también debe poder leer información de un disco o cinta y poder crear los puntos de splicing. Un grupo de ingenieros especializados en la empaquetación de televisión de la SMPTE, está creando normas para estas situaciones.

Transmisión de televisión digital

Los primeros servicios de DTV empezaron en 1998. En este momento tenemos una combinación de televisión estándar, televisión de alta definición y datos. El uso de televisión estándar o de alta definición es definido por la transmisora, de acuerdo al tipo de programa transmitido y al público al que va dirigido. Los servicios de datos que acompañan a la SDTV o a la HDTV pueden estar o no relacionados con el programa que se transmite. Por ejemplo, los servicios de datos pueden proporcionar información adicional, como la dirección en internet del producto que se está visualizando. El usuario, si lo quiere, puede entrar a esta página usando el control remoto del receptor y visualizándola en la pantalla de la televisión.

Los primeros pasos para esta transición ya han sido hechos, y numerosos esfuerzos están realizándose con el fin de crear y probar equipo y técnicas requeridas para estos servicios. Entre éstos, tenemos:

  • El proyecto High Definition Broadcast Technology (HDBT) del NIST (National Institute of Standards and Technology). Este programa incluye buscar empresas para acelerar el desarrollo y la comercialización de nuevas tecnologías en el área de la HDTV. Algunas de las compañías participantes son Sun Microsystems, Philips y MCI. Las áreas de búsqueda son, entre otras, el desarrollo de compresión MPEG para diferentes áreas del estudio, métodos de transmisión ATM basados en la codificación MPEG y proceso de señales comprimidas.

  • El Advanced Television Systems Committee. Este es un esfuerzo conjunto de varias empresas relacionadas con los estándares de DTV, para certificar el nuevo equipo que viene al mercado.

  • La estación modelo WHD-TV. Otro esfuerzo conjunto, dirigido por Maximum Service Television y la Consumer Electronics Manufacturers Association (CEMA) y que busca promover los estándares HDTV y probar el equipo al tiempo que está disponible.

Aunque no hay muchas televisiones de alta definición disponibles aún, muchas estaciones ya trabajan digitalmente en la producción. Estas son WHD-TV (Washington), WRAL (Raleigh) y WCBS-HD (New York). Las capacidades de estas estaciones varían de la transmisión de pruebas hasta la producción y transmisión completa de programas en HDTV. WHD-TV recientemente realizó una transmisión del primer programa simulado en vivo en NTSC y HDTV.

En lo que otras transmisoras se convierten a HDTV, probablemente dos configuraciones en el estudio van a coexistir: la estación de producción completa para los mercados más grandes y transmisión en red, y la estación de paso, que es lo mínimo necesario para salir al aire digitalmente.

La estación de producción completa

La estación de producción completa (Fig. 2), debe soportar el existente equipo NTSC. Cuando sea posible, debe permitir también hacer operaciones con datos comprimidos (como almacenar y el splicing), para evitar errores de codificación y decodificación. La configuración se parece a la creada por el proyecto NIST HDBT. En este caso, una red ATM de alta velocidad transmite las cadenas de bits comprimidos por todo el estudio. Asimismo, esta red ATM transmite la intercomunicación, sonido digital y datos. Todo el equipo (servidores, encodificadores, etc.) tiene una interfaz con la red ATM, que es el switch central del estudio que reemplaza el ruteador los estudios convencionales.

El trabajo del transcodificador es convertir de un formato de compresión a otro (por ejemplo, un 155 Mbps I-P-I-P en un 45 Mbps I-P-B-B). Todos los dispositivos en la red de computadoras están controlados por la estación de trabajo (workstation) de control del estudio. Esta arquitectura también permite la conexión con otros estudios de TV con las redes existentes de telecomunicaciones. Una interface de red es necesitada para este caso.

Al principio, la producción de vídeo va a hacerse en vídeo no comprimido. Con el avance de la tecnología de compresión, más parte de la producción se hará con vídeo comprimido. La mayoría de los estudios probablemente cambiarán a vídeo comprimido, pero retendrán elementos no comprimidos para aprovechar las ventajas que éstos proporcionan.

La estación de paso

Las 1000 pequeñas estaciones de TV afiliadas en red en los Estados Unidos, dependen en gran parte de las más grandes para la mayoría de su producción. También adicionan comerciales locales para generar ganancias y proporcionar noticias e información local.

A causa de sus necesidades especiales, estas empresas pueden beneficiarse substancialmente del equipo que cose las cadenas de datos comprimidas. Estas estaciones recibirán una señal satelital de la red y sin tener que decodificar (y re-encodificar) la cadena de bits, serán capaces de introducir sus comerciales. Lo malo es que existen aún problemas técnicos que impiden que este tipo de aparatos esté disponible comercialmente. Un problema que necesita resolverse es el cómo añadir un logotipo de la estación local en el dominio comprimido.

Para las noticias locales, las pequeñas compañías pueden seguir usando el equipo NTSC, cuya salida puede ser encodificada para transmisión, usando un encodificador tradicional (Fig. 2). En esta configuración, la alimentación de la red va a ser recibida y pasada por un switcher de datos comprimidos para transmitirla localmente. El switcher debe permitir la inserción de comerciales locales a la red. Opcionalmente, también puede haber un encodificador de vídeo para permitir la entrada de señales generadas localmente en formato estándar o de alta definición. Esta configuración está abierta para permitir la inserción de nuevos equipos en la producción local.

 

WikiCiencia - CC 2000-2008 - Algunos derechos reservados - Términos y Condiciones

Firenox