Red de conocimiento del abogados - Preguntas y respuestas penales - Marco de codificación de vídeo para codificación de vídeo Full HD

Marco de codificación de vídeo para codificación de vídeo Full HD

H.261

El estándar H.261 está diseñado para RDSI y se utiliza principalmente para codificación y decodificación en tiempo real. El retraso de las señales comprimidas y descomprimidas no supera los 150 ms y la velocidad del código es px64 kbps (p = 1 ~ 30).

El estándar H.261 utiliza principalmente tecnologías de compresión como predicción entre cuadros con compensación de movimiento, transformación DCT, cuantificación adaptativa y codificación de entropía. Solo hay cuadros I y cuadros P, pero no cuadros B, y la precisión de la estimación del movimiento es solo a nivel de píxeles. Admite dos formatos de escaneo de imágenes: QCIF y CIF.

263

El estándar H.263 es un estándar internacional de velocidad de bits muy baja para codificación de imágenes. Por un lado, se basa en H.261, con codificación híbrida como núcleo. Su diagrama de bloques de principio básico es muy similar al H.261, y la organización del flujo de código y datos originales también es muy similar. Por otro lado, H.263 también absorbe algunas partes efectivas y razonables de otros estándares internacionales como MPEG, como la estimación de movimiento de precisión de medio píxel, la predicción de fotogramas PB, etc., lo que hace que su rendimiento sea mejor que H.261.

La velocidad de bits utilizada por H.263 puede ser inferior a 64 Kb/s y no es necesario que la velocidad de bits de transmisión sea fija (velocidad de bits variable). H.263 admite múltiples resoluciones: SQCIF (128x96), QCIF, CIF, 4CIF, 16CIF.

Estándares internacionales relacionados con H.261 y H.263

Estándares internacionales relacionados con H.261

H.320: Sistema de Videofonía de Banda Estrecha y equipos terminales;

H.221: Estructura de trama de canales de 64~1 920Kb/s en servicios de telecomunicaciones audiovisuales;

H.230: Control de sincronización de trama y señales de indicación para sistemas audiovisuales;

H.242: Un sistema terminal audiovisual que utiliza canales digitales de hasta 2MB/s..

Estándares internacionales relacionados con H.263

H .324: Equipo terminal de comunicación multimedia de muy baja velocidad binaria;

H.223: Protocolo compuesto de comunicación multimedia de muy baja velocidad binaria;

H.245: Protocolo de control de comunicación multimedia;

p>

G.723.1.1: Codificador de voz con velocidades de transmisión de 5,3 Kb/s y 6,3 KB/s.

Grupo Conjunto de Expertos en Fotografía

1986, La Organización Internacional de Normalización estableció el Grupo Conjunto de Expertos en Fotografía (JPEG), que se dedica principalmente a desarrollar estándares de codificación de compresión de imágenes digitales para tonos continuos, escala de grises multinivel e imágenes fijas. El método de codificación común basado en la transformada de coseno discreta (DCT) es el contenido principal del algoritmo JPEG.

MPEG-1/2

El estándar MPEG-1 se utiliza para codificar imágenes en movimiento y los sonidos que las acompañan en el almacenamiento digital. Su velocidad digital es de 1,5 Mb/s/s. El diagrama de bloques del principio de vídeo de MPEG-1 es similar al H.261.

Características de la tecnología de compresión de vídeo MPEG-1: 1. Acceso aleatorio; 2. Búsqueda de avance/rebobinado rápido; 3. Reproducción inversa; 4. Sincronización audiovisual. 5. Tolerancia a fallos. Estrategia de compresión de vídeo MPEG-1: para mejorar la relación de compresión, se debe utilizar simultáneamente la tecnología de compresión de datos de imágenes intra-cuadro/entre-cuadro. El algoritmo de compresión intracuadro es casi el mismo que el algoritmo de compresión JPEG y utiliza tecnología de codificación de transformación basada en DCT para reducir la información redundante en el dominio espacial. El algoritmo de compresión entre cuadros utiliza métodos de predicción e interpolación. El error de predicción se puede comprimir aún más mediante codificación de transformación DCT. La tecnología de codificación entre cuadros puede reducir la información redundante en la dirección del eje del tiempo.

MPEG-2 es llamado el "estándar de televisión del siglo XXI". Tiene muchas extensiones y mejoras importantes basadas en MPEG-1, pero su algoritmo básico es el mismo que el de MPEG-1.

MPEG-4

El estándar MPEG-4 no reemplaza a MPEG-2. Se centra en diferentes áreas de aplicación. La intención original de MPEG-4 era principalmente satisfacer las necesidades de compresión de velocidad de bits ultrabaja (menos de 64 Kb/s) para videoconferencias y videoteléfonos. Durante el proceso de formulación, la organización MPEG sintió profundamente que la demanda de la gente de información multimedia, especialmente información en vídeo, ha cambiado de la reproducción al acceso, recuperación y operación basados ​​en contenido.

MPEG-4 es muy diferente de JPEG y MPEG-1/2 mencionados anteriormente. Proporciona una plataforma más amplia para la compresión y codificación de datos multimedia. Define un formato y un marco en lugar de un algoritmo específico. Espera establecer un entorno más libre para la comunicación y el desarrollo. Por lo tanto, el nuevo objetivo de MPEG-4 es soportar diversas aplicaciones multimedia, especialmente la recuperación basada en contenidos y el acceso a información multimedia, y configurar decodificadores in situ según los diferentes requisitos de la aplicación. El sistema de codificación también es abierto y en cualquier momento se pueden añadir módulos de algoritmos nuevos y eficaces. Las aplicaciones incluyen comunicaciones audiovisuales en tiempo real, comunicaciones multimedia, monitoreo/vigilancia remota, video a pedido, compras/entretenimiento desde el hogar, etc. MPEG-4 tiene muchas ventajas. Su relación de compresión puede superar las 100 veces y al mismo tiempo mantener una excelente calidad de imagen y sonido; puede obtener la mejor calidad de imagen con la menor cantidad de datos y alcanzar velocidades de bits bajas;

Necesidades de aplicación; es más adecuado para servicios AV interactivos y monitoreo remoto. Para satisfacer las necesidades de diversas aplicaciones, el estándar MPEG-4 tiene una gama muy amplia de aplicaciones y tiene una amplia adaptabilidad y escalabilidad.

1. Codificación de formas

Para obtener información de formas, primero se deben analizar y segmentar los gráficos, y luego los objetos que representan diferentes contenidos se pueden dividir en formas. La información de forma suele ser binaria.

Avión alfa. El plano alfa binario se puede codificar aritméticamente (CAE) con información adyacente; el plano alfa en escala de grises se puede codificar con compensación de movimiento y transformación DCT, similar a la codificación de texturas.

Entre ellas, las transformaciones utilizadas para la compresión de imágenes incluyen la transformada discreta de Fourier (DFT), la transformada wavelet discreta (DWT), la descomposición de valores singulares (SVD), la transformada K-L, la transformada de Walsh, la transformada de Hadamard y la transformada de Ha Er. , transformada de inclinación y transformada de coseno discreto (DCT). Entre ellas, la transformada K-L tiene la mejor descorrelación y DCT es la transformación más conveniente que se acerca al efecto de la transformada K-L. Al igual que MPEG-1/2, MPEG-4 también eligió DCT. Generalmente, los métodos de codificación entrópica utilizados para la compresión de datos incluyen codificación Huffman, cuantificación vectorial, codificación aritmética, codificación de longitud de ejecución, codificación LZW, etc. Para la codificación de texturas, MPEG-4 eligió codificación de programación híbrida (VLC) con codificación de longitud de ejecución, cuantificación vectorial y codificación Huffman. La codificación de texturas pasa por transformación DCT, cuantificación, predicción DC/AC, escaneo y codificación VLC basada en Huffman.

2. Estimación y compensación de movimiento

En MPEG-4, se proporciona tecnología de compensación y estimación de movimiento basada en bloques para utilizar de manera efectiva la redundancia temporal del contenido de video en cada VOP. En general, la estimación y compensación del movimiento puede verse como una extensión de las técnicas de coincidencia de bloques para secuencias de imágenes con formas arbitrarias. El proceso de coincidencia de bloques se utiliza para macrobloques estándar; el error de predicción se codifica junto con el vector de movimiento de macrobloque utilizado para la predicción; el modo de compensación de movimiento avanzado admite compensación de movimiento de bloques superpuestos y puede codificar vectores de movimiento de bloques de 8 × 8. Para obtener una alta eficiencia de codificación para la estimación del movimiento, cuanto más similares sean las imágenes predichas, mejor, por lo que se debe realizar la compensación antes de la estimación del movimiento. Los MB en el límite objetivo se llenan primero horizontalmente y luego verticalmente, y los MB restantes completamente fuera del VOP se llenan con extensiones.

3. Codificación de textura

La textura se refiere a la información de imagen residual de la imagen I-VOP y P/B-VOP después de la compensación de movimiento. Las texturas suelen estar codificadas por compresión y codificadas por entropía en el dominio de transformación. Se han publicado editores cuasi formales: Estándar de codificación de compresión de imágenes fijas (JPEG); Estándar de codificación de compresión de almacenamiento audiovisual digital (MPEG-1);

Posteriormente, el grupo de expertos en MPEG lanzó oficialmente MPEG-4 (ISO/IEC 14496) v 1.0 en febrero de 1999. A finales del mismo año, también se completó la versión MPEG-4V2.0 y se convirtió oficialmente en un estándar internacional a principios de 2000. El estándar MPEG-4 integra muchas aplicaciones multimedia en un marco completo, con el objetivo de proporcionar algoritmos y herramientas estándar para entornos de aplicaciones y comunicación multimedia, estableciendo así datos unificados que pueden usarse ampliamente en transmisión, almacenamiento, recuperación y otros formatos multimedia. . Según los diferentes requisitos de la aplicación, el decodificador se puede configurar en el sitio y se pueden agregar módulos de algoritmos nuevos y efectivos al sistema de codificación abierto en cualquier momento. Para permitir el acceso al contenido de vídeo, MPEG-4 propone el concepto de "objetos de vídeo".

4. Flexibilidad

Actualmente, el grupo de expertos MPEG ha propuesto un esquema de codificación basado en recuperación de contenido MPEG-7 y un estándar de núcleo abierto MPEG-21 que admite específicamente información multimedia. Además, el nuevo estándar H.264 desarrollado conjuntamente por ITU-T y MPEG es el último algoritmo de codificación de vídeo. Para reducir la velocidad de bits y obtener la mejor calidad de imagen tanto como sea posible, el estándar H.264 absorbe las ventajas de MPEG-4, tiene una relación de compresión más alta y una mejor adaptabilidad de canal, y será ampliamente utilizado en los campos de la tecnología digital. Comunicación y almacenamiento de vídeo, potencial de desarrollo ilimitado.

La flexibilidad del vídeo incluye flexibilidad de espacio y flexibilidad de tiempo. La flexibilidad espacial permite diferentes resoluciones espaciales, mientras que la flexibilidad temporal permite diferentes resoluciones temporales. Hay varias capas para cada estiramiento y curvatura. En el caso de sólo dos capas, la capa inferior se refiere a la capa base y la capa superior se refiere a la capa de mejora.

5. Evitar errores

Los errores de bits en los códigos VLC pueden causar pérdida de sincronización y la compensación de movimiento puede causar transmisiones erróneas. La prevención de errores en MPEG-4 incluye tres aspectos: resincronización, recuperación de datos y ocultación de errores. La resincronización se refiere a la tecnología de resincronización entre el decodificador y el flujo de código después de que se detecta un error. Generalmente, este enfoque descarta datos entre el punto de sincronización previo al error y el punto de sincronización reconstruido. Sin embargo, estos datos descartados se pueden recuperar mediante otras técnicas y se puede lograr la ocultación de errores. Las herramientas de recuperación de datos se utilizan para recuperar datos descartados después de la resincronización del decodificador y del tren codificado. Estas herramientas no se recuperan simplemente mediante código tolerante a fallos, sino mediante medios para evitar errores, concretamente la codificación VLC de palabras de código VLC reversibles. Después de que la resincronización localice efectivamente el error, la ocultación del error se puede manejar fácilmente. Para mejorar aún más la capacidad de ocultar errores, es necesario aumentar la capacidad de localización de errores. En particular, se puede utilizar la segmentación de datos para mejorar la capacidad de localización de errores.

JVT: Estándar de compresión de vídeo de nueva generación

JVT es un grupo de vídeo conjunto establecido por ISO/IEC MPEG y ITU-T VCEG y está comprometido a desarrollar una nueva generación de compresión de vídeo digital. estándares.

El nombre oficial del estándar JVT en ISO/IEC es: estándar MPEG-4 AVC (parte 10); el nombre en ITU-T: H.264 (anteriormente conocido como H.26L)

H264/AVC

H264 combina las ventajas de estándares anteriores y absorbe la experiencia acumulada en la formulación de estándares anteriores. El diseño es simple y más fácil de promocionar que MPEG4-4. H.264 fue pionero en nuevas tecnologías de compresión, como cuadros de referencia múltiple, tipos de bloques múltiples, transformación de enteros y predicción intracuadro, y utilizó vectores de movimiento de subpíxeles más finos (1/4, 1/8) y una nueva generación de filtros de bucle., mejorando enormemente el rendimiento de la compresión y mejorando el sistema.

H.264 tiene las siguientes ventajas:

-Compresión eficiente: en comparación con H.263+ y MPEG-4SP, la velocidad de código se reduce en un 50%.

-Buena flexibilidad en cuanto a limitaciones de tiempo.

-Tolerancia a fallos

-Complejidad y escalabilidad de codificación/decodificación

-Decodificación en todos sus detalles: sin desajustes.

-Aplicación de alta calidad

-Amigable con la red

Tecnología de codificación de video en vigilancia

En la actualidad, MJPEG, varias codificaciones de video tecnologías como MPEG1/2, MPEG4 (SP/ASP) y H.264/AVC. Para el usuario final, sus principales preocupaciones son: claridad, capacidad de almacenamiento (ancho de banda), estabilidad y precio. El uso de diferentes técnicas de compresión puede afectar en gran medida los factores anteriores.

MJPEG

La tecnología de compresión MJPEG (Motion JPEG) se basa principalmente en la compresión de vídeo estático. Su característica principal es que básicamente no considera los cambios entre diferentes cuadros en la transmisión de video y solo comprime un cuadro determinado.

La tecnología de compresión MJPEG puede obtener imágenes de vídeo de alta definición y ajustar dinámicamente la velocidad de fotogramas y la resolución. Sin embargo, dado que no se consideran los cambios entre fotogramas, se almacena repetidamente una gran cantidad de información redundante, por lo que un solo fotograma de vídeo ocupa una gran cantidad de espacio. La actualmente popular tecnología MJPEG sólo puede alcanzar un máximo de 3 kilobytes por cuadro, normalmente entre 8 y 20 kilobytes.

MPEG-1/2

El estándar MPEG-1 apunta principalmente a la resolución del estándar SIF (el formato NTSC es 352X240; el formato PAL es 352X288). El objetivo principal de la velocidad de bits de compresión es 1,5 Mb/s/s. En comparación con la tecnología MJPEG, MPEG1 tiene mejoras significativas en la compresión en tiempo real, el volumen de datos por cuadro y la velocidad de procesamiento. Pero MPEG1 también tiene muchas deficiencias: la capacidad de almacenamiento sigue siendo demasiado grande, la definición no es lo suficientemente alta y la transmisión por red es difícil.

MPEG-2 se ha ampliado y actualizado sobre la base de MPEG-1. La compatibilidad con versiones anteriores de MPEG-1 se utiliza principalmente en medios de almacenamiento, televisión digital, alta definición y otros campos de aplicaciones. Las resoluciones son: baja (352x288), media (720x480) y segunda alta (1440x65438). En comparación con MPEG-1, el vídeo MPEG-2 tiene una resolución mejorada y cumple con los requisitos de alta definición de los usuarios. Sin embargo, debido a la pequeña mejora en el rendimiento de la compresión, la capacidad de almacenamiento sigue siendo demasiado grande y no es adecuada para la transmisión por red.

MPEG-4

En comparación con MPEG-1/2, el algoritmo de compresión de vídeo MPEG-4 tiene mejoras significativas en la compresión de baja velocidad de bits. En el caso de CIF (352*288) o de mayor definición (768*576), la compresión de vídeo tiene mayores ventajas que MPEG-1 en términos de definición y capacidad de almacenamiento, y es más adecuada para la transmisión en red. Además, MPEG-4 puede ajustar fácilmente y dinámicamente la velocidad de fotogramas y la velocidad de bits para reducir la capacidad de almacenamiento.

Debido a que el diseño del sistema de MPEG-4 es demasiado complejo, es difícil que MPEG-4 sea completamente compatible y también es difícil implementarlo en campos como la videoconferencia y la videotelefonía, que se desvía de la intención original. Además, las empresas chinas tienen que afrontar el problema de las elevadas tasas de patentes. Normativa vigente:

-Cada dispositivo decodificador debe pagar MPEG-LA 0,25.

-Los equipos de codificación y decodificación también deben pagarse por tiempo (4 centavos/día = 1,2 USD/mes = 14,4 USD/año).

H.264/AVC

H.264 combina las ventajas de los estándares anteriores y ha logrado grandes avances en muchos campos, lo que le permite obtener resultados mucho mejores que los estándares anteriores. :

-En comparación con H.263+ y MPEG-4 SP, puede ahorrar hasta un 50% de velocidad de bits y reducir en gran medida la capacidad de almacenamiento;

H.264 puede proporcionar un alto calidad de vídeo en diferentes resoluciones y velocidades de bits;

-Adopta una estructura y sintaxis "compatibles con la red" para hacerlo más propicio para la transmisión de red.

H.264 adopta un diseño simple, es más fácil de popularizar que MPEG4-4, es más fácil de implementar en videoconferencias y videoteléfonos, es más fácil de lograr la interconexión y se puede integrar fácilmente con G.729. , etc. La compresión de voz de baja tasa de bits se combina para formar un sistema completo.

MPEG LA ha absorbido los elevados costes de patentes de MPEG-4 y es difícil de popularizar.

MPEG LA ha establecido los siguientes estándares de carga H.264 de bajo costo: H.264 es básicamente gratuito cuando se reproduce, cuando el códec H.264 está integrado en un producto, la producción anual es inferior a 654,38 millones de unidades; la producción anual es de 0,2 dólares estadounidenses por más de 654,38 millones de unidades, 0,1 dólares estadounidenses por más de 5 millones de unidades. Las bajas tarifas de patentes facilitan la globalización de los productos de vigilancia H.264 de China.