Cada vez son más los usuarios que se suscriben a la transmisión de contenidos multimedia a la carta y utilizan la transmisión de vídeo en directo a través de Internet, en lugar de la televisión. Este cambio ha llevado a la necesidad de una tecnología altamente especializada para apoyar la transcodificación de medios de comunicación de rendimiento crítico y las funcionalidades de streaming OTT.
Recientemente hemos lanzado Accelerated Compute, nuestra nueva solución informática que proporciona acceso a circuitos integrados para aplicaciones específicas (ASIC) en la nube, empezando por las unidades de procesamiento de vídeo (VPU) NETINT Quadra. Las VPU son hardware especializado diseñado para codificar y descodificar medios de forma más eficiente y con un consumo de energía drásticamente menor que la transcodificación GPU CPU o GPU.
En este blog, aprenderás conceptos de diseño de hardware de alto nivel que hacen que una VPU funcione de forma diferente a sus homólogas conocidas CPU y GPU .
Términos clave del flujo de trabajo de las aplicaciones multimedia
- Codificación de medios: Proceso de conversión de secuencias o archivos de audio, vídeo e imagen de un formato a otro, al tiempo que se comprime el archivo original para reducir su tamaño y mantener la calidad.
- Descodificación de medios: El proceso de convertir un archivo o flujo multimedia a su formato reproducible.
- Transcodificación de medios: Proceso integral de conversión de medios a distintos tipos de archivo (incluida la codificación y descodificación) combinado con funciones personalizadas como la reducción de la resolución, el ajuste de la velocidad de bits o el cambio de los estándares de códec para adaptarse a las condiciones cambiantes de la red y los entornos de reproducción.
Avances en hardware
A medida que evoluciona la tecnología, las operaciones que provocan tensiones específicas en el hardware subyacente hacen que los fabricantes utilicen nuevas combinaciones de materiales para añadir nuevas funcionalidades y niveles de rendimiento basados en lo que el hardware puede soportar. La innovación, el diseño y la producción de hardware se basan en la optimización de la fuente de alimentación y las materias primas utilizadas en los circuitos y componentes individuales.
En general, dos elementos principales definen los avances en el diseño y la tecnología de las unidades procesadoras:
- Empaquetamiento más denso de los elementos del circuito en cada chip (o, avance en el uso del espacio físico del chip).
- Ampliar las capacidades inherentes de los microprocesadores implementados en esos chips (o, avanzar en lo que los propios chips pueden hacer como hardware listo para usar).
Componentes de arquitectura
El siguiente diagrama ilustra la cantidad y proporción de los distintos circuitos y motores en una CPU frente a una GPU frente a una VPU (a nivel conceptual). Las GPU están diseñadas para estar densamente empaquetadas con unidades aritméticas lógicas o ALU para el procesamiento paralelo, lo que hace que las GPU sean más eficientes para cargas de trabajo como el renderizado de gráficos y el aprendizaje automático. En comparación, las unidades de procesamiento de vídeo o VPU cuentan con circuitos de función fija programados para realizar tareas específicas basadas en medios como codificación, descodificación, escalado y otras funciones necesarias para tareas de codificación y procesamiento de vídeo.

- Control: Circuito digital síncrono (los eventos se ejecutan en un orden especificado) dedicado a interpretar las instrucciones del procesador y a gestionar la ejecución de dichas instrucciones.
- Unidad aritmética lógica (ALU): Circuito digital combinacional (los eventos y la lógica se aplican "según sea necesario") que responde a la entrada de datos para realizar una lógica compleja.
- Caché: Caché local para acceso a datos de baja latencia.
- Procesamiento de vídeo de función fija: Circuitos dedicados a realizar tareas específicas y predefinidas con hipereficacia y bajo consumo.
- Motor de IA: Un bloque de computación especializado dedicado a tareas de inteligencia artificial (IA) maximizando el procesamiento de matrices y vectores.
Por qué es importante
Aparte de la potencia de procesamiento pura, las cargas de trabajo de transcodificación requieren hardware especializado para obtener la máxima eficiencia. Según los comentarios de los clientes durante nuestro periodo beta, los usuarios descubrieron que los planes de Dedicated CPU alcanzaban un máximo de 2-4 flujos simultáneos, en comparación con los 30 flujos simultáneos que se conseguían en las instancias aceleradas con VPU. Además del ahorro general de costes, la mayor densidad permite a las organizaciones de medios de comunicación y a los socios técnicos reducir su coste por flujo.
Acceder a las VPU en la nube también significa que puede cambiar el tamaño según sea necesario, o añadir la potencia de procesamiento dedicada que sólo puede obtener con las VPU a medida que su aplicación escala o durante las horas punta.
Empiece a utilizar las instancias aceleradas de Akamai Cloud creando una cuenta o póngase en contacto con nuestros consultores de cloud computing para obtener más información.
Comentarios