Codificación de video probada: las GPU de AMD todavía van a la zaga de Nvidia e Intel (actualizado)

Noticias

HogarHogar / Noticias / Codificación de video probada: las GPU de AMD todavía van a la zaga de Nvidia e Intel (actualizado)

Oct 22, 2023

Codificación de video probada: las GPU de AMD todavía van a la zaga de Nvidia e Intel (actualizado)

Codificación AVC, HEVC y AV1 puesta a prueba Las mejores tarjetas gráficas no son solo

Codificación AVC, HEVC y AV1 puesta a prueba

Las mejores tarjetas gráficas no son solo para jugar. El entrenamiento y la inferencia de inteligencia artificial, las aplicaciones profesionales, la codificación y decodificación de video pueden beneficiarse de tener una mejor GPU. Sí, los juegos siguen recibiendo la mayor atención, pero también nos gusta mirar otros aspectos. Aquí nos centraremos específicamente en el rendimiento y la calidad de codificación de video que puede esperar de varias generaciones de GPU. En términos generales, los bloques de codificación/descodificación de video para cada generación de GPU funcionarán todos de la misma manera, con una pequeña variación dependiendo de velocidades de reloj para el bloque de video. Verificamos el RTX 3090 Ti y el RTX 3050 como ejemplo, las GPU más rápidas y lentas de la generación de la serie Ampere RTX 30 de Nvidia, y efectivamente no encontramos ninguna diferencia. Afortunadamente, eso nos deja con menos GPU para mirar de las que se requerirían de otra manera. Probaremos las RTX 4090, RTX 3090 y GTX 1650 de Nvidia del equipo verde, que cubre Ada Lovelace, Turing/Ampere (funcionalmente idénticas) y Codificadores de video de la era Pascal. Para Intel, estamos buscando GPU de escritorio, con el Arc A770 y el UHD 770 integrado. AMD termina con la distribución más amplia, al menos en términos de velocidades, por lo que terminamos probando el RX 7900 XTX, RX 6900 XT, RX 5700 XT, RX Vega 56 y RX 590. También queríamos comprobar cómo les va a los codificadores de GPU frente a la codificación de software basada en CPU, y para ello utilizamos Core i9-12900K y Core i9-13900K.Actualización 3/09/2013: Las puntuaciones iniciales de VMAF se calcularon al revés, lo que significa que usamos el video "distorsionado" como el video de "referencia", y viceversa. ¡Esto, no hace falta decirlo, condujo a puntajes VMAF mucho más altos de lo previsto! Desde entonces, hemos vuelto a calcular todas las puntuaciones de VMAF. Si se lo está preguntando, es un proceso muy intensivo desde el punto de vista computacional y lleva unos 30 minutos por GPU en un Core i9-13900K. La buena noticia es que nuestros gráficos están corregidos ahora. La mala noticia (además de la publicación de los resultados inicialmente incorrectos) es que eliminamos el archivo torrent inicial y lo estamos actualizando con un nuevo archivo que incluye los registros de los nuevos cálculos de VMAF. Además, los puntajes fueron más bajos, por lo que si estaba pensando que las codificaciones 4K a 60 fps a 16 Mbps básicamente coincidirían con la calidad original, ese es solo el caso de manera selectiva (dependiendo del video de origen).

La mayoría de nuestras pruebas se realizaron con el mismo hardware que usamos para nuestras últimas revisiones de tarjetas gráficas, pero también realizamos la prueba de CPU en la PC 12900K que impulsa nuestra jerarquía de puntos de referencia de GPU 2022. Como una prueba de codificación de CPU más extenuante, también ejecutamos el 13900K con un preajuste de codificación de mayor calidad, pero más sobre eso en un momento.

PC INTEL DE 13.ª GENERACIÓN Intel Core i9-13900KMSI MEG Z790 Ace DDR5G.Skill Trident Z5 2x16GB DDR5-6600 CL34Sabrent Rocket 4 Plus-G 4TB¡Silencio! 1500W Dark Power Pro 12Cooler Master PL360 FluxWindows 11 Pro de 64 bitsPC INTEL DE 12.ª GENERACIÓNIntel Core i9-12900KMSI Pro Z690-A WiFi DDR4Corsair 2x16GB DDR4-3600 CL16Crucial P5 Plus 2TBCooler Master MWE 1250 V2 GoldCorsair H150i Elite CapellixCooler Master HAF500Windows 11 Pro 64 bits

Para nuestro software de prueba, hemos encontrado que ffmpeg nightly es la mejor opción actual. Es compatible con todos los codificadores de video más recientes de AMD, Intel y Nvidia, se puede configurar con relativa facilidad y también proporciona la funcionalidad VMAF (Fusión de evaluación de métodos múltiples de video) que estamos usando para comparar la calidad de la codificación de video. Sin embargo, tuvimos que usar la última versión oficial, 5.1.2, para nuestras pruebas de Nvidia Pascal (la compilación nocturna falló en la codificación HEVC). Estamos haciendo una codificación de un solo paso para todas estas pruebas, ya que estamos utilizando el hardware proporcionado por las diversas GPU y no siempre es capaz de manejar instrucciones de codificación más complejas. La codificación de video GPU generalmente se usa para cosas como la transmisión en vivo de juegos, mientras que si desea la mejor calidad, generalmente debe optar por la codificación basada en CPU con un CRF (factor de velocidad constante) alto de 17 o 18, aunque eso por supuesto resulta en archivos mucho más grandes y tasas de bits promedio más altas. Sin embargo, todavía hay muchas opciones que vale la pena discutir. AMD, Intel y Nvidia tienen diferentes "ajustes preestablecidos" para la calidad, pero no siempre está claro qué son exactamente estos ajustes preestablecidos o qué hacen. NVENC de Nvidia en ffmpeg usa "p4" como predeterminado. Y cambiar a "p7" (calidad máxima) hizo poco por los puntajes de VMAF, mientras que redujo el rendimiento de codificación entre un 30 y un 50 por ciento. AMD opta por una configuración de "calidad" de "velocidad" para su codificador, pero también probamos con "equilibrado" y, al igual que Nvidia, la configuración máxima de "calidad" redujo mucho el rendimiento pero solo mejoró las puntuaciones VMAF en 1~2 por ciento. Por último, Intel parece usar un ajuste preestablecido de "medio" y descubrimos que es una buena opción: "muy lento" tardó casi el doble en codificar con poca mejora en la calidad, mientras que "muy rápido" fue moderadamente más rápido pero degradó bastante la calidad. bit. En última instancia, optamos por dos conjuntos de pruebas. Primero, tenemos la configuración de codificador predeterminada para cada GPU, donde lo único que especificamos fue la tasa de bits objetivo. Incluso entonces, existen ligeras diferencias en el tamaño de los archivos codificados (alrededor de un margen de +/-5 %). En segundo lugar, después de consultar con el subreddit de ffmpeg, intentamos ajustar las GPU para obtener configuraciones de codificación un poco más consistentes, especificando un tamaño de GOP igual a dos segundos ("-g 120" para nuestros videos de 60 fps). AMD fue el mayor benefactor de nuestra afinación, cambiando la velocidad por puntajes VMAF aproximadamente entre un 5 y un 10 por ciento más altos. Pero, como verá, AMD todavía estaba detrás de las otras GPU. Hay muchos otros parámetros de ajuste potenciales, algunos de los cuales pueden cambiar bastante las cosas, otros que parecen lograr muy poco. No apuntamos a la calidad de archivo, por lo que optamos por ajustes preestablecidos más rápidos que usan las GPU, pero es posible que revisemos las cosas en el futuro. Haga sonar en nuestros comentarios si tiene recomendaciones alternativas para la mejor configuración para usar en las distintas GPU, con una explicación de lo que hacen las configuraciones. Tampoco está claro cómo la configuración y la calidad de ffmpeg se comparan con otros posibles esquemas de codificación, pero eso está más allá del alcance de esta prueba. Estas son las configuraciones que usamos, tanto para la codificación predeterminada como para la codificación "sintonizada".

AMD:Predeterminado: ffmpeg -i [fuente] -c:v [h264/hevc/av1]_amf -b:v [tasa de bits] -y [salida] Sintonizado: ffmpeg -i [fuente] -c:v [h264/hevc/av1 ]_amf -b:v [tasa de bits] -g 120 -calidad equilibrada -y [salida]

Intel:Predeterminado: ffmpeg -i [fuente] -c:v [h264/hevc/av1]_qsv -b:v [tasa de bits] -y [salida] Sintonizado: ffmpeg -i [fuente] -c:v [h264/hevc/av1 ]_amf -b:v [tasa de bits] -g 120 -medio preestablecido -y [salida]

Nvidia:Predeterminado: ffmpeg -i [fuente] -c:v [h264/hevc/av1]_nvenc -b:v [tasa de bits] -y [salida] Sintonizado: ffmpeg -i [fuente] -c:v [h264/hevc/av1 ]_nvenc -b:v [tasa de bits] -g 120 -no-scenecut 1 -y [salida]

La mayoría de nuestros intentos de configuraciones "sintonizadas" en realidad no mejoraron la calidad o la velocidad de codificación, y algunas configuraciones parecían causar que ffmpeg (o nuestra PC de prueba) simplemente fallara por completo. Lo principal de la configuración anterior es que mantiene constante el intervalo de fotogramas clave y, potencialmente, proporciona una calidad de imagen ligeramente superior. Nuevamente, si tiene algunas configuraciones mejores que recomendaría, publíquelas en los comentarios; estamos felices de darles una oportunidad. Lo principal es que queremos que las tasas de bits se mantengan iguales y queremos velocidades de codificación razonables de al menos tiempo real (es decir, 60 fps o más) para las GPU de última generación. Dicho esto, por ahora nuestra configuración "ajustada" terminó siendo tan cercana a la configuración predeterminada, con la excepción de las GPU AMD, que solo mostraremos esos gráficos. Con el preámbulo fuera del camino, aquí están los resultados. Tenemos cuatro videos de prueba, tomados del juego capturado de Borderlands 3, Far Cry 6 y Watch Dogs Legion. Realizamos pruebas a 1080p y 4K para Borderlands 3 y a 4K con los otros dos juegos. También tenemos tres códecs: H.264/AVC, H.265/HEVC y AV1. Tendremos dos gráficos para cada configuración y códec, comparando la calidad usando VMAF y mostrando el rendimiento de la codificación. Como referencia, los puntajes de VMAF siguen una escala de 0 a 100, con 20 como "malo", 40 equivale a "pobre", 60 califica como "regular", 80 como "bueno" y 100 es "excelente". En general, las puntuaciones de 90 o más son deseables, y 95 o más son casi indistinguibles del material de origen original. Hay mucha superposición en las puntuaciones de VMAF, por lo que si no puede ver una de las líneas, consulte las tablas más abajo. que muestran los números sin procesar, o simplemente recuerde que las GPU de generaciones adyacentes a menudo tienen casi la misma calidad. Si no desea intentar analizar la tabla completa a continuación, las generaciones RDNA 2 y RDNA 3 de AMD tienen resultados idénticos para la calidad de codificación H.264, aunque el rendimiento difiere bastante. La GTX 1080 Ti y la GTX 1650 de Nvidia también cuentan con una calidad idéntica tanto en H.264 como en HEVC, mientras que la RTX 2080 Ti y la RTX 3090 tienen una calidad idéntica en HEVC.

Comenzando con un video de Borderlands 3 a 1080p, hay algunas tendencias interesantes que veremos en otros lugares. Estamos discutiendo los resultados "afinados", ya que son un poco más manzanas con manzanas entre las GPU. Comencemos con AVC/H.264, que sigue siendo el códec más popular. A pesar de que ha existido durante aproximadamente una década y desde entonces ha sido superada en calidad, su estado efectivamente libre de regalías hizo que se adoptara ampliamente. Las GPU de AMD se ubican en la parte inferior de nuestras listas en esta prueba, con Polaris, Vega y RDNA 1 generaciones de hardware con el mismo rendimiento en términos de calidad. RDNA 2 mejoró un poco la codificación, principalmente con un aumento de la calidad en tasas de bits más bajas en aproximadamente un 10%. RDNA 3 parece usar la misma lógica que RDNA 2 para H.264, con puntajes empatados en 6900 XT y 7900 XTX que son un poco más altos que las otras tarjetas AMD a 3 Mbps, pero los resultados de 6 Mbps y 8 Mbps no cambian. Las implementaciones de H.264 aparecen como las mejores soluciones, en términos de calidad, con Arc de Intel solo un poco por detrás; sería difícil notar la diferencia en la práctica. Las GPU Turing, Ampere y Ada funcionan un poco mejor que el codificador de video Pascal anterior, pero no parece haber mejoras importantes en la calidad. Con nuestra configuración "media" elegida en la codificación de la CPU, el códec libx264 termina estando más o menos al nivel de los gráficos UHD 770 (Xe LP) de AMD, solo un toque por detrás del codificador más antiguo de la era Pascal de Nvidia, al menos para estas pruebas de 1080p. puede superar los 60 fps para la transmisión en vivo, el RTX 4090 fue el más rápido con casi 500 fps, aproximadamente un 15 % por delante del RTX 2080 Ti, RTX 3090 y RX 7900 XTX. Intel Arc ocupa el tercer lugar, luego Pascal de Nvidia en la GTX 1650, seguido de la RX 6900 XT, y luego la GTX 1080 Ti toma a Pascal. Tenga en cuenta que la GTX 1080 Ti y la GTX 1650 tuvieron resultados de calidad idénticos, por lo que la diferencia es solo en los relojes del motor de video. Curiosamente, el Core i9-13900K puede codificar a 1080p más rápido que el antiguo RX Vega 56, que también es tan rápido como los gráficos integrados UHD en el Core i9-13900K. El antiguo RX 590 de AMD trae el furgón de cola, a poco más de 100 fps. Por otra parte, eso probablemente no estaba tan mal en la era 2016-2018.

Cambiar a HEVC proporciona un aumento sólido en la calidad de la imagen, y ha existido durante tanto tiempo que prácticamente cualquier PC moderna debería tener un soporte de codificación de GPU decente. Lo único que realmente dificulta su adopción en más aplicaciones son las regalías, y una gran cantidad de software optó por quedarse con H.264 para evitar eso. En cuanto a la clasificación, las diversas GPU de AMD nuevamente caen por debajo del resto de las opciones en esta prueba , pero están un poco más cerca que en H.264. El motor de video RDNA 3 es ligeramente mejor que la versión RDNA 1/2, pero curiosamente las antiguas GPU Polaris y Vega básicamente coinciden con RDNA 3 aquí. Nvidia ocupa el segundo lugar, con los motores de video Turing, Ampere y Ada básicamente vinculados a la calidad HEVC . La arquitectura Xe-LP de la generación anterior de Intel en UHD 770 también coincide con las GPU Nvidia más nuevas, seguida de la generación Pascal más antigua de Nvidia y luego los resultados "medios" libx265 basados ​​​​en CPU. Pero el gran ganador para la calidad HEVC termina siendo la arquitectura Arc de Intel. No es una gran victoria, pero claramente supera a las otras opciones en todas las tasas de bits. Con una tasa de bits de 8 Mbps, muchas de las tarjetas también alcanzan el punto de estar muy cerca (perceptivamente) del material de origen original, y Arc logra una puntuación VMAF de 92.1. Para nuestras configuraciones probadas, los resultados de CPU y Nvidia Pascal son básicamente empatado, con un 3 ~ 5% por encima del 7900 XTX. El Arc A770 de Intel apenas supera al RTX 4090/3090 en números puros, con una ventaja de 0,5 a 1,9 %, según la tasa de bits. También tenga en cuenta que con puntajes de 95–96 a 8 Mbps, las GPU Arc, Ada y Ampere logran codificaciones que serían prácticamente indistinguibles del material de origen. El rendimiento es un poco interesante, especialmente si se observan las generaciones de hardware. Los modelos de GPU más antiguos generalmente eran más rápidos en HEVC que en la codificación H.264, a veces por un margen bastante considerable: mire el RX 590, GTX 1080 Ti y GTX 1650. Pero el RTX 2080 Ti, RTX 3090 y RTX 4090 son más rápidos en H.264, por lo que la generación de Turing y posteriores parecen haberle quitado prioridad a la velocidad de HEVC en comparación con Pascal. Mientras tanto, Arc ofrece un rendimiento superior con HEVC, mientras que el Xe-LP UHD 770 lo hace mucho mejor con H.264. Hay un gran cambio en la calidad general, particularmente en la tasa de bits más baja de 3 Mbps. Los peores resultados de VMAF están ahora a mediados de los 60, con la CPU, las GPU Nvidia y las GPU Intel manteniéndose por encima de 80. Pero veamos si AV1 puede hacerlo mejor.

¿Es AV1 mejor que HEVC en calidad? Tal vez, dependiendo de qué GPU (o CPU) estés usando. En general, AV1 y HEVC ofrecen una calidad casi equivalente, al menos para las cuatro muestras que tenemos. Hay algunas diferencias, pero mucho de eso se debe a las diversas implementaciones de los códecs. El RDNA 3 de AMD, por ejemplo, funciona mejor con AV1 que con HEVC por 1 o 2 puntos. Las tarjetas Ada de Nvidia logran sus mejores resultados hasta el momento, con una mejora de aproximadamente 2 puntos sobre HEVC. Las GPU Arc de Intel van por el otro lado y obtienen una puntuación de 2 a 3 puntos más baja en AV1 que en HEVC. En cuanto a los resultados de la CPU del códec libsvtav1, básicamente está empatado con HEVC a 8 Mbps, pero tiene una ventaja de 1,6 puntos a 6 Mbps y tiene una ventaja relativamente importante de 5 puntos a 3 Mpbs. Dado el costo de las tarjetas de la serie RX 7900 y RTX 40, el La única opción práctica de AV1 en este momento para muchas personas serán las GPU Arc. Por cierto, el A380 entregó resultados de calidad idénticos a los del A770 (hasta seis decimales), y en realidad fue un poco más rápido, probablemente porque la tarjeta A380 de Gunnir que usamos tiene overclock de fábrica. Alternativamente, puede optar por la codificación AV1 basada en CPU, que casi coincide con los codificadores de GPU y aún se puede hacer a más de 200 fps en un 13900K. Eso suponiendo que quiera molestarse con AV1, que en esta etapa todavía no tiene tan extendido de soporte como HEVC. (Intente colocar un archivo AV1 en Adobe Premiere, por ejemplo). También es interesante lo exigente que puede ser la codificación HEVC en la CPU, donde AV1, en comparación, parece bastante "fácil". En algunos casos (a 4K), la codificación de la CPU de AV1 fue en realidad más rápida que la codificación H.264, aunque eso obviamente dependerá de la configuración utilizada para cada uno, así como de su CPU en particular.

Pasando a la codificación 4K, las demandas de tasa de bits con H.264 se vuelven significativamente más altas que con 1080p. Con 8 Mbps, Arc de Intel obtiene los máximos honores con una puntuación de solo 65, mientras que las GPU Ada/Ampere/Turing de Nvidia (que tuvieron efectivamente los mismos resultados de VMAF) aterrizan en alrededor de 57, justo con Intel UHD 770. El codificador de generación Pascal de Nvidia obtiene 54 , luego el codificador de CPU viene a continuación en 48. Finalmente, RDNA 2/3 de AMD obtiene 44 puntos, mientras que las GPU más antiguas de AMD son bastante malas con solo 33 puntos. Aumentar la tasa de bits a 12Mbps y 16Mbps ayuda bastante, naturalmente, aunque incluso el el mejor resultado para la codificación 4K H.264 con 16 Mbps sigue siendo solo 80: un resultado "bueno", pero no mejor que eso. Podría arreglárselas con 16 Mbps a 4K y 60 fps en un abrir y cerrar de ojos, pero realmente necesita un códec moderno para manejar mejor las resoluciones más altas con tasas de bits moderadas. AMD hizo mejoras con RDNA 2, mientras que RDNA 3 parece usar el mismo algoritmo central (idéntico puntuaciones entre la 6900 XT y la 7900 XTX), solo que con un mayor rendimiento. Pero las ganancias obtenidas con respecto a las GPU AMD anteriores se materializan principalmente en las tasas de bits más bajas; por 16 Mbps, el último 7900 XTX solo obtiene 1 o 2 puntos más que la GPU Vega en el peor de los casos. El rendimiento de codificación en 4K es mucho más exigente, como se esperaba. La mayoría de las soluciones son aproximadamente 1/3 de la velocidad de 1080p y, en algunos casos, incluso pueden estar cerca de 1/4 del rendimiento. Las GPU Polaris más antiguas de AMD no pueden administrar ni siquiera 30 fps según nuestras pruebas, mientras que las tarjetas Vega están muy por debajo de los 60 fps. El Core i9-13900K se conecta a alrededor de 80 fps, aunque si está jugando un juego, es posible que no desee dedicar tanta potencia de CPU a la tarea de codificación de video.

La codificación HEVC y AV1 se diseñó para escalar hasta 4K y más, y nuestros gráficos demuestran este punto muy bien. HEVC y AV1 con 8 Mbps generalmente pueden superar la calidad de H.264 con 12 Mbps. Todas las GPU (y la CPU) también pueden romper 80 en la escala VMAF con 16 Mbps, con los mejores resultados coqueteando con puntajes de 90. Si busca calidad de imagen, el último codificador RDNA 3 de AMD aún se queda atrás. Puede ser razonablemente rápido en la codificación, pero incluso el hardware de la era Pascal de Nvidia generalmente ofrece resultados superiores en comparación con cualquier cosa que tenga AMD, al menos con nuestras pruebas ffmpeg. Incluso la GTX 1650 con HEVC puede superar las puntuaciones AV1 de AMD, en cada tasa de bits, aunque la 7900 XTX obtiene una puntuación de 2 a 3 puntos más alta con AV1 que con HEVC. Mientras tanto, el codificador de la serie RTX 40 de Nvidia gana en calidad general absoluta, con sus resultados AV1 superando los resultados HEVC de Intel en 4K en las diversas tasas de bits. AMD nos ha informado que está trabajando con ffmpeg para obtener algunas mejoras de calidad en el código, y nosotros Habrá que ver cómo va eso. No sabemos si mejorará mucho la calidad, poniendo a AMD a la altura de Nvidia, o si será solo uno o dos puntos. Aún así, cada pequeña mejora es buena. HEVC y AV1 no son realmente mejores que H.264 desde la perspectiva del rendimiento. El 7900 XTX de AMD alcanza los 200 fps con AV1, el más rápido del grupo por un margen bastante amplio, lo que nuevamente nos deja algunas esperanzas de mejoras en la calidad. De lo contrario, para HEVC 4K, necesitará una tarjeta Nvidia Pascal o posterior, una tarjeta AMD RDNA o posterior, o Arc de Intel para manejar la codificación 4K a más de 60 fps (suponiendo que su GPU realmente pueda generar cuadros tan rápido para la transmisión en vivo). Observe también los resultados de la CPU para HEVC frente a AV1 en lo que respecta al rendimiento. Algo de eso se deberá al codificador seleccionado (libsvtav1 y libx265), así como al preajuste seleccionado. Aún así, considerando lo cerca que están los resultados de VMAF para la codificación HEVC y AV1 a través de la CPU, con más del doble de rendimiento, sin duda puede presentar un buen argumento para la codificación AV1 aquí, y en realidad es más rápido que nuestros resultados libx264, posiblemente debido a una mejor multi - Escalado de subprocesos en el algoritmo.

Los resultados con nuestros otros dos videos de juegos en 4K no son sustancialmente diferentes a los que vimos con Borderlands 3 en 4K. Far Cry 6 termina con puntajes VMAF más altos en los tres códecs, con algunas variaciones menores en el rendimiento, pero eso es todo lo que tenemos que agregar a la historia. Es un momento para analizar los gráficos UHD Graphics 770 integrados de Intel con más detalle: los gráficos integrados en las CPU Alder Lake de 12.ª generación y Raptor Lake de 13.ª generación. La calidad es un poco más baja que Arc, con los resultados de H.264 generalmente entre Pascal de Nvidia y la generación más reciente de Turing/Ampere/Ada en términos de puntajes VMAF. La codificación HEVC, por otro lado, está solo 1 o 2 puntos detrás de Arc y las GPU Nvidia en la mayoría de los casos. El rendimiento es una historia diferente, y es mucho más bajo de lo que esperábamos, mucho menos de la mitad de lo que Arc puede hacer. De acuerdo, Arc tiene dos motores de video, pero el UHD 770 solo maneja de 44 a 48 fps a 4K con H.264, y eso se reduce a 24 a 27 fps con codificación HEVC. Para la codificación HEVC, la codificación de la CPU 12900K fue más rápida, y con AV1 fue aproximadamente tres veces más rápida que el resultado HEVC del UHD 770 y, al mismo tiempo, ofreció una mejor fidelidad. Intel admite algunos modos de codificación "mejorados" si tiene UHD 770 y un GPU de arco. Estos modos se denominan Deep Link, pero sospechamos que, dada la calidad y el rendimiento levemente inferiores de las soluciones gráficas Xe, serán beneficiosos principalmente en situaciones en las que el rendimiento máximo es más importante que la calidad.

Watch Dogs Legion repite la historia, pero nuevamente con mayores puntajes VMAF en comparación con Far Cry 6. Eso probablemente se deba a que hay un movimiento menos rápido en la cámara, por lo que los cambios de cuadro a cuadro son más pequeños que lo que permite una mejor compresión y, por lo tanto, un objetivo más alto. calidad dentro de la misma cantidad de tasa de bits. El rendimiento termina siendo casi el mismo que el de Far Cry 6 en la mayoría de los casos, y hay cierta variabilidad entre las ejecuciones que realmente no estamos tomando en cuenta: estimamos un margen de error del 3% para el FPS, ya que solo codificamos cada uno una vez por GPU.

Como una vista alternativa de todos los gráficos, aquí están los datos brutos de rendimiento y calidad resumidos en formato de tabla. Tenga en cuenta que las cosas se agrupan por tasa de bits y luego por códec, por lo que tal vez no sea tan fácil de analizar, pero esto le dará todos los puntajes VMAF exactos si tiene curiosidad, y también puede ver cómo cambiaron las cosas entre algunos de los hardware. generaciones en términos de calidad. También tenemos una segunda tabla, esta vez coloreada según el rendimiento y la calidad en relación con el mejor resultado para cada códec y tasa de bits. Un aspecto interesante que es fácilmente visible es qué tan rápido es el hardware de codificación de AMD a 4K con el RX 7900 XTX y, de manera similar, puede ver qué tan rápido es el codificador de la serie RTX 40 a 1080p. Mientras tanto, la calidad favorece la serie 40 y las GPU Arc.

Si desea ver los archivos de video originales, he creado este enlace magnético de BitTorrent alojado personalmente:magnet:?xt=urn:btih:df31e425ac4ca36b946f514c070f94283cc07dd3&dn=Tom%27s%20Hardware%20Video%20Encoding%20Tests ACTUALIZACIÓN: Este es el torrente actualizado, con cálculos VMAF corregidos. También incluye los archivos de registro de las codificaciones iniciales con VMAF incorrecto, pero esos archivos tienen los resultados de FPS para los tiempos de codificación. En la descarga de torrent, cada GPU también tiene dos archivos de registro. Los archivos de texto "Encodes-FPS-WrongVMAF" son los registros de las pruebas de codificación iniciales, con los cálculos de VMAF hacia atrás. Los archivos "Encodes-CorrectVMAF" son solo los cálculos VMAF corregidos (con valores de marcador de posición "—" para GPU que no admiten la codificación AV1, para hacernos la vida un poco más fácil cuando se trata de importar los datos utilizados para generar los gráficos). Para los curiosos, puede ver los resultados de VMAF antes y después, así como los valores FPS de la velocidad de codificación, emitiendo los siguientes comandos desde una línea de comandos en la carpeta correspondiente:

Si desea realizar sus propias pruebas, el enlace magnético de BitTorrent anterior se mantendrá activo durante los próximos meses. Únase y comparta si puede, ya que esto se propaga desde mi propia red doméstica y estoy limitado a 20 Mbps de subida. Si descargó anteriormente mi prueba de Arc A380, tenga en cuenta que casi todos los archivos son completamente nuevos, ya que grabé videos nuevos a una tasa de bits más alta de 100 Mbps para estas pruebas. Creo que también cambié las comparaciones de VMAF en esa revisión, por lo que estos nuevos resultados tienen prioridad. Todos los archivos están distribuidos en carpetas, por lo que puede descargar solo lo que desea si no está interesado en la colección completa. Y si desea disfrutar de los más de 350 videos por cualquier motivo, es una descarga de 16,4 GiB. ¡Salud! Para aquellos que no quieran descargar todos los archivos, proporcionaré un conjunto limitado de capturas de pantalla de los videos de Borderlands 3 1080p y 4K como referencia a continuación. Solo voy a hacer pantallas de GPU recientes, ya que de lo contrario esto consume mucho tiempo.

Fuente 1080p 38Mbps

AMD RDNA3 1080p H.264 3 Mbps

AMD RDNA3 1080p HEVC 3 Mbps

AMD RDNA3 1080p AV1 3 Mbps

Intel Arc 1080p H.264 3 Mbps

Intel Arc 1080p HEVC 3 Mbps

Intel Arc 1080p AV1 3 Mbps

Nvidia Ada Lovelace 1080p H.264 3Mbps

Nvidia Ada Lovelace 1080p HEVC 3Mbps

Nvidia Ada Lovelace 1080p AV1 3Mbps

Procesador 13900K 1080p H.264 3Mbps

Procesador 13900K 1080p HEVC 3Mbps

Procesador 13900K 1080p AV1 3Mbps

Fuente 4K 50Mbps

AMD RDNA3 4K H.264 8Mbps

AMD RDNA3 4K HEVC 8Mbps

AMD RDNA3 4K AV1 8Mbps

Intel Arc 4K H.264 8Mbps

Intel Arc 4K HEVC 8 Mbps

Intel Arc 4K AV1 8Mbps

Nvidia tiene Lovelace 4K H.264 8Mbps

Nvidia Ada Lovelace 4K HEVC 8Mbps

Nvidia tiene Lovelace 4K AV1 8Mbps

Procesador 13900K 4K H.264 8Mbps

CPU 13900K 4K HEVC 8Mbps

Procesador 13900K 4K AV1 8Mbps

La galería anterior muestra capturas de pantalla de un solo cuadro de AMD RX 7900 XTX, Intel Arc A770, Nvidia RTX 4090 y codificaciones de CPU en Core i9-13900K. Por supuesto, un solo cuadro no es el punto, y puede haber diferencias en la ubicación de los cuadros clave, pero es por eso que usamos la opción "-g 120" para que, en teoría, todos los codificadores coloquen los cuadros clave en el mismo lugar De todos modos, si desea navegar a través de ellos, le recomendamos ver las imágenes completas en pestañas separadas. Solo elegimos hacer capturas de pantalla para las tasas de bits más bajas, y eso solo tomó mucho tiempo. Al menos puede tener una idea de cómo se ven los videos codificados, pero podría decirse que los puntajes VMAF proporcionaron una mejor guía sobre cómo sería la experiencia general de ver una transmisión usando el codificador especificado. Porque solo estamos haciendo lo más bajo tasas de bits de las resoluciones seleccionadas, tenga en cuenta que los resultados de VMAF varían de "pobres" a "regulares": los videos con tasas de bits más altas definitivamente se ven mucho mejor que lo que mostramos aquí.

Después de ejecutar y volver a ejecutar las diversas codificaciones varias veces, hemos hecho todo lo posible para intentar nivelar el campo de juego, pero todavía hay muchos baches en algunos lugares. Tal vez hay algunas opciones que pueden mejorar la calidad sin sacrificar la velocidad con las que no estamos familiarizados, pero si no planea dedicar mucho tiempo a resolver tales cosas, estos resultados deberían proporcionar una buena línea de base de lo que puede esperar. .A pesar de todo el alboroto sobre la codificación AV1, en la práctica realmente no se ve ni se siente tan diferente de HEVC. La única ventaja real es que se supone que AV1 está libre de regalías (hay algunas demandas en curso que impugnan esto), pero si está archivando sus propias películas, ciertamente puede seguir usando HEVC y no se perderá mucho si cualquier cosa. Tal vez AV1 se haga cargo en el futuro, al igual que H.264 se convirtió en el estándar de video de facto durante la última década o más. Ciertamente, tiene algunos nombres importantes detrás, y ahora los tres principales fabricantes de GPU para PC tienen soporte de codificación acelerada. Desde una perspectiva general de calidad y rendimiento, el último hardware Ada Lovelace NVENC de Nvidia sale como el ganador con AV1 como el códec de elección. , pero en este momento solo está disponible con GPU que comienzan en $ 799, para el RTX 4070 Ti. Con el tiempo, debería llegar en las variantes 4060 y 4050, y ya se envían en computadoras portátiles, aunque hay una advertencia importante: las tarjetas de la serie 40 con 12 GB o más de VRAM tienen bloques NVENC duales, mientras que los otros modelos solo tendrán un bloque codificador único. , lo que podría significar aproximadamente la mitad del rendimiento en comparación con nuestras pruebas aquí. Justo detrás de Nvidia en términos de calidad y rendimiento, al menos en lo que respecta a la codificación de video, las GPU Arc de Intel también son excelentes para fines de transmisión. De hecho, tienen resultados de mayor calidad con HEVC que con AV1, básicamente igualando la serie 40 de Nvidia. También puede usarlos para archivar, claro, pero probablemente ese no sea el atractivo principal. Sin embargo, Nvidia definitivamente admite más opciones de ajuste y parece estar recibiendo más soporte de software también. Mientras tanto, las GPU de AMD continúan rezagadas con respecto a su competencia. Las tarjetas RX 7900 basadas en RDNA 3 ofrecen las codificaciones de mayor calidad que hemos visto en una GPU AMD hasta la fecha, pero eso no es decir mucho. De hecho, al menos con la versión actual de ffmpeg, la calidad y el rendimiento están a la par con lo que podría obtener de una GPU de la serie GTX 10 en 2016, excepto sin la compatibilidad con AV1, naturalmente, ya que eso no era un problema. entonces. Sospechamos que muy pocas personas van a comprar una tarjeta gráfica simplemente por su destreza en la codificación de video, así que revise nuestros puntos de referencia de GPU y nuestras pruebas de difusión estable para ver cómo se comparan las diversas tarjetas en otras áreas. A continuación, necesitamos ejecutar números actualizados para Stable Diffusion, y estamos viendo otros puntos de referencia de IA, pero esa es una historia para otro día.

Únase a los expertos que leen Tom's Hardware para obtener información privilegiada sobre las noticias de tecnología de PC para entusiastas, y lo han hecho durante más de 25 años. Enviaremos noticias de última hora y reseñas detalladas de CPU, GPU, IA, hardware de fabricante y más directamente a su bandeja de entrada.

Jarred Walton es un editor senior en Tom's Hardware que se enfoca en todo lo relacionado con GPU. Ha trabajado como periodista tecnológico desde 2004, escribiendo para AnandTech, Maximum PC y PC Gamer. Desde los primeros 'desaceleradores 3D' S3 Virge hasta las GPU actuales, Jarred se mantiene al día con las últimas tendencias gráficas y es a quien preguntar sobre el rendimiento del juego.

Las ventas de GPU de escritorio son las más bajas en décadas: informe

Las mejores tarjetas gráficas para juegos en 2023

Raspberry Pi impulsa un velero mediante la automatización del piloto automático

Por Avram Piltch 8 de junio de 2023

Por Anton Shilov 8 de junio de 2023

Por Ash Hill 7 de junio de 2023

Por Anton Shilov 07 de junio de 2023

Por Mark Tyson 07 de junio de 2023

Por Zhiye Liu 07 de junio de 2023

Por Ash Hill 7 de junio de 2023

Por Aaron Klotz 07 de junio de 2023

Por Mark Tyson 07 de junio de 2023

Por Ash Hill 7 de junio de 2023

Por Les Pounder 07 de junio de 2023

Actualización 09/03/2013: PC INTEL 13.ª GEN. PC INTEL 12.ª GEN. AMD: Intel: Nvidia: magnet:?xt=urn:btih:df31e425ac4ca36b946f514c070f94283cc07dd3&dn=Tom%27s%20Hardware%20Video%20Encoding%20Tests ACTUALIZACIÓN: Video Codificación probada: AMD Las GPU aún van a la zaga de Nvidia e Intel: Leer más