Probado: GeForce RTX 4090 de Nvidia es un gigante de creación de contenido

Blog

HogarHogar / Blog / Probado: GeForce RTX 4090 de Nvidia es un gigante de creación de contenido

Oct 08, 2023

Probado: GeForce RTX 4090 de Nvidia es un gigante de creación de contenido

Cuando se anunció la Nvidia GeForce RTX 4090 con un precio deslumbrante de $ 1,600

Cuando se anunció la Nvidia GeForce RTX 4090 con un precio deslumbrante de $ 1,600, los memes se extendieron como la pólvora. Si bien $ 1,600 es demasiado para la mayoría de los jugadores para gastar en un solo componente (la mayoría de los presupuestos de construcción de PC que veo son menores que los de toda la PC). No pude evitar sentirme intrigado por las posibles mejoras en el rendimiento de mi trabajo; ya sabes, las tareas 3D y aceleradas por IA en las que paso la mayor parte del día como parte de la administración del canal de YouTube de EposVox, en lugar de jugar.

Alerta de spoiler: el rendimiento de creación de contenido de la GeForce RTX 4090 es mágico. En bastantes casos, el "aumento de rendimiento 2X" típicamente sin sentido es realmente cierto. Pero no en todas partes.

Vamos a profundizar en.

La mayor parte de mi evaluación comparativa se realizó en este banco de pruebas:

Mis objetivos eran ver qué tanto mejoraría la RTX 4090 con respecto a la generación anterior de GeForce RTX 3090, así como a la RTX Titan (la tarjeta en la que estaba trabajando principalmente antes). El RTX 3090 realmente experimentó mejoras mínimas sobre el RTX Titan para mis casos de uso, por lo que no estaba seguro de si el 4090 realmente sería un gran salto. Para algunas pruebas más intensas más adelante, como mencionaré, las pruebas se realizaron en este banco de pruebas.

Cada prueba presentó cada GPU en la misma configuración para no mezclar resultados.

Mi trabajo diario es, por supuesto, crear contenido de YouTube, por lo que una de las primeras cosas que tenía que probar serían los beneficios que podría ver al crear contenido de video. Usando PugetBench de los creadores de estaciones de trabajo de Puget Systems, Adobe Premiere Pro ve una mejora de rendimiento mínima con el RTX 4090 (como era de esperar en este momento).

Adam Taylor/IDG

Adam Taylor/IDG

BlackMagic DaVinci Resolve, sin embargo, viosignificativo mejoras de rendimiento en todos los ámbitos tanto en el RTX 3090 como en el RTX Titan. Esto tiene sentido, ya que Resolve está mucho más optimizado para flujos de trabajo de GPU que Premiere Pro. Los renderizados fueron mucho más rápidos gracias a la computación 3D más alta en los efectos, pero también al hardware de codificación más rápido integrado, y la reproducción general y el flujo de trabajo fueron mucho más "rápidos" y receptivos.

Adam Taylor/IDG

Adam Taylor/IDG

He estado editando con GeForce RTX 4090 durante algunas semanas y la experiencia ha sido excelente, aunque tuve que volver al lanzamiento público de Resolve, por lo que no he podido exportar usando el codificador AV1 para la mayoría de mis videos

Adam Taylor/IDG

También quería probar para ver si las mejoras del hardware de IA beneficiarían la herramienta Máscara mágica de Resolve para rotoscopia, o su rastreador facial para el complemento Face Refinement. Es cierto que esperaba ver más mejoras del RTX 4090 aquí, pero hay una mejora que me ahorra tiempo y es una victoria. Estas tareas son tediosas y lentas, por lo que cualquier minuto que pueda ahorrar me facilita la vida. Tal vez con el tiempo se pueda realizar una mayor optimización específica para los nuevos cambios de arquitectura en Lovelace (el nombre en clave de la arquitectura de GPU subyacente de la serie RTX 40).

Adam Taylor/IDG

Adam Taylor/IDG

El rendimiento en mis puntos de referencia originales de Resolve me impresionó tanto que decidí crear una prueba de segundo nivel utilizando mi estación de trabajo Threadripper Pro; renderizar y exportar un video de 8K con metraje de fuente RAW de 8K, muchos efectos y Super Scale (el escalador "inteligente" interno de Resolve) en metraje de 4K, etc. cantidades más bajas de VRAM no pudieron manejar el proyecto; esto deja fuera de juego a las RTX 3060, 2080 y 3080. Pero al poner a prueba los monstruos de VRAM de 24 GB, el RTX 4090 exportó los proyectos 8 minutos más rápido que la prueba.Ocho minutos.Ese tipo de escalado de tiempo cambia el juego para los flujos de trabajo de una sola persona como el mío.

Adam Taylor/IDG

Si es un editor de video de alta resolución o con muchos efectos, el RTX 4090 ya le ahorrará horas de espera y un trabajo más lento, desde el principio y ni siquiera hemos hablado de velocidades de codificación todavía.

Para simplemente transcodificar video en H.264 y H.265, la GeForce RTX 4090 también ejecuta vueltas alrededor de las GPU Nvidia anteriores. H.265 es la única área en la que AMD supera a Nvidia en velocidad de codificador (aunque no necesariamente en calidad), ya que desde las GPU Radeon 5000, el codificador HEVC de AMD ha sido ultrarrápido.

Adam Taylor/IDG

La nueva arquitectura de Ada Lovelace también viene con nuevos chips codificadores duales que individualmente ya funcionan un poco más rápido para la codificación H.264 y H.265 que Ampere y Turing, pero también codifican AV1, el nuevo códec de video de código abierto de la Alianza por los Medios Abiertos.

Adam Taylor/IDG

AV1 es el futuro del video transmitido por la web, y la mayoría de las principales empresas involucradas en la transmisión de medios también son miembros del consorcio. El objetivo es crear un códec de video altamente eficiente (mejor calidad por bit) que pueda satisfacer las necesidades del mundo moderno de alta resolución, alta velocidad de cuadros y transmisión HDR, al tiempo que evita los altos costos de licencias y patentes asociados con H Códecs .265 (HEVC) y H.266. Intel fue el primero en comercializar codificadores de hardware AV1 con sus GPU Arc, como cubrí aquí para PCWorld; ahora Nvidia lo trae a sus GPU.

Todavía no puedo obtener comparaciones de calidad completamente precisas entre los codificadores AV1 de Intel y Nvidia debido al soporte de software limitado. De las pruebas básicas que pude hacer, las codificaciones AV1 de Nvidia están a la par con las de Intel, pero desde entonces descubrí que las implementaciones del codificador, incluso en el software en el que puedo usarlos, podrían necesitar algunos ajustes para representar mejor ambos lados.

En cuanto al rendimiento, AV1 funciona tan rápido como H.265/HEVC en el RTX 4090. Lo cual está bien. Pero los nuevos chips codificadores duales permiten que tanto H.265 como AV1 se utilicen para codificar video 8K60, o simplemente video 4K60 más rápido. Lo hacen dividiendo los cuadros de video en mitades horizontales, codificando las mitades en chips separados y luego volviendo a unir antes de finalizar la transmisión. Esto suena como se suponía que funcionaba Hyper Encode de Intel: Hyper Encoder en lugar de separar GOP (Grupo de imágenes o marcos) entre iGPU y dGPU con Arc, pero en todas mis pruebas, solo encontré Hyper Encode para ralentizar el proceso, en lugar de acelerarlo. (Además, no funcionó con AV1).

Como resultado de las mejoras antes mencionadas en la velocidad del codificador, la transmisión y grabación de su pantalla, cámara o juego es una experiencia mucho, mucho mejor. Esto viene con una actualización del SDK del codificador NVENC dentro de OBS Studio, que ahora presenta a los usuarios 7 ajustes preestablecidos (similares a los "Ajustes preestablecidos de uso de CPU" de X264) escalando desde P1 que es la calidad más rápida/más baja hasta P7 que es la calidad más lenta/mejor. En mis pruebas en este video, P6 y P7 obtuvieron básicamente el mismo resultado en las GPU RTX 2000, 3000 y 4000, y compitieron con X264 VerySlow en calidad.

Durante la transmisión de juegos, vi principalmente la misma grabación de rendimiento que otras GPU en Spider-Man Remastered (aunque otros juegos verán más beneficios) con H.264, pero luego la codificación con AV1... tuvo un impacto insignificante en el rendimiento del juego. Era virtualmente transparente. Ni siquiera sabrías que estás grabando, incluso en el preajuste de la más alta calidad. Incluso tuve suficiente espacio libre para configurar OBS en un lienzo de 8K y mejorar mi captura de juego de 1440p a 8k dentro de OBS y grabar usando los chips codificadores duales, y aún así no vi un impacto significativo.

Adam Taylor/IDG

Desafortunadamente, aunque la función Shadowplay de Nvidia es compatible con 8K60 en Lovelace a través de los codificadores duales, en este momento solo es compatible con HEVC. Es de esperar que AV1 pueda implementarse y sea compatible con todas las resoluciones, ya que HEVC solo funciona para 8K o HDR tal cual, pronto.

También descubrí que la GeForce RTX 4090 ahora es lo suficientemente rápida como para realizar una grabación HEVC 4:4:4 completamente sin pérdidas a 4K 60FPS, algo que las generaciones anteriores simplemente no pueden hacer. El submuestreo de croma 4:4:4 es importante para mantener la claridad del texto y para mantener la imagen intacta cuando hago zoom en elementos pequeños como lo hago para videos, y en 4K ha sido una especie de "ballena blanca" mía, ya que el rendimiento en RTX 2000/3000 no ha sido suficiente o la implementación de OBS de 4:4:4 no está lo suficientemente optimizada. Desafortunadamente, 4:4:4 no es posible en AV1 en estas tarjetas.

La edición de fotos no ve prácticamente ninguna mejora en la GeForce RTX 4090. Hay un ligero aumento en la puntuación en las pruebas de Adobe Photoshop PugetBench en comparación con las generaciones anteriores, pero no vale la pena comprar una nueva tarjeta.

Adam Taylor/IDG

Adam Taylor/IDG

Lo mismo ocurre con Lightroom Classic. Lástima.

Adam Taylor/IDG

Pero si eres usuario de Affinity Photo, la RTX 4090 supera con creces a otras GPU, no sé si interpretar que Affinity está más o menos optimizada en este caso.

La IA está de moda en estos días, y los escaladores de IA tienen una gran demanda en este momento. Teóricamente, el hardware de inteligencia artificial mejorado de la GeForce RTX 4090 beneficiaría estos flujos de trabajo, y en su mayoría vemos que esto es cierto. El RTX 4090 encabeza las listas de escalado más rápido en Topaz Labs Video Enhance AI y Gigapixel, así como ON1 Resize AI 2022.

Adam Taylor/IDG

Adam Taylor/IDG

Pero la nueva aplicación PhotoAI de Topaz ve un rendimiento extrañamente bajo en todas las tarjetas Nvidia. Me han dicho que esto puede ser un error, pero aún no se ha distribuido una solución.

Adam Taylor/IDG

Usando FlowFrames para AI interpolar metraje de 60FPS a 120FPS para uso en cámara lenta, el RTX 4090 ve un 20 por ciento de aceleración en comparación con el RTX 4090. Esto es bueno como es, pero los usuarios me lo han dicho en FlowFrames Discord servidor que, teóricamente, podría escalar más a medida que se desarrollen las optimizaciones para Lovelace.

Adam Taylor/IDG

¿Qué pasa con la generación de AI Art? Probé la GUI de difusión estable de N00mkrad y descubrí que la GeForce RTX 4090 superó a todas las GPU anteriores tanto en la generación de precisión media como completa, y una vez más me dijeron que los resultados "deberían ser" más altos, incluso. Tiempos emocionantes.

Adam Taylor/IDG

Muy bien, las afirmaciones en negrita "2 veces más rápido" están aquí. Quería probar los flujos de trabajo 3D en mi plataforma Threadripper Pro, ya que me he estado metiendo cada vez más en estas nuevas herramientas en 2022.

Adam Taylor/IDG

Adam Taylor/IDG

Probando Blender, las escenas de referencia de Monster y Classroom tienen el renderizado RTX 4090 dos veces más rápido que el RTX 3090, con el renderizado de la escena Junkshop apenas 2 veces más rápido.

Adam Taylor/IDG

Esto se traduce no solo en renderizados finales más rápidos, que a escala es absolutamente enorme, sino también en un proceso creativo mucho más fluido, ya que todo el trabajo real de vista previa/vista será más fluido y receptivo, y puede obtener una vista previa más fácil de los resultados finales sin esperando para siempre.

Adam Taylor/IDG

Benchmarking Octane, un renderizador utilizado por artistas 3D y creadores de VFX en Cinema4D, Blender y Unity, nuevamente tiene el RTX 4090 funcionando dos veces más rápido que el RTX 3090.

Adam Taylor/IDG

…y nuevamente, lo mismo ocurre con V-Ray en los flujos de trabajo CUDA y RTX.

Ahí es donde está el valor. La Titan RTX costaba $2500, y ya era fenomenal obtener ese rendimiento por $1500 con la RTX 3090. Ahora, por $100 más, la GeForce RTX 4090 ejecuta vueltas alrededor de las GPU anteriores en formas que realmente tienen un impacto innovador en los flujos de trabajo para los creadores de todos los tipos.

Esto podría explicar por qué la línea de tarjetas anteriormente conocida como Quadro también recibió mucho menos énfasis en los últimos años. ¿Por qué comprar una tarjeta gráfica de más de $5,000 cuando puedes obtener el mismo rendimiento (o más, las Quadros nunca fueron súper rápidas, solo tenían mucha VRAM) por $1,600?

Obviamente, el precio de la RTX 4080 de $ 1,200 y la 4080 de 12 GB de $ 899 recientemente no lanzada aún puede ser preocupante hasta que veamos números de pruebas independientes, pero la GeForce RTX 4090 podría ser la primera vez que el marketing se jacta de un rendimiento "2 veces más rápido" en un producto. y siento que en realidad he recibido esa promesa. ¿Especialmente para obtener resultados dentro de mis intereses de trabajo de nicho en lugar de herramientas o juegos convencionales? esto es genial

Los jugadores puros probablemente no deberían gastar $ 1,600 en una tarjeta gráfica, a menos que alimentar un monitor 4K de alta frecuencia de actualización sin compromisos sea un objetivo. Pero si está interesado en hacer un trabajo de creación de contenido real y esencial rápido, la GeForce RTX 4090 es inmejorable, y lo hará sonreír de oreja a oreja durante cualquier sesión nocturna de Call of Duty. súbete también.

Como Stream Professor de Internet, Adam se enfoca principalmente en la educación tecnológica con magia de captura y codificación en su canal de YouTube EposVox. Cuando no está probando el hardware y las herramientas de transmisión más recientes, generalmente puede encontrarlo escondido en el brillo de los monitores de neón y CRT jugando con video analógico y hardware retro.

significativos Ocho minutos.