Encodage vidéo testé : les GPU AMD sont toujours à la traîne par rapport à Nvidia, Intel (mis à jour)

Nouvelles

MaisonMaison / Nouvelles / Encodage vidéo testé : les GPU AMD sont toujours à la traîne par rapport à Nvidia, Intel (mis à jour)

Oct 22, 2023

Encodage vidéo testé : les GPU AMD sont toujours à la traîne par rapport à Nvidia, Intel (mis à jour)

Encodage AVC, HEVC et AV1 mis à l'épreuve Les meilleures cartes graphiques ne sont pas seulement

Encodage AVC, HEVC et AV1 mis à l'épreuve

Les meilleures cartes graphiques ne servent pas seulement à jouer à des jeux. La formation et l'inférence de l'intelligence artificielle, les applications professionnelles, l'encodage et le décodage vidéo peuvent tous bénéficier d'un meilleur GPU. Oui, les jeux reçoivent toujours le plus d'attention, mais nous aimons également examiner les autres aspects. Ici, nous allons nous concentrer spécifiquement sur les performances et la qualité d'encodage vidéo que vous pouvez attendre de différentes générations de GPU. De manière générale, les blocs d'encodage/décodage vidéo pour chaque génération de GPU fonctionneront tous de la même manière, avec une variation mineure en fonction de vitesses d'horloge pour le bloc vidéo. Nous avons vérifié les RTX 3090 Ti et RTX 3050 à titre d'exemple - les GPU les plus rapides et les plus lents de la génération de la série Ampere RTX 30 de Nvidia - et n'avons effectivement trouvé aucune différence. Heureusement, cela nous laisse avec moins de GPU à examiner que ce qui serait autrement nécessaire. Encodeurs vidéo de l'ère Pascal. Pour Intel, nous nous intéressons aux GPU de bureau, avec l'Arc A770 ainsi que l'UHD 770 intégré. AMD se retrouve avec l'écart le plus large, du moins en termes de vitesses, nous avons donc fini par tester les RX 7900 XTX, RX 6900 XT, RX 5700 XT, RX Vega 56 et RX 590. Nous voulions également vérifier la performance des encodeurs GPU par rapport à l'encodage logiciel basé sur le processeur, et pour cela, nous avons utilisé les Core i9-12900K et Core i9-13900K.Mise à jour 3/09/2013 : Les scores VMAF initiaux ont été calculés à l'envers, ce qui signifie que nous avons utilisé la vidéo "déformée" comme vidéo "de référence", et vice versa. Inutile de dire que cela a conduit à des scores VMAF beaucoup plus élevés que prévu ! Nous avons depuis recalculé tous les scores VMAF. Si vous vous posez la question, c'est très gourmand en calculs et prend environ 30 minutes par GPU sur un Core i9-13900K. La bonne nouvelle est que nos graphiques sont maintenant corrigés. La mauvaise nouvelle (en plus des résultats initialement incorrects publiés) est que nous avons supprimé le fichier torrent initial et que nous mettons à jour avec un nouveau fichier qui inclut les journaux des nouveaux calculs VMAF. De plus, les scores ont baissé, donc si vous pensiez que l'encodage 4K 60 ips à 16 Mbps correspondrait essentiellement à la qualité d'origine, ce n'est que sélectivement le cas (selon la source vidéo).

La plupart de nos tests ont été effectués en utilisant le même matériel que nous utilisons pour nos dernières critiques de cartes graphiques, mais nous avons également effectué le test du processeur sur le PC 12900K qui alimente notre hiérarchie de benchmarks GPU 2022. En tant que test d'encodage CPU plus ardu, nous avons également exécuté le 13900K avec un préréglage d'encodage de meilleure qualité, mais plus à ce sujet dans un instant.

PC INTEL 13E GÉNÉRATION Intel Core i9-13900KMSI MEG Z790 Ace DDR5G.Skill Trident Z5 2x16GB DDR5-6600 CL34Sabrent Rocket 4 Plus-G 4TBsoyez silencieux ! 1500W Dark Power Pro 12Cooler Master PL360 FluxWindows 11 Pro 64 bitsPC INTEL 12E GÉNÉRATIONIntel Core i9-12900KMSI Pro Z690-A WiFi DDR4Corsair 2x16GB DDR4-3600 CL16Crucial P5 Plus 2TBCooler Master MWE 1250 V2 OrCorsair H150i Elite CapellixCooler Master HAF500Windows 11 Pro 64-bit

Pour notre logiciel de test, nous avons trouvé que ffmpeg nightly était la meilleure option actuelle. Il prend en charge tous les derniers encodeurs vidéo AMD, Intel et Nvidia, peut être configuré relativement facilement et fournit également la fonctionnalité VMAF (Video Multi-Method Assessment Fusion) que nous utilisons pour comparer la qualité d'encodage vidéo. Nous avons cependant dû utiliser la dernière version officielle, 5.1.2, pour nos tests Nvidia Pascal (la version nocturne a échoué sur l'encodage HEVC). Nous effectuons un encodage en un seul passage pour tous ces tests, car nous sommes en utilisant le matériel fourni par les différents GPU et il n'est pas toujours capable de gérer des instructions d'encodage plus complexes. L'encodage vidéo GPU est généralement utilisé pour des choses comme la diffusion en direct de gameplay, tandis que si vous voulez la meilleure qualité, vous devrez généralement opter pour un encodage basé sur le processeur avec un CRF (Constant Rate Factor) élevé de 17 ou 18, bien que cela résulte bien sûr dans des fichiers beaucoup plus volumineux et des débits moyens plus élevés. Cependant, il existe encore de nombreuses options qui méritent d'être discutées. AMD, Intel et Nvidia ont tous des "préréglages" différents pour la qualité, mais ce que sont exactement ces préréglages ou ce qu'ils font n'est pas toujours clair. Le NVENC de Nvidia dans ffmpeg utilise "p4" par défaut. Et le passage à "p7" (qualité maximale) n'a pas fait grand-chose pour les scores VMAF, tout en réduisant les performances d'encodage de 30 à 50%. AMD opte pour un réglage "-qualité" de "vitesse" pour son encodeur, mais nous avons également testé avec "équilibré" - et comme Nvidia, le réglage maximum de "qualité" réduisait beaucoup les performances mais n'améliorait que les scores VMAF de 1 ~ 2 pour cent. Enfin, Intel semble utiliser un préréglage de "moyen" et nous avons trouvé que c'était un bon choix - "très lent" prenait presque deux fois plus de temps à encoder avec peu d'amélioration de la qualité, tandis que "très rapide" était modérément plus rapide mais dégradait la qualité tout à fait bit.En fin de compte, nous avons opté pour deux séries de tests. Tout d'abord, nous avons les paramètres d'encodeur par défaut pour chaque GPU, où la seule chose que nous avons spécifiée était le débit binaire cible. Même dans ce cas, il existe de légères différences dans la taille des fichiers encodés (environ un écart de +/- 5%). Deuxièmement, après avoir consulté le subreddit ffmpeg, nous avons tenté de régler les GPU pour des paramètres d'encodage légèrement plus cohérents, en spécifiant une taille de GOP égale à deux secondes ("-g 120" pour nos vidéos à 60 ips). AMD a été le plus grand bienfaiteur de notre réglage, la vitesse d'échange pour des scores VMAF environ 5 à 10 % plus élevés. Mais comme vous le verrez, AMD est toujours à la traîne des autres GPU. Il existe de nombreux autres paramètres de réglage potentiels, dont certains peuvent changer un peu les choses, d'autres qui semblent accomplir très peu. Nous ne visons pas la qualité d'archivage, nous avons donc opté pour des préréglages plus rapides qui utilisent les GPU, mais nous pourrions revoir les choses à l'avenir. Exprimez-vous dans nos commentaires si vous avez des recommandations alternatives pour les meilleurs paramètres à utiliser sur les différents GPU, avec une explication de ce que font les paramètres. On ne sait pas non plus comment les paramètres et la qualité de ffmpeg se comparent à d'autres schémas d'encodage potentiels, mais cela dépasse le cadre de ce test. Voici les paramètres que nous avons utilisés, à la fois pour l'encodage par défaut et pour l'encodage "accordé".

DMLA :Par défaut : ffmpeg -i [source] -c:v [h264/hevc/av1]_amf -b:v [bitrate] -y [output]Réglé : ffmpeg -i [source] -c:v [h264/hevc/av1 ]_amf -b:v [débit binaire] -g 120 -qualité équilibrée -y [sortie]

Intel :Par défaut : ffmpeg -i [source] -c:v [h264/hevc/av1]_qsv -b:v [bitrate] -y [output]Réglé : ffmpeg -i [source] -c:v [h264/hevc/av1 ]_amf -b:v [débit binaire] -g 120 -support prédéfini -y [sortie]

Nvidia :Par défaut : ffmpeg -i [source] -c:v [h264/hevc/av1]_nvenc -b:v [bitrate] -y [output]Réglé : ffmpeg -i [source] -c:v [h264/hevc/av1 ]_nvenc -b:v [débit] -g 120 -no-scenecut 1 -y [sortie]

La plupart de nos tentatives de paramètres "réglés" n'ont pas réellement amélioré la qualité ou la vitesse d'encodage, et certains paramètres semblaient provoquer la panne complète de ffmpeg (ou de notre PC de test). La principale chose à propos des paramètres ci-dessus est qu'ils maintiennent l'intervalle d'image clé constant et fournissent potentiellement une qualité d'image légèrement supérieure. Encore une fois, si vous avez de meilleurs paramètres à recommander, publiez-les dans les commentaires ; nous sommes heureux de leur donner une chance. L'essentiel est que nous voulions que les débits restent les mêmes, et nous voulons des vitesses d'encodage raisonnables au moins en temps réel (c'est-à-dire 60 ips ou plus) pour les GPU de dernière génération. Cela dit, pour l'instant, nos paramètres "réglés" ont fini par être si proches des paramètres par défaut, à l'exception des GPU AMD, que nous allons simplement montrer ces graphiques. Avec le préambule à l'écart, voici les résultats. Nous avons quatre vidéos de test, tirées du gameplay capturé de Borderlands 3, Far Cry 6 et Watch Dogs Legion. Nous avons effectué des tests en 1080p et 4K pour Borderlands 3 et en 4K avec les deux autres jeux. Nous avons également trois codecs : H.264/AVC, H.265/HEVC et AV1. Nous aurons deux graphiques pour chaque paramètre et codec, comparant la qualité à l'aide de VMAF et montrant les performances d'encodage. 80 comme « bon », et 100 comme « excellent ». En général, des scores de 90 ou plus sont souhaitables, 95 ou plus étant pour la plupart impossibles à distinguer du matériel source d'origine. qui montrent les chiffres bruts - ou rappelez-vous simplement que les GPU des générations adjacentes ont souvent presque la même qualité. Si vous ne voulez pas essayer d'analyser le tableau complet ci-dessous, les générations RDNA 2 et RDNA 3 d'AMD ont des résultats identiques pour la qualité d'encodage H.264, bien que les performances diffèrent un peu. Les GTX 1080 Ti et GTX 1650 de Nvidia offrent également une qualité identique sur H.264 et HEVC, tandis que les RTX 2080 Ti et RTX 3090 ont une qualité identique pour HEVC.

En commençant par une vidéo de Borderlands 3 en 1080p, il y a quelques tendances intéressantes que nous verrons ailleurs. Nous discutons des résultats "réglés", car ils sont un peu plus de pommes à pommes parmi les GPU. Commençons par AVC/H.264, qui reste le codec le plus populaire. Même s'il existe depuis environ une décennie et qu'il a depuis été dépassé en qualité, son statut effectivement libre de droits a permis une adoption généralisée. générations de matériel ayant toutes à peu près les mêmes performances en termes de qualité. RDNA 2 a un peu amélioré l'encodage, principalement avec une qualité à des débits inférieurs augmentant d'environ 10 %. RDNA 3 semble utiliser la logique identique de RDNA 2 pour H.264, avec des scores à égalité sur les 6900 XT et 7900 XTX qui sont un peu plus élevés que les autres cartes AMD à 3 Mbps, mais les résultats de 6 Mbps et 8 Mpbs sont effectivement inchangés. Les implémentations H.264 apparaissent comme les meilleures solutions, en termes de qualité, avec Arc d'Intel juste un cheveu derrière - vous auriez du mal à faire la différence dans la pratique. Les GPU Turing, Ampere et Ada font juste un tout petit peu mieux que l'ancien encodeur vidéo Pascal, mais il ne semble pas y avoir d'améliorations majeures de la qualité. finit par être à peu près au niveau des graphiques UHD 770 (Xe LP) d'AMD, juste une touche derrière l'ancien encodeur Pascal de Nvidia, au moins pour ces tests 1080p. En ce qui concerne les performances, ce qui est une préoccupation secondaire à condition que vous peut casser 60 ips pour la diffusion en direct, le RTX 4090 était le plus rapide à près de 500 ips, environ 15% devant les RTX 2080 Ti, RTX 3090 et RX 7900 XTX. Intel Arc arrive à la troisième place, puis Pascal de Nvidia dans la GTX 1650, suivi du RX 6900 XT, puis la GTX 1080 Ti prend Pascal - notez que la GTX 1080 Ti et la GTX 1650 avaient des résultats de qualité identiques, donc la différence est juste dans les horloges du moteur vidéo. Fait intéressant, le Core i9-13900K peut encoder à 1080p plus rapidement que l'ancien RX Vega 56, qui est également à peu près aussi rapide que les graphiques intégrés UHD du Core i9-13900K. L'ancien RX 590 d'AMD fait monter le fourgon de queue, à un peu plus de 100 ips. Là encore, ce n'était probablement pas trop minable à l'époque 2016-2018.

Le passage à HEVC offre une solide amélioration de la qualité d'image, et il existe depuis assez longtemps maintenant que pratiquement tous les PC modernes devraient avoir un support d'encodage GPU décent. La seule chose qui entrave vraiment son adoption dans plus d'applications, ce sont les redevances, et de nombreux logiciels ont choisi de rester avec H.264 pour éviter cela. En ce qui concerne le classement, les différents GPU d'AMD tombent à nouveau en dessous du reste des options de ce test. , mais ils sont un peu plus proches que dans H.264. Le moteur vidéo RDNA 3 est légèrement meilleur que la version RDNA 1/2, mais curieusement, les anciens GPU Polaris et Vega correspondent essentiellement à RDNA 3 ici. Nvidia arrive en deuxième position, avec les moteurs vidéo Turing, Ampere et Ada essentiellement liés à la qualité HEVC. . L'architecture Xe-LP de la génération précédente d'Intel dans l'UHD 770 correspond également aux nouveaux GPU Nvidia, suivis de l'ancienne génération Pascal de Nvidia, puis des résultats "moyens" libx265 basés sur le processeur. Mais le grand gagnant pour la qualité HEVC finit par être l'architecture Arc d'Intel. Ce n'est pas une énorme victoire, mais cela devance clairement les autres options pour tous les débits. Avec un débit binaire de 8 Mbps, de nombreuses cartes atteignent également le point d'être très proches (perceptuellement) du matériel source d'origine, l'Arc obtenant un score VMAF de 92,1. Pour nos paramètres testés, les résultats CPU et Nvidia Pascal sont essentiellement à égalité, se situant à 3 ~ 5% au-dessus du 7900 XTX. L'Arc A770 d'Intel dépasse à peine le RTX 4090/3090 en chiffres purs, avec une avance de 0,5 à 1,9 %, selon le débit. Notez également qu'avec des scores de 95 à 96 à 8 Mbps, les GPU Arc, Ada et Ampere atteignent tous efficacement des encodages qui seraient pratiquement impossibles à distinguer du matériel source. Les performances sont un peu intéressantes, en particulier en ce qui concerne les générations de matériel. Les anciens modèles de GPU étaient généralement plus rapides en HEVC que l'encodage H.264, parfois avec une marge assez importante - regardez les RX 590, GTX 1080 Ti et GTX 1650. Mais les RTX 2080 Ti, RTX 3090 et RTX 4090 sont plus rapides à H.264, de sorte que la génération Turing et les versions ultérieures semblent avoir dépriorisé la vitesse HEVC par rapport à Pascal. Pendant ce temps, Arc offre des performances optimales avec HEVC, tandis que le Xe-LP UHD 770 fait beaucoup mieux avec H.264. Il y a un grand changement dans la qualité globale, en particulier au débit binaire inférieur de 3 Mbps. Les pires résultats VMAF sont maintenant au milieu des années 60, avec le CPU, les GPU Nvidia et les GPU Intel restant tous au-dessus de 80. Mais voyons si AV1 peut faire mieux.

AV1 est-il meilleur que HEVC en termes de qualité ? Peut-être, selon le GPU (ou CPU) que vous utilisez. Dans l'ensemble, AV1 et HEVC offrent une qualité presque équivalente, du moins pour les quatre échantillons dont nous disposons. Il y a quelques différences, mais cela tient en grande partie aux différentes implémentations des codecs. Le RDNA 3 d'AMD, par exemple, fait mieux avec AV1 qu'avec HEVC de 1 à 2 points. Les cartes Ada de Nvidia obtiennent leurs meilleurs résultats à ce jour, avec une amélioration d'environ 2 points par rapport au HEVC. Les GPU Arc d'Intel vont dans l'autre sens et marquent 2 à 3 points de moins en AV1 par rapport à HEVC. En ce qui concerne les résultats du processeur du codec libsvtav1, il est essentiellement lié à HEVC à 8 Mbps, mais mène de 1,6 point à 6 Mbps et a une avance relativement importante de 5 points à 3 Mpbs. Compte tenu du coût des cartes des séries RX 7900 et RTX 40, le La seule option AV1 pratique à l'heure actuelle pour beaucoup de gens sera les GPU Arc. L'A380 a d'ailleurs fourni des résultats de qualité identiques à l'A770 (jusqu'à six décimales), et il était en fait légèrement plus rapide - probablement parce que la carte A380 de Gunnir que nous avons utilisée a un overclock d'usine. Alternativement, vous pouvez opter pour l'encodage AV1 basé sur le processeur, qui correspond presque aux encodeurs GPU et peut toujours être effectué à plus de 200 ips sur un 13900K. Cela suppose que vous vouliez même vous embêter avec AV1, qui à ce stade n'a toujours pas support aussi répandu que HEVC. (Essayez de déposer un fichier AV1 dans Adobe Premiere, par exemple.) Il est également intéressant de voir à quel point l'encodage HEVC peut être exigeant sur le processeur, où AV1, en comparaison, semble assez "facile". Dans certains cas (à 4K), l'encodage CPU de AV1 était en fait plus rapide que l'encodage H.264, bien que cela dépende évidemment des paramètres utilisés pour chacun, ainsi que de votre CPU particulier.

En passant au codage 4K, les demandes de débit binaire avec H.264 deviennent nettement plus élevées qu'en 1080p. Avec 8 Mbps, l'Arc d'Intel remporte les honneurs avec un score de seulement 65, tandis que les GPU Ada/Ampere/Turing de Nvidia (qui avaient effectivement les mêmes résultats VMAF) atterrissent à environ 57, juste avec l'Intel UHD 770. L'encodeur de génération Pascal de Nvidia obtient 54 , puis l'encodeur CPU vient ensuite à 48. Enfin, le RDNA 2/3 d'AMD obtient 44 points, tandis que les anciens GPU d'AMD sont plutôt catastrophiques à seulement 33 points. L'augmentation du débit binaire à 12 Mbps et 16 Mbps aide un peu, naturellement, bien que même le le meilleur résultat pour l'encodage 4K H.264 avec 16 Mbps n'est toujours que de 80 - un "bon" résultat mais pas mieux que cela. Vous pourriez vous débrouiller avec 16 Mbps à 4K et 60 ips à la rigueur, mais vous avez vraiment besoin d'un codec moderne pour mieux gérer des résolutions plus élevées avec des débits binaires modérés. AMD a apporté des améliorations avec RDNA 2, tandis que RDNA 3 semble utiliser le même algorithme de base (identique scores entre le 6900 XT et le 7900 XTX), juste avec des performances plus élevées. Mais les gains réalisés par rapport aux GPU AMD précédents se matérialisent principalement aux débits binaires inférieurs ; de 16 Mbps, le dernier 7900 XTX ne marque que 1 à 2 points de plus que le pire GPU Vega. Les performances d'encodage à 4K sont beaucoup plus exigeantes, comme prévu. La plupart des solutions sont environ 1/3 aussi rapides qu'en 1080p, et dans certains cas, elles peuvent même être plus proches de 1/4 des performances. Les anciens GPU Polaris d'AMD ne peuvent même pas gérer 30 ips sur la base de nos tests, tandis que les cartes Vega tombent bien en dessous de 60 ips. Le Core i9-13900K se branche à environ 80 ips, mais si vous jouez à un jeu, vous ne voudrez peut-être pas consacrer autant de puissance CPU à la tâche d'encodage vidéo.

L'encodage HEVC et AV1 a été conçu pour évoluer jusqu'à 4K et au-delà, et nos graphiques le prouvent bien. HEVC et AV1 avec 8 Mbps peuvent généralement battre la qualité de H.264 avec 12 Mbps. Tous les GPU (et le CPU) peuvent également casser 80 sur l'échelle VMAF avec 16 Mbps, les meilleurs résultats flirtant avec des scores de 90. Si vous recherchez la qualité d'image, le dernier encodeur RDNA 3 d'AMD est toujours en retard. L'encodage peut être raisonnablement rapide, mais même le matériel de l'ère Pascal de Nvidia fournit généralement des résultats supérieurs par rapport à tout ce qu'AMD a, du moins avec nos tests ffmpeg. Même la GTX 1650 avec HEVC peut battre les scores AV1 d'AMD, à chaque débit, bien que la 7900 XTX marque 2 à 3 points de plus avec AV1 qu'avec HEVC. L'encodeur de la série RTX 40 de Nvidia gagne quant à lui en qualité globale absolue, avec ses résultats AV1 dépassant les résultats HEVC d'Intel à 4K aux différents débits binaires. AMD nous a informés qu'il travaille avec ffmpeg pour obtenir des améliorations de qualité dans le code, et nous ' va falloir voir comment ça se passe. Nous ne savons pas si cela améliorera beaucoup la qualité, amenant AMD à égalité avec Nvidia, ou si ce ne sera qu'un ou deux points. Pourtant, chaque petite amélioration est bonne. HEVC et AV1 ne sont pas vraiment meilleurs que H.264 du point de vue des performances. Le 7900 XTX d'AMD atteint 200 ips avec AV1, le plus rapide du groupe avec une marge assez large, ce qui nous laisse à nouveau espérer des améliorations de la qualité. Sinon, pour 4K HEVC, vous aurez besoin d'une carte Pascal ou ultérieure Nvidia, d'une carte RDNA ou ultérieure AMD, ou d'Intel's Arc pour gérer l'encodage 4K à plus de 60 ips (en supposant que votre GPU puisse réellement générer des images rapidement pour la diffusion en direct). Notez également les résultats du processeur pour HEVC par rapport à AV1 en ce qui concerne les performances. Une partie de cela sera due à l'encodeur sélectionné (libsvtav1 et libx265), ainsi qu'au préréglage sélectionné. Pourtant, compte tenu de la proximité des résultats VMAF pour l'encodage HEVC et AV1 via le processeur, avec plus du double du débit, vous pouvez certainement faire un bon argument pour l'encodage AV1 ici - et c'est en fait plus rapide que nos résultats libx264, peut-être en raison d'un meilleur multi - mise à l'échelle du threading dans l'algorithme.

Les résultats avec nos deux autres vidéos de jeu en 4K ne sont pas sensiblement différents de ce que nous avons vu avec Borderlands 3 en 4K. Far Cry 6 se retrouve avec des scores VMAF plus élevés sur les trois codecs, avec quelques variations mineures de performances, mais c'est à peu près tout ce que nous avons à ajouter à l'histoire. Étant donné que nous n'avons pas passé beaucoup de temps à le regarder jusqu'à présent, prenons un moment pour discuter plus en détail de la carte graphique UHD 770 intégrée d'Intel - les cartes graphiques intégrées sur les processeurs Alder Lake de 12e génération et Raptor Lake de 13e génération. La qualité est un peu inférieure à Arc, les résultats H.264 se situant généralement entre Pascal de Nvidia et la génération plus récente Turing/Ampere/Ada en termes de scores VMAF. L'encodage HEVC, d'autre part, n'est que de 1 à 2 points derrière Arc et les GPU Nvidia dans la plupart des cas. Les performances sont une autre histoire, et elles sont bien inférieures à ce à quoi nous nous attendions, bien moins de la moitié de ce que l'Arc peut faire. Certes, Arc dispose de deux moteurs vidéo, mais l'UHD 770 ne gère que 44 à 48 ips à 4K avec H.264, et cela tombe à 24 à 27 ips avec l'encodage HEVC. Pour l'encodage HEVC, l'encodage CPU 12900K était plus rapide, et avec AV1, il était environ trois fois plus rapide que le résultat HEVC de l'UHD 770 tout en offrant une meilleure fidélité. Intel prend en charge certains modes d'encodage "améliorés" si vous avez à la fois UHD 770 et un ArcGPU. Ces modes sont appelés Deep Link, mais nous pensons qu'étant donné la qualité et les performances légèrement inférieures des solutions graphiques Xe, cela sera surtout bénéfique dans les situations où les performances maximales sont plus importantes que la qualité.

Watch Dogs Legion répète l'histoire, mais encore une fois avec des scores VMAF accrus par rapport à Far Cry 6. Cela est probablement dû au fait qu'il y a moins de mouvement rapide dans la caméra, de sorte que les changements d'image à image sont plus petits que cela permet une meilleure compression et donc un objectif plus élevé qualité dans la même quantité de débit binaire. Les performances finissent par être presque les mêmes que Far Cry 6 dans la plupart des cas, et il y a une certaine variabilité entre les exécutions que nous ne prenons pas vraiment en compte - nous estimerions une marge d'erreur d'environ 3 % pour le FPS, puisque nous n'avons encodé chacun qu'une seule fois par GPU.

Comme vue alternative de tous les graphiques, voici les performances brutes et les données de qualité résumées sous forme de tableau. Notez que les choses sont regroupées par débit binaire puis par codec, donc ce n'est peut-être pas si facile à analyser, mais cela vous donnera tous les scores VMAF exacts si vous êtes curieux - et vous pouvez également voir à quel point les petites choses ont changé entre certains du matériel générations en termes de qualité. Nous avons également un deuxième tableau, cette fois coloré en fonction des performances et de la qualité par rapport au meilleur résultat pour chaque codec et débit. Un aspect intéressant qui est facilement visible est la vitesse du matériel d'encodage d'AMD à 4K avec le RX 7900 XTX, et de même, vous pouvez voir à quelle vitesse l'encodeur de la série RTX 40 est à 1080p. La qualité favorise quant à elle la série 40 et les GPU Arc.

Si vous souhaitez voir les fichiers vidéo originaux, j'ai créé ce lien magnétique BitTorrent hébergé personnellement :magnet : ?xt=urn:btih:df31e425ac4ca36b946f514c070f94283cc07dd3&dn=Tom%27s%20Hardware%20Video%20Encoding%20Tests MISE À JOUR : Ceci est le torrent mis à jour, avec des calculs VMAF corrigés. Il inclut également les fichiers journaux des encodages initiaux avec un VMAF incorrect, mais ces fichiers contiennent les résultats FPS pour les temps d'encodage. Dans le téléchargement torrent, chaque GPU dispose également de deux fichiers journaux. Les fichiers texte "Encodes-FPS-WrongVMAF" sont les journaux des tests d'encodage initiaux, avec les calculs VMAF en arrière. Les fichiers "Encodes-CorrectVMAF" ne sont que les calculs VMAF corrigés (avec des valeurs d'espace réservé "-" pour les GPU qui ne supportent pas l'encodage AV1, pour nous faciliter un peu la vie lorsqu'il s'agit d'importer les données utilisées pour générer les graphiques). Pour les curieux, vous pouvez voir les résultats VMAF avant et après ainsi que les valeurs FPS de vitesse d'encodage en exécutant les commandes suivantes à partir d'une ligne de commande dans le dossier approprié :

Si vous souhaitez faire vos propres tests, le lien magnétique BitTorrent ci-dessus restera actif au cours des prochains mois – rejoignez et partagez si vous le pouvez, car il s'agit d'un amorçage à partir de mon propre réseau domestique et je suis limité à 20 Mbps en amont. Si vous avez déjà téléchargé mes tests Arc A380, notez que presque tous les fichiers sont complètement nouveaux car j'ai enregistré de nouvelles vidéos à un débit supérieur de 100 Mbps pour ces tests. Je crois que j'ai également échangé les comparaisons VMAF dans cette revue, donc ces nouveaux résultats ont la priorité. Les fichiers sont tous répartis dans des dossiers, vous pouvez donc télécharger uniquement ce que vous voulez si vous n'êtes pas intéressé par l'ensemble de la collection. Et si vous voulez profiter des plus de 350 vidéos pour quelque raison que ce soit, c'est un téléchargement de 16,4 Go. Bravo ! Pour ceux qui ne veulent pas télécharger tous les fichiers, je fournirai un ensemble limité de captures d'écran des vidéos Borderlands 3 1080p et 4K pour référence ci-dessous. Je ne vais faire que des écrans de GPU récents, sinon cela prend beaucoup de temps.

Source 1080p 38Mbps

AMD RDNA3 1080p H.264 3Mbps

AMD RDNA3 1080p HEVC 3Mbps

AMD RDNA3 1080p AV1 3Mbps

Intel Arc 1080p H.264 3Mbps

Intel Arc 1080p HEVC 3Mbps

Intel Arc 1080p AV1 3Mbps

Nvidia Ada Lovelace 1080p H.264 3Mbps

Nvidia Ada Lovelace 1080p HEVC 3Mbps

Nvidia Ada Lovelace 1080p AV1 3Mbps

Processeur 13900K 1080p H.264 3Mbps

Processeur 13900K 1080p HEVC 3Mbps

Processeur 13900K 1080p AV1 3Mbps

Source 4K 50 Mbps

AMD RDNA3 4K H.264 8Mbps

AMD RDNA3 4K HEVC 8 Mbps

AMD RDNA3 4K AV1 8Mbps

Intel Arc 4K H.264 8Mbps

Intel Arc 4K HEVC 8 Mbps

Intel Arc 4K AV1 8Mbps

Nvidia a Lovelace 4K H.264 8Mbps

Nvidia Ada Lovelace 4K HEVC 8Mbps

Nvidia a Lovelace 4K AV1 8Mbps

Processeur 13900K 4K H.264 8Mbps

Processeur 13900K 4K HEVC 8Mbps

Processeur 13900K 4K AV1 8Mbps

La galerie ci-dessus montre des captures d'écran pour une seule image de l'AMD RX 7900 XTX, Intel Arc A770, Nvidia RTX 4090 et CPU encode sur le Core i9-13900K. Bien sûr, une seule image n'est pas la question, et il peut y avoir des différences dans l'emplacement des images clés, mais c'est pourquoi nous avons utilisé l'option "-g 120" pour qu'en théorie, tous les encodeurs placent les images clés à le même endroit. Quoi qu'il en soit, si vous souhaitez les parcourir, nous vous recommandons de visualiser les images complètes dans des onglets séparés. Nous avons uniquement choisi de faire des captures d'écran pour les débits les plus bas, et cela seul a pris beaucoup de temps. Vous pouvez au moins avoir une idée de ce à quoi ressemblent les vidéos encodées, mais les scores VMAF ont sans doute fourni un meilleur guide quant à ce à quoi ressemblerait l'expérience globale de regarder un flux en utilisant l'encodeur spécifié. Parce que nous ne faisons que le plus bas débits binaires des résolutions sélectionnées, notez que les résultats VMAF vont de "médiocres" à "corrects" - les vidéos à débit binaire élevé sont certainement bien meilleures que ce que nous montrons ici.

Après avoir exécuté et réexécuté les différents encodages plusieurs fois, nous avons fait de notre mieux pour essayer d'uniformiser les règles du jeu, mais c'est encore assez cahoteux par endroits. Il existe peut-être des options qui peuvent améliorer la qualité sans sacrifier la vitesse avec lesquelles nous ne sommes pas familiers, mais si vous ne prévoyez pas de passer beaucoup de temps à comprendre de telles choses, ces résultats devraient fournir une bonne base de ce à quoi s'attendre Malgré tout le battage médiatique autour de l'encodage AV1, en pratique, il n'a pas l'air ou ne se sent pas si différent de HEVC. Le seul véritable avantage est que AV1 est censé être libre de droits (il y a des poursuites en cours pour contester cela), mais si vous archivez vos propres films, vous pouvez certainement continuer à utiliser HEVC et vous ne manquerez pas grand-chose si quoi que ce soit. Peut-être que AV1 prendra le relais à l'avenir, tout comme H.264 est devenu la norme vidéo de facto au cours de la dernière décennie ou plus. Certes, il a de grands noms derrière lui, et maintenant les trois principaux fabricants de GPU pour PC ont accéléré la prise en charge de l'encodage. Du point de vue de la qualité et des performances globales, le dernier matériel Ada Lovelace NVENC de Nvidia sort vainqueur avec AV1 comme codec de choix. , mais pour le moment, il n'est disponible qu'avec les GPU à partir de 799 $ - pour le RTX 4070 Ti. Il devrait éventuellement arriver dans les variantes 4060 et 4050, et celles-ci sont déjà livrées dans les ordinateurs portables, bien qu'il y ait une mise en garde importante : les cartes de la série 40 avec 12 Go ou plus de VRAM ont deux blocs NVENC, tandis que les autres modèles n'auront qu'un seul bloc d'encodeur , ce qui pourrait signifier environ la moitié des performances par rapport à nos tests ici. Juste derrière Nvidia en termes de qualité et de performances, du moins en ce qui concerne l'encodage vidéo, les GPU Arc d'Intel sont également parfaits pour le streaming. Ils ont en fait des résultats de meilleure qualité avec HEVC qu'avec AV1, correspondant essentiellement à la série 40 de Nvidia. Vous pouvez également les utiliser pour l'archivage, bien sûr, mais ce n'est probablement pas le principal atout. Cependant, Nvidia prend définitivement en charge plus d'options de réglage et semble également bénéficier d'un plus grand support logiciel. Les GPU d'AMD continuent quant à eux d'être à la traîne par rapport à leurs concurrents. Les cartes RX 7900 basées sur RDNA 3 offrent les encodages de la plus haute qualité que nous ayons vus d'un GPU AMD à ce jour, mais cela ne veut pas dire grand-chose. En fait, au moins avec la version actuelle de ffmpeg, la qualité et les performances sont à peu près à la hauteur de ce que vous pourriez obtenir d'un GPU GTX série 10 en 2016 - sauf sans le support AV1, naturellement, puisque ce n'était pas une chose en arrière Nous soupçonnons que très peu de gens vont acheter une carte graphique uniquement pour ses prouesses d'encodage vidéo, alors consultez nos benchmarks GPU et nos tests de diffusion stable pour voir comment les différentes cartes s'empilent dans d'autres domaines. Ensuite, nous devons exécuter des chiffres mis à jour pour Stable Diffusion, et nous examinons d'autres références d'IA, mais c'est une histoire pour un autre jour.

Rejoignez les experts qui lisent Tom's Hardware pour en savoir plus sur l'actualité technologique des passionnés de PC - et ce depuis plus de 25 ans. Nous enverrons les dernières nouvelles et des critiques approfondies des processeurs, des GPU, de l'IA, du matériel des fabricants et plus directement dans votre boîte de réception.

Jarred Walton est rédacteur en chef chez Tom's Hardware et se concentre sur tout ce qui concerne les GPU. Il travaille comme journaliste technique depuis 2004, écrivant pour AnandTech, Maximum PC et PC Gamer. Des premiers "décélérateurs 3D" S3 Virge aux GPU d'aujourd'hui, Jarred suit toutes les dernières tendances graphiques et est celui qui pose des questions sur les performances du jeu.

Les ventes de GPU de bureau les plus basses depuis des décennies : rapport

Meilleures cartes graphiques pour les jeux en 2023

Raspberry Pi Drives Sailboat en automatisant le pilote automatique

Par Avram Piltch08 juin 2023

Par Anton Shilov08 juin 2023

Par Ash Hill07 juin 2023

Par Anton Shilov07 juin 2023

Par Mark Tyson07 juin 2023

Par Zhiye Liu07 juin 2023

Par Ash Hill07 juin 2023

Par Aaron Klotz07 juin 2023

Par Mark Tyson07 juin 2023

Par Ash Hill07 juin 2023

Par Les Pounder07 juin 2023

Mise à jour 09/03/2013 : PC INTEL 13E GEN PC INTEL 12E GEN AMD : Intel : Nvidia : aimant : ?xt=urn:btih:df31e425ac4ca36b946f514c070f94283cc07dd3&dn=Tom%27s%20Hardware%20Video%20Encoding%20Tests MISE À JOUR : Encodage vidéo testé : AMD Les GPU sont toujours à la traîne par Nvidia, Intel : En savoir plus