C’est parti pour un nouveau billet, aujourd’hui, il sera question du raytracing sur les GPU d’entrée de gamme : une fonctionnalité inutilisable à mes yeux.

C’est une révolution…

Présentée comme une révolution graphique, c’est devenue la technologie phare des dernières années. Elle permet de simuler le comportement réaliste de la lumière dans les environnements complexes. C’était l’avancée majeure vers des jeux photos réalistes et une immersion à couper le souffle.
Cependant, quid de l’intégration de cette technologie exigeante dans des cartes graphiques d’entrée de gamme ? Sachant que ces dernières n’ont ni la puissance ni la mémoire nécessaires pour l’exploiter correctement. Ce segment de GPU comme les RTX 3050, 4060 et 5050 sont plus présents sur le marché et l’argument RTX relève davantage du marketing que d’une fonctionnalité utilisable pour les joueurs.
Pourquoi ? Car la technologie est extrêmement gourmande en ressources. Elle nécessite non seulement une puissance de calcul importante, mais aussi une quantité substantielle de mémoire (VRAM) en plus d’une bande passante mémoire élevée. Les RTX intègrent des cœurs RT dédiés pour accélérer ces calculs (exit donc les GTX, et bonjour les dégats avec les Radeon). Mais pour autant, les RTX ne sont pas sauvées, du moins pas toutes. La faute à leur VRAM insuffisante…
En 1080p, la RTX3050 (la vraie) malgré ses 8 Go de VRAM ne dépasse pas la RTX2060 6 Go (qui n’est déjà pas faite pour ça) la manque au manque de Core dédiés et de bande passante mémoire suffisante.  Si l’on prend la RTX 4060, nouvelle génération, mêmes limitations. Malgré l’amélioration des performances brutes par rapport à la génération précédente, les mêmes limitations sont toujours là et l’on ne parle que de 1080p. L’histoire semble se répéter avec les spécifications annoncées des RTX5050, toujours moins de Core, toujours la même VRAM.
On se demande donc pourquoi les iGPU sont annoncés capables de gérer le raytracing…

Les soucis des derniers titres

C’est là que la situation devient particulièrement problématique avec l’émergence de jeux qui imposent le raytracing. On le savait gourmand, peu pertinent au lancement. Il est devenu pas primordial, mais c’est mieux avec dans Spiderman et Alan Wake… et voici impératif dans Indiana Jones and the Great Circle. Ou là sans être là dans Star Wars Outlaws. En 1080p les cartes 8 Go ne suivent plus dans les réglages élevés, les 10 et 12 (soit le haut de gamme de la génération précédente) ne tient pas en 1440p. Et la ou c’est rigolo de mon point de vue c’est de se dire qu’une RTX3060 12 Go ou une 4060Ti 16 Go s’en sortent mieux qu’une RTX3080 avec 10 Go de VRAM.  Certains bench ont pointé Star Wars à 21 Go de mémoire vidéo avec tous les effets de raytracing activés.
Une consommation mémoire presque aussi ridicule que l’espace disque occupé par certains titres. Donc non désolé le marketing, mais les GPU d’entrée de gamme ne sont pas fait pour ça. Alors, arrêtez de nous en faire la promotion. Ces GPU sont fondamentalement limités par leur architecture, leur quantité de VRAM et leur bande passante mémoire. Et ce n’est pas le renfort DLSS et FSR, eux aussi, prenant un peu de ressources qui viendront résoudre la situation. Ils ne feront au mieux que masquer partiellement les limitations sous-jacentes.
À quand une industrie plus honnête ? Limitons la notion de compatibilité raytracing aux cartes milieu de gamme. C’est-à-dire disposant d’au moins 12 Go de mémoire avec un bus de 192 bits ou plus. Du coup byebye la 4060Ti 16 Go. Pour l’entrée de gamme autant prioriser l’excellence en rastérisation… mais la, on peut rêver.

By tech

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *