Dans les benchmarks, on nous parle souvent de CPU scaling. En prenant une RTX5090 et en montant les CPU d’un Ryzen 1600 au 9800X3D avec les graphismes au minimum. On nous parle également de GPU scaling partant crescendo d’une GTX1060 à la RTX5090 avec un 9800X3D avec les graphismes au max. Si cela permet de quantifier la limite brute d’un CPU/GPU à un autre, ces associations sont relativement déconnectées de la réalité. Personne ne les fera réellement. Du coup, cela fausse d’une part les attentes que l’on peut se faire avec d’une configuration. Et d’autre part, il manque un scaling : celui des pixels et des options.

Résolution, source de tous les mirages ?

On a tous grandi avec cette idée simple : plus de pixels = plus de charge. Baisser la résolution, c’est donc libérer le GPU, faire grimper les FPS pour retrouver de la fluidité. Dans la pratique, c’était vrai, du moins jusqu’aux environs de fin 2017…  Aujourd’hui, la 4K ne se contente pas d’afficher quatre fois plus de points que le 1080p. Les jeux mobilisent tout un écosystème de calculs secondaires : ombres dynamiques, post-processing, Raytracing, occlusion, reconstruction de mouvement, sharpening, temporal anti-aliasing, et autres réjouissances modernes. Selon le moteur du jeu, la complexité de ces opérations augmente (ou pas) avec la résolution.

Le résultat ? Il est difficile de prédire les performances avec des lois arithmétiques. Il est établi dans une majorité de titres en passant de 1080p et 1440p, on perd souvent autour de 30 % de framerate. Franchir le palier suivant en passant de 1440p à 4K, c’est encore 50 % de pertes. Au final, le grand saut de 1080p à 4K coûte plus de 70 % des images par seconde. Mais jusqu’à-la, je n’apprends rien. Sur le papier, tout est logique : quatre fois plus de pixels à afficher, donc quatre fois plus de travail pour le GPU et presque autant de pertes.

C’est là que les upscalers arrivent à la ressource.

Le faux miracle des upscalers (DLSS, FSR, XeSS)

Et en théorie, activer l’upscaling en mode “Performance” (qui rend justement le jeu 50% soit en 1080p avant de l’upscaler en 4k) devrait sur le papier ramener les FPS du 1080p natif ou presque. Dans la vraie vie, ce n’est pas tout à fait ça, du moins sera dépendant du moteur du jeu et le tout est parfois inégal. L’upscaler possède un coût technique, matériel et un temps d’exécution. C’est-à-dire qu’il y a un temps d’instanciation du modèle, de projection dans l’espace de l’image à upscaler et un temps d’upscaling. Même si ce coût est minime, il a un impact plus important quand le jeu tourne déjà bien.

D’ailleurs, quand un jeu tourne bien, on va dire au-dessus des 70 fps. Un upscaling « qualité » n’offre qu’un gain se limitant généralement à un maigre +20%. Par contre, dans un titre tournant à 35 fps, il est plus probable de voir un gain à +50% dans le meilleur des cas. Par contre, ce qui est indéniable dans tout les cas, c’est qu’avec les dernières versions d’algorithmes, le jeu beaucoup est même beaucoup plus agréable que le TAA natif. Donc en soi la perte de performances 1440p > 4k « qualité » n’est pas vaine.

Sur un GPU relativement moderne, l’upscaling est exécuté sur les tensors cores. Sur ceux qui en sont dépourvus, cela passera sur les unités d’exécutions classiques. Celles-là même qui sont déjà sous l’eau avec le rendu du jeu… D’où la taxe en performances supplémentaire et le fait que je qualifie cela de faux miracle. La technologie censée aider ceux qui sont à la peine les accable d’un poids supplémentaire, certes, il y a un gain, mais pas toujours celui escompté. Et quand même bien, on allège un peu le GPU, le CPU lui reste occupé par la logique du jeu, le traitement des ombres et des assets qui ont la même complexité en 720p ou en 4k. Donc s’il était le facteur limitant, l’upscaling ne changera pas la situation.

Le raytracing un coupable idéal ?

En corollaire de ce que je viens d’énoncer, quand on active le Raytracing (sous réserve d’en avoir le choix), on va venir charger les RT cores et les tensors à qui on va demander de gérer l’upscaling, je vous laisse imaginer les effets. Dernier mauvais élève en tête, BlackOps 7, Activision sait bien que personne ne veut mettre du Raytracing sur un titre compétitif… du coup le Raytracing a été laissé de côté lors des phases d’optimisations techniques. Une option qui bouffe 70% des performances pour au final n’afficher qu’un reflet flou du personnage dans les vitres des véhicules, on a vu mieux. Dans un jeu d’infiltration, je validerai à 100% ce genre de feature. Dans un jeu compétitif, Jensen risquerait de ne pas apprécier la critique, mais la réalité est là, à quoi ça sert ?

Certaines réalisations sont moins gourmandes que d’autres et plus réussies que d’autres. Sur Dark Ages, l’impact est présent, mais modeste par rapport à un Cyberpunk. A l’inverse, d’un Darktide pour lequel les réglages auto n’activent pas le Raytracing en dehors des modèles X090 de Nvidia. Et puis il y a ceux qui ont remplacé Nanite et Lumen et qui proposent du RTGi, un entre deux moins flatteur, mais moins taxeur au rendu correct comme sur Arc ou Forza Motorsport par exemple. D’une implémentation à l’autre la différence avant ou sans RT est parfois imperceptible.

Les options graphiques fantômes

Oublions le Raytracing qui cannibalise les performances. C’est un peu la même chose côté des autres réglages de graphismes : les options Ultra ou Epic voir Cinématiques sont toujours des épouvantails marketing. Quelques options monopolisent la qualité finale du rendu. On le voit dans de nombreux titres récents, ajuster certains sliders n’a aucun effet, ni sur l’image ni sur les performances. À croire qu’ils sont la juste pour rassurer sur le fait que l’on peut ajuster quelque chose. Pour d’autres, chaque échelon à un effet dramatique sur la performance ou la qualité, parfois les deux à la fois.

La vérité, c’est que régulièrement un mix des réglages Medium/High offre 95 % du rendu visuel que l’on voit en ultra. Mais avec un écart de 40 % de performances en plus. La différence visuelle, notable dans un arrêt sur image zommé, est pratiquement invisible dans le feu de l’action. L’impact est par contre flagrant sur la fluidité.

Certains youtubers ont trouvé leur niche en comparant toutes les options graphiques des jeux et proposent leurs choix d’options pour des réglages de performance optimisés. Généralement, les réglages d’ombres projetées, illumination globale sont parmi les plus gourmandes.

Le paradoxe de la Frame Generation

L’autre technologie qu’on brandit souvent comme une révolution, c’est le Frame Generation. La machine à transformer 72 FPS en 186 FPS d’un claquement de doigts. Sur le papier, c’est magique : on injecte des images synthétiques entre les images réelles, et hop, les FPS doublent ou triplent. Et si justement, je prends le  72 – 186, c’est justement pour illustrer qu’un 72 x4 ne se transforme qu’en 186. L’algorithme de multiplication prend sa taxe sur les performances de base. Mais derrière cet artifice numérique, il y a un prix très concret : la latence. Elle passe de 30 ms à 40 ms avec les 72 FPS, puis explose au-delà de 60 ms une fois le Frame Gen actif.

Autrement dit : on joue à un jeu qui a l’air plus fluide, mais qui répond moins vite. La « fluidité » affichée est donc un trompe-l’œil.

La FG n’accélère rien. Elle insère des images intermédiaires, reconstruites, prédictives, calculées grâce au flot optique et aux tensor Cores. Le GPU ne travaille pas moins, il travaille différemment. On gagne des images qui n’existaient pas, mais on allonge la chaîne de traitement. On se retrouve avec une sorte de réalité augmentée du framerate : plus de mouvement perçu, moins de contrôle réel. Le résultat est étrange : visuellement, c’est presque magique. Manette en main un peu moins, mais en clavier/souris, surtout en FPS compétitif, la réalité pique.

Cette technologie n’est pas inutile, au contraire, elle transforme l’expérience solo. Elle donne une sensation de confort que l’on trouvera difficile à abandonner. Mais si on la voit pour ce qu’elle est : un multiplicateur de perception, pas un multiplicateur de performances brutes. Elle fonctionne exactement comme prévu, elle améliore l’illusion de mouvement. Le souci, c’est l’interprétation : on confond fluidité visuelle et fluidité de contrôle. Dans un benchmark, 186 FPS x4 c’est une base de 46 FPS… avec la latence qui va avec. C’est moins impressionnant et l’écart de latence se ressentent immédiatement.

On pourrait croire que FG est donc une solution idéale pour les jeux solo, cinématiques, contemplatifs. Et encore qu’à 45 fps, ils restent jouables sans souci donc ce n’est pas même pas une nécessité sauf à justifier l’usage de son matériel hors de prix. Généralement, Reflex/Antilag arrivent à limiter la perte et permettre de revenir autour des 50ms de latence globale peu importe le frame rate, qu’il soit a 50 ou à 200.

Au final

On nous aura vendu bien des miracles : rendu 1080p, affichage 4K, performances équivalentes et qualité native. La promesse était belle. La réalité, elle, l’est peut-être moins. La 4K DLSS ou FSR Performance n’est pas que du 1080p rapide et propre, c’est surtout du 4K post-produit. C’est plus beau certes, mais plus lourd, plus latent que le 1080p sans toutefois égaler la 4k native. Surtout avec l’horrible TAA sur des jeux Unreal Engine nécessaire de facto alors qu’un anti alliasing en 4k est plutot facultatif.

Les moteurs modernes n’allègent rien : ils déplacent la charge, la découpent, la compressent, la reconstruisent, mais elle est toujours là.  Ce qu’on gagne en pixels simulés, on le rend en opérations secondaires. Le GPU ne calcule plus moins, il calcule différemment. Et entre le CPU qui reste débordé et le GPU qui délègue, on finit par se retrouver dans une drôle d’économie : celle du calcul circulaire, où chaque optimisation crée une nouvelle complexité.

Il n’y a pas de magie. Le GPU ne fait pas moins, il fait autre chose et ça, les benchmarks bruts ne le racontent pas. Les options graphiques “Ultra” et les upscalers magiques sont devenus des symboles d’un progrès paradoxal. Plus de technique, pour un bénéfice parfois imperceptible. Et si, au fond, l’avenir du rendu ne se jouait plus sur le nombre de pixels, mais sur la pertinence de ce qu’on choisit d’afficher ?

By tech