Dans mes recommandations, j’insiste régulièrement sur le fait d’équilibrer ses choix. Tout ça dans le but d’éviter de trop dépenser, mais aussi d’éviter le bottleneck.
La théorie
La théorie, c’est que le plus souvent on souhaite être en situation de « bottleneck CPU » ou « GPU limited ». C’est-à-dire que les performances soient limitées par la puissance de la carte graphique. On souhaite que certe dernière travaille au maximum tout le temps. Avec les prix qui varient, les recommandations sur l’ordre de grandeur entre CPU et GPU n’ont plus vraiment de sens. Par ailleurs, autre paradigme, on dit souvent que la résolution et les options graphiques influent sur la charge du GPU et donc le framerate. Mais, contrairement à ce que l’on pourrait croire, les nouveaux moteurs, upscaling et FrameGen changent drastiquement la donne. Déjà qu’ils ne brillaient pas toujours pour leur pertinence. L’impact du Raytracing par exemple, n’est pas du tout pris en compte dans les simulateurs de bottleneck en ligne.
Je ne vais pas tout leur enlever. Ils permettent de dégrossir et se de faire une idée. Même si, quand on arrive sur ce genre de sites, c’est que l’on a déjà fait pas mal de recherches et que l’on ne compte pas associer un Ryzen 7800X3D avec une RTX3050 ni un i7-6700k avec une RX9070XT. Autre chose, ces sites font une espèce de moyenne sans tenir compte des titres visés. Sur un même titre, la situation peut changer du tout ou tout en deux réglages.
Si j’écoute les simulateurs, en 4k, Ryzen 5500 ou i3-12100F font le combo parfait avec une RX6800 ou une 3060Ti. En 1080p, ces processeurs ne seraient pas suffisants pour une RTX2060…
La pratique
Je vais prendre quelques exemples sur des configurations que j’ai pu mettre à jour récemment ainsi que la mienne et ça tombe, ça colle avec les exemples pris juste au-dessus. Pour vérifier ça, on va s’équiper pour ça et heureusement, on a le choix :
– Overlay Adrenalin
– Overlay Nvidia App
– Overlay Afterburner
– PresentMon
Pour l’aspect pratique, l’overlay des drivers et le plus simple à activer, mais aussi le moins complet. Afterburner et PresentMon proposent quelque chose de plus complet tant qu’on les configure correctement. PresentMon est celui qui offrira la meilleure présentation pour détecter les dépassements de Vram. Je n’ai pas réussi à l’afficher avec l’app Nvidia. Cela dit facile à voir, une poignée de fps, un GPU à 100% et une consommation GPU ridiculement basse = dépassement de Vram.
Dans mon cas, j’ai choisi de faire des tests sur GTFO, Helldivers 2 et Cyberpunk. Le 1er est un vieux titre pas forcément optimisé, le second est un bon exemple de jeu qui utilise toute la configuration, le dernier est une vitrine bourrée d’options et d’aides. J’ai testé en 1080p, 4k, avec/sans upscaling, avec 16 ou 32 Go de ram. J’ai également essayé de mettre la RTX2060 avec un i5-4690 et de remplacer le i3-12100F par un 14400F cela donne une bonne gamme de tests. Bien sûr, ce n’est pas exhaustif ni représentatif de tous les cas, mais ça donne une bonne idée. D’après les calculateurs,
Les tests
GTFO
La première chose qui n’est pas prise en compte par les simulateurs, c’est que les textures font exploser la Vram rapidement. GTFO en 1080p, la 2060 est vite dépassée même avec un vieux i5. En 4k, la 3060Ti ne suit pas non plus et avec 16 Go de ram c’est le plantage. Par contre, la RX6800 en 1080p met effectivement en limite un 5500 même avec toutes les options. En 4k, selon les scènes, c’est plus équilibré, c’est tantôt l’un (CPU) tantôt l’autre (GPU) qui ralentit. Le 14400F permet au meilleur des GPU de s’exprimer à plein potentiel, soit la situation optimale.
Helldivers 2
Sur Helldivers 2, en jouant avec les réglages, on peut voir plusieurs choses. Ce qui est en sûr, c’est que le GPU est limitant… enfin sauf si… Si par exemple, on active l’upscaling, même au minimum, même en 4k même en détail élevé, le CPU devient limitant dans le cas du 5500 ou du 12100F. Il faut réduire les rendus de distances, les détails d’ombres etc. pour réduire la charge CPU et retrouver un GPU à 100%. La RX6800 est à 40/45fps sans upscaling, le 12100F à 80% est presque à déjà la peine. Dès que l’on met l’upscaling, la RX6800 tourne autour de 70fps quand tout va bien. Mais, avec de sacrées descentes dans les 40fps à 60% d’utilisation sur des scènes chargées, le 12100F étant à 100% on est bien CPU limited en 4k avec une puce pourtant sans tenir le choc. Les baisses de fps disparaissant avec un 14400F cela confirme l’intuition.
Cyberpunk
Derniers essais, Cyberpunk. Aucun des GPU n’est bon pour le RT Overdrive. De toute façon, ni les petits CPU ni le GPU n’arrivent à suivre même en 1080p. En mettant tout au minimum puis en montant les réglages et en activant l’upscaling, on arrive à établir des paliers. D’abord, le 12100F montre déjà des faiblesses, hors RT, il n’offrira pas mieux que 90fps sur le titre au minimum. Ici, même la 3060Ti n’est pas utilisée à 100% dans ce cas, la 2060 oui. En activant le RT, le même CPU (et ce n’est guère mieux avec le Ryzen 5500) ça sera moins de 60fps au max même si le GPU peut mieux faire. Monter en résolution ou réduire l’upscaling permettra d’équilibrer la configuration, mais le CPU restera la limite ici. Cela dit, il y a matière à avoir une bonne expérience RT sur le titre même avec une configuration limite. Le vieux i5-4690 avec la 2060 est ok pour une expérience 1080p medium/high 30fps sans RT du moment que l’on joue sur les options comme la population. Je n’ai pas poussé les tests, mais à la rigueur autant monter les détails et mettre Lossless scaling.