Cinq, voire dix ans d’écart, trois générations de GPU, et un résultat à peine plus fluide. Une évolution, vous dites ? Les AAA de fin 2025 et début 2026 sont aussi splendides qu’injouables avec des exigences hardware qui atteignent les sommets. Imaginons une seconde : si Battlefront sortait aujourd’hui, début 2026, au lieu de fin 2015, il demanderait sans doute 16 Go de RAM et une RTX5080 pour tourner à 60 fps avec Framegen. J’aimerais que ça ne soit qu’une phrase lancée sur le ton de la blague, mais elle est tristement réaliste.
Une évolution vous dites ?
J’en parle régulièrement. Depuis quelques années, les exigences matérielles des jeux explosent. Bien sûr, les technologies évoluent, Raytracing, textures HD puis 8k, particules dynamiques, IA comportementale. Enfin tout ça, c’est beau sur le papier. La différence visuelle peine souvent à justifier le caractère injouable des derniers titres sans matériel hors de prix. J’ai du mal à imaginer que ce soit les interactions des 3 PNJ présents qui prennent autant de CPU dans Starfield. À croire que ce sont les participants d’une expérience de Schrödinger, ils sont quantiquement là pour les calculs, mais visuellement absents.
Le marketing nous a vendu le photoréaliste. D’accord, mais Battlefront de 2015, qui était une référence en la matière, au max tourne mieux et rend mieux que Battlefield 6 au minimum. Dans une époque difficile, on sent pourtant l’effort fait pour que ce dernier ne soit pas un gouffre à performance. Tellement bien que la Vega VII ou même une GTX1060 3 Go s’en sort encore. On ne peut pas dire que ça soit les textures pas très définies du terrain qui occupent la Vram… Heureusement que hors TPM le jeu tournerait bien, sur un combo Haswell-Pascal mainstream.
Loin d’être des cas isolés, les nouveaux titres côtoient des remasters parfois absurdes. Des jeux de 2005 à peine plus beaux demandant une RTX 4080 et 16 Go de RAM pour afficher des textures toutes justes plus nettes que l’original, on peut penser à MetalGear ou Skyrim. 20 ans pour ça ? De manière ironique, on pourrait croire que l’on gonfle artificiellement les besoins pour suivre la cadence imposée par les fabricants de GPU et CPU et leur besoin de chiffres d’affaires. Le bon avant entre les RTX3080 et RTX5070 est un bon exemple, et non la 5070 n’est pas une 4090. De même, l’écart entre 7500F et 9600X dans la plupart des titres en conditions réelles laisse tout aussi songeur.
Les titres phares
J’ai pris Battlefront, mais j’aurais pu citer Battlefield, Call of Duty, ou n’importe quel AAA récent : tous obéissent à la même logique. En 2019 Modern Warfare, tournait à 60 FPS constants sur une GTX 980 déjà retard de 2 générations. Le tout avec des éclairages dynamiques plutôt crédibles et de bonnes animations. En voyant les critiques sur Battlefield 6, Activation a adapté son discours. Black Ops 7 bardé de post-traitements, de Raytracing demandera une RTX4080. Par contre, l’éditeur annonce la couleur, ne vous attendez pas à une claque visuelle et effectivement tout comme sur la partie graphique qui stagne, les requirements sont les mêmes que l’opus précédent.
Civilization VII ne marque pas une progression visuelle marquante sur le VI, par contre le rendu en 3D avec des ombres dynamiques demande maintenant une RTX2070. Je cherche encore ce que cela peut apporter au jeu et qui le verra vu l’échelle d’affichage. Alors, où est le progrès ? Si j’ai vanté Doom: The Dark Ages le jeu demande théoriquement 32 Go de RAM. Techniquement, c’est cohérent : l’ID Tech 9 garde plusieurs couches de textures et d’ombres en mémoire pour éviter les “pop-ins” que l’on reproche à de nombreux titres concurrents. Mais au fond, c’est rude. Ce n’est plus une question de puissance brute, mais de fainéantise logicielle. Il y a quelques années, l’ingénierie était forcée de faire tenir un monde dans 4 Go de VRAM. Eternal est une pépite d’optimisation.
Aujourd’hui, quels jeux récents tournent encore avec 4 Go de Vram ? On préfère reposer sur facilité logicielle, et là, il est plus facile de consommer 16 Go plutôt que d’optimiser un shader. Et si tant est que ça soit optimisé, on subit plusieurs minutes de compilations à chaque mise à jour du jeu ou du pilote. Ah oui exception, Arc Raiders s’annonce à 40+ fps sur une 1050Ti, ça relève du mirage ? Non, juste, on enlève Lumen et Nanite et on laisse des pros du Raytracing implémenter ça comme il faut.
Nostalgie
Il y a 5 ans, la GTX1050Ti de 2017 à 130€ avec ses 4 Go de Vram était capable de faire tourner tous les jeux pré 2020. Elle était l’équivalent de la GTX970 elle-même datant de 5 ans auparavant (2014). Même s’il y a bien quelques titres à la marge à ce moment-là comme Cyberpunk, les autres AAA du moment tournaient bien. L’arrivée d’Ampere à vraiment changer la donne. En termes de tarif d’une part avec un ticket d’entrée à quatre fois le prix de la 1050Ti. Mais aussi en termes de puissances, avec plus du double de performances ou encore en consommation. Les performances n’étant pas gratuites, on passe de 75 à presque 180W pour une RTX3060. 5 plus tard, les cartes 4 Go sont reléguées aux vieux titres, car même 8 go de Vram ne suffisent parfois plus.
Pourquoi 5 ans et plus ? Parce que c’est l’intervalle d’upgrade de GPU pour la plupart des joueurs en cœur de marché. Entre 5 et 6 ans pour les cartes 60 et 70. Les possesseurs de gamme 50 tiennent eux autour de 8 ans. Quand les plus addicts changent une génération sur 2 tous les 2 ans et demi. Il n’est pas rare en 2025 de croiser encore du Pascal. Beaucoup moins de Maxwell et plus ancien.
En termes de CPU par contre, c’est plus varié, si l’on ne croise plus trop d’AMD pré Zen 2, en face Haswell à encore de beaux restes. La durée de vie avant upgrade ici est plus éclectique. En solo avec un GPU mid-range, il y a plus intérêt à suivre sur le GPU que le CPU. D’autant plus criant quand BF6 ou BO7 demandent un i7 skylake.
Mobile et intégré
J’ai évoqué pas mal de choses jusque-là, mais 5 ans en mobile et intégré creusent peut-être encore plus le gap. J’avais refait le tour il y a quelque temps des différences entre GPUs laptop et desktop. Moi le premier, j’ai régulièrement vanté les progrès des iGPU pourtant on est loin de compte. À force d’être seul sur le marché, AMD s’est limité à recycler les Vega et RDNA. Toujours que rien face à une concurrence aux abonnés absents, mais la 890M est toujours derrière une néanmoins ridicule RTX2050M (que Nvidia nous recycle aussi en RTX3050M. Le tout à peine 10% mieux qu’une GTX1050Ti mobile (mais autorisant Raytracing et DLSS …). On paye le feature set et la ram plus rapide… sinon niveau specs l’évolution n’est pas folle.
Moteur à tout faire ?
Si on y réfléchit un peu plus, il y a 5 ans sortait aussi l’Unreal Engine 5.0 est-ce donc lui le début de la fin ? Peut-être ou peut-être pas. Le souci de l’Unreal Engine et qu’il permet de tout faire et d’avoir des jeux très différents avec un socle commun. Une bonne chose sans l’être. À côté de cela, Battlefield 6 est un bon exemple d’alternative. Unreal Engine est probablement beau, il est bon quand bien maitriser (on l’a vu avec Arc Raiders, Valorant ou The Finals) mais il n’est certainement pas le meilleur. Car si l’on veut du NextGen par rapport aux productions qui se ressemblent toutes de nos jours, Death Stranding 2 est la claque qui nous rappelle qu’un niveau au-dessus est possible. Et oui… c’est un moteur maison spécialement conçu pour ça qui est fluide et beau.
Au final
À croire qu’aujourd’hui, le jeu n’est plus un divertissement, c’est un benchmark déguisé, une démonstration technique envoyée aux actionnaires. Certains ne jouent plus pour explorer ou s’amuser, mais pour tester la température d’un CPU/GPU et la stabilité du framerate. Le plaisir est devenu un indicateur de charge, la curiosité remplacé par un curseur de qualité graphique.
Ce glissement en dit long de notre époque : on mesure, on compare, on affiche, mais on ne crée plus ou de moins en moins. À la place, on commente. Les studios, coincés en bourses par les deadlines et des coûts de production ahurissants, ne conçoivent plus des univers, mais des vitrines à rendre. On montre que l’on est capable de faire plus beau que le concurrent. D’offrir une suite à la série. Pas besoin de se poser d’autres questions, comme il n’y a pas de choix de titres concurrents, les joueurs consommeront forcément.
Le jeu vidéo, jadis laboratoire de créativité, inventivité et sujet d’optimisation, est devenu une usine a rendu 4k où chaque pixel se paie en watts et en fps perdus. Le paradoxe, c’est qu’on n’a jamais eu autant de puissance à disposition, mais pour autant on perd tellement en efficacité. L’industrie a troqué la maîtrise du code contre la dépendance aux moteurs tout-en-un et la créativité s’est noyée dans le post-processing. On pourrait croire que la facilité permet de sortir plus de jeux plus vite. C’est à la fois vrai et faux, il n’y a jamais eu autant de titres, avec une durée de vie toujours plus courte. Mais en même temps, sortir des AAA n’a jamais semblé aussi intermiable. A la marge, quelques indés continuent d’essayer de montrer qu’un bon gameplay, un univers, un style de jeu, et une direction artistique marquée valent mille effets technologiques.
