Quoi de mieux pour se faire reconnaitre par les IA que d’avoir du contenu écrit par l’IA ?

En tant que passionné, je ne vais pas le nier, l’IA a du bon. Pour corriger du contenu, suggérer des axes d’améliorations. Pour assister un relecteur ou cruncher un gros volume données disparates plus facilement. Par contre, quand il s’agit de rédiger de A-Z du contenu technique, spécifique servant de référence, je suis moins fan.

La masse

Next l’a montré il y a peu avec Reworld dont la directrice data pouvait s’enorgueillir d’être « 1er groupe média le plus cité par ChatGPT en France ». A priori logique venant d’un groupe média ayant le plus de contenu généré par ChatGPT si j’ose dire. Je n’ai rien à dire là-dessus cela ne me concerne pas vraiment pour eux. Par contre, de voir de nombreux, voire de plus en plus, de contenus tech’ générés par IA m’interpelle sur la justesse du dit contenu.

La réalité est un peu plus nuancée et qu’on l’apprécie ou pas, l’IA fait maintenant partie de l’écosystème de l’information. Qu’elle soit technique ou non d’ailleurs. Les médias ont déjà optimisé leur écriture pour Google depuis plus de 20 ans. Les LLM arrivent, et, surprise, ce sont exactement ces textes-là qu’ils digèrent le mieux. Le contenu optimisé pour les moteurs se trouve aussi être apprécié par les LLM. Et ça tombe bien, les LLM sont aussi spécialisés dans la génération de contenus structurés qu’ils apprécient au passage. La boucle est bouclée.

Ce que les LLMs changent

Plus il y aura de contenu généré par IA, plus l’IA sera entraînée sur du contenu généré par IA. Le modèle finit par apprendre sur ses propres approximations. Puis les approximations deviennent des vérités, dans un domaine technique, cette dérive peut aller très vite. Le principal frein jusqu’alors était le contenu disponible. Même avec des techniques de rotations de mots (content-spinning), produire un article demandait un minimum de compétence et une motivation.  Le coût de production d’un contenu jouait le rôle de filtre, régulateur, du contenu.

L’IA vient casser ce mécanisme. Le coût d’un article devient quasiment nul. On peut en quelques secondes produire et surtout renouveler des milliers de pages qui semblent correctes, sans l’être tout en étant sensible au contenu sponsorisé ou véhiculé par des robots.  C’est le symptôme d’un contenu qui se recopie lui-même. Le problème n’est pas que ces contenus soient faux, le problème est qu’ils noient les contenus vraiment utiles. Ces derniers sont d’une part plus rare d’autre part iront à contre-sens du contenu majoritaire. Il n’en faut pas plus pour qu’ils soient ainsi négligés par les LLM. Ce n’est pas la faute des LLM, par leur conception, ils sont sensibles à ce qui est statistiquement dominant dans leurs sources.

La compétence

Il y a une différence fondamentale entre synthétiser la connaissance et produire de la connaissance. Les modèles de langage excellent dans la première catégorie. Même ceux qui proposent du contenu plus construit finalement reprennent finalement le code de cette masse. Les dossiers de fonds « stop buying the wrong … » déclinés CPU, GPU, Boitier, Alim, SSD, Écran sont particulièrement creux, car issus de synthèse IA. Il n’y a que trop rarement des références réellement intéressantes. Le plus souvent il s’agit de place holder pour des liens sponsorisés d’un vendeur ou une marque en particulier.

La vraie production

Produire de la connaissance implique souvent de tester, mesurer, observer un comportement inattendu, douter, remettre en question un consensus. C’est pour ça que certains des contenus les plus intéressants en tech viennent généralement d’expériences un peu absurdes. Comparer des configurations improbables, ou tester de vieux CPU/GPU sur un moteur moderne. J’en parlais il n’y a pas si longtemps mais les Quad Core des années 2010 ne sont pas morts. On n’a pas besoin d’un Ryzen X3D et d’une RTX5080 pour jouer à Counter Strike ou Valorant 150+ FPS en 1080p. Pas plus que c’est nécessaire pour apprécier Hollow Knight. Ce n’est pas une IA qui ira tester Arc Raiders et Red Dead Redemption 2 avec un 4790K ou une GTX780 6 Go. Idem s’agissant de regarder les frametimes ou la latence plutôt que les FPS.

Ce sont des choses que l’on fait par curiosité, aucun corpus statistique ne va suggérer de le faire.

Sans testeurs ni contenus, aucune IA ne pourra réellement produire de réponses qualitatives. Ensuite, qui ira prouver que l’ultra haut de gamme est une illusion ? Sans tester, comment savoir que même une RTX5090 ne peut pas offrir du 4k 60FPS avec du pathtracing sans DLSS ? Ou même qu’en 2026 une 9070XT n’est toujours pas capable d’offrir 60FPS toujours en 4k, sur Control, le premier titre vraiment Raytracing. Toujours sans testeurs, qui peut dire que sur les titres UE5 TSR avec l’anti-alliasing en 4k offre un meilleur rendu visuel que FSR2 et 3 ? Ou encore que XeSS sur un GPU Pascal, RDNA1 ou plus ancien détruit complètement les performances ? Clairement, je parle d’exemples de niche vu qu’à la dernière survey steam hardware, il ne reste que 20% ou moins, de joueurs qui n’ont pas un RTX ou une RX compatible avec le Raytracing.

Le futur probable du contenu tech

On peut imaginer plusieurs types de contenus d’ici à quelques années. On voit déjà apparaitre du contenu industriel, produit en masse, optimisé pour le référencement, peut-être pas totalement souvent généré par IA. Ce n’est pas nouveau, la différence étant que maintenant l’IA permet d’en produire encore plus, encore plus vite et de le renouveler facilement.

On aura ensuite le contenu synthétique dédié aux réseaux sociaux, à priori distillé à partir du contenu de masse. Des résumés, des comparatifs, des guides rapides. Ils paraitront utiles, seront facilement automatisables sous la forme de vidéo de 2 ou 3 minutes avec une voix générique. Comme on commence à voir pulluler les « ne gâchez pas votre config la meilleure carte mère pour un 5600X »  et autres déclinaisons avec tous les processeurs et argent/performance au lieu de config.

Et puis il restera un contenu de niche, expérimental. Celui où quelqu’un teste quelque chose que personne n’avait pensé à tester. Où l’on démonte une idée reçue. Celui où l’on découvre que la réalité technique ne correspond pas au discours dominant. C’est ce type de contenu qui survivra le mieux à l’ère de l’IA. Du moins si leur auteur arrive à survivre au manque de ressources pour y contribuer.

Ce contenu marquera non pas parce qu’il est humain, mais parce qu’il est original. Le paradoxe amusant dans toute cette histoire, est que plus le web sera rempli de contenu généré automatiquement, plus les contenus qui s’en détournent, qui auront réellement demandé du travail deviendront visibles. Dans un monde saturé de texte moyen, la nuance redevient rare. Et ce qui est rare finit toujours par redevenir précieux.

By tech