Le jeu vidéo est un programme interprété par la console et destiné à l’amusement. Ce programme occupe de l’espace. Et si aujourd’hui celui-ci semble infini, ce n’était pas le cas à ses débuts. Imaginez que vous vouliez écrire un roman mais vous n’avez que quelques post-its pour cela. Il va falloir un certain talent pour diffuser votre imagination. Le haïku est un style mais tout le monde n’est pas fan.
C’est ainsi que pendant des années, les développeurs ont cherché des astuces pour proposer des jeux intéressants sur un espace très limité. Les jeux de la première console populaire, l’Atari 2600 sont limités à 4 ko. Cela correspond en moyenne au nombre de caractères de mes articles.
Imaginez qu’avec cela il faut écrire des instructions qui gèrent l’affichage, les actions du joueur et le son. Cela explique en partie la médiocrité des jeux de l’époque. Des astuces permettaient d’augmenter l’espace disponible, mais cela augmentait le coût de la cartouche. La technologie évoluant vite, les développeurs ont rapidement eu plus d’espace pour leurs créations.
Pour autant, l’espace disponible restait modeste. À l’époque du grand affrontement Megadrive vs Super Nintendo, les jeux ne dépassaient pas 1 Mo. C’était à peine au niveau d’une disquette alors que le support optique (le CD-Rom) se généralisait. Avec 1 Mo, éditeurs et développeurs proposaient quand même des jeux de qualité avec des heures d’amusement.
La promesse du support optique apparaissait donc comme une révolution pour les développeurs puisqu’elle multipliait par 650 l’espace disponible pour créer un jeu. Ce support a donc été retenu pour les nouvelles consoles apparues au milieu des années 90 : Sony Playstation et Sega Saturn pour les plus connues. Couplé à l’augmentation des performances des consoles, le bon qualitatif était impressionnant … ou presque.
Jamais l’avancée technologique n’a été aussi importante. Seule la société Nintendo ne suivit pas cette voie. Même si la capacité des cartouches augmentait, les éditeurs devaient imaginer des algorithmes de compression toujours plus efficaces pour répondre à la nouvelle demande des jeux en 3 dimensions.
CD, DVD, Blu-ray le support optique évoluait pour toujours plus d’espace. Mais il présentait un inconvénient important, le temps d’accès à l’information. Si celui-ci se compte en millisecondes pour récupérer une information, lorsqu’il faut charger des milliers de fichiers répartis sur le disque optique pour calculer les éléments d’un jeu, le temps d’attente pour le joueur peut se compter alors en minutes.
Pour pallier cela, les consoles copièrent à nouveaux les ordinateurs. Les informations les plus utilisées étaient enregistrées sur des disques durs qui étaient intégrés dans les consoles. L’accès à ce support étant plus rapide, les joueurs attendaient moins. Cela impliquait quand même l’étape d’installation du jeu sur la console.
Couplé à un accès à Internet, les créateurs de jeux pouvaient apporter des correctifs, pour le meilleur et pour le pire. Le capacité de stockage infinie apportée par le réseau des réseaux aboutissait à des jeux non finis mais vendus. Mais c’est un autre débat.
La dernière évolution vint de Nintendo. Malgré les améliorations des performances, les supports étaient toujours lents à la réaction. Alors pourquoi ne pas revenir à la cartouche. Désormais, 8 Go de mémoire se négocient pour quelques euros. C’est une faible part du coût d’un jeu.
Ces concurrents préfèrent conserver la stratégie du combo disque optique et stockage interne. Les disques durs trop lents ont été remplacés par des supports SSD bien plus réactifs. Pour autant, les réflexes d’optimisation ont été conservés.
Ainsi, Sony a ajouté une puce de décompression entre temps réel entre le stockage et le cœur de la console. C’est de l’espace gagné (et donc du temps) lors de la lecture des données. L’optimisation est restée un objectif des développeurs de jeu.
Cela fait bien longtemps que l’espace de stockage n’est plus un frein pour la créativité des développeurs. Pourtant cette contrainte est à l’origine de nombreux progrès.