Le dispositif le plus classique pour la sortie d’une application informatique est l’écran. Il se définit par :
- sa taille, en centimètres ou en pouces,
- sa définition, le nombre de pixels affichés sur une ligne et sur une colonne, 1920 par 1080 par exemple,
- sa résolution, le nombre de pixel sur une surface
- sa technologie d’affichage (LED, Oled, Qled, …)
- sa fréquence de rafraîchissement, 120 Hz par exemple
- ses périphériques d’entrée : Hdmi, Gpmi, Display Port
Et tout un tas d’autres paramètres que seul un beauf de l’informatique se doit de maîtriser afin d’éblouir son auditoire en montrant sa dernière acquisition télévisuelle.
Pour autant, à moins d’être un joueur professionnel de jeux de combat ou de jeux de tir à la première personne pour lequel la latence se doit d’être minimale, ou un cinéphile passionné qui tombe aussi dans les travers de l’audiophilie, tous ces paramètres sont avant tout du marketing.
Ne le prenez pas mal si vous lisez mon article sur le dernier écran incurvé de 49 pouces de chez Samsung ou sur un smartphone pliable. Mais demandez-vous comment vous faisiez 10 ans auparavant. Vous aviez accès à la même information, sans pour autant ressentir un manque existentiel.
La densité de pixels plus importante ne change en rien l’information qui vous est donnée. Le taux de contraste plus important ou la couverture presque totale de l’espace colorimétrique ne modifient pas les émotions ressenties devant un film. Les progrès techniques ces dernières années sont admirables mais …
C’est aussi un casse-tête pour les développeurs. Au départ, les affichages étaient simples et peu variés. Un écran affichait un rapport de 4:3. L’image s’affichait dans un rectangle de 40 cm par 30 cm par exemple. Il existait un autre rapport d’image, le 16:9, qui n’était utilisé qu’au cinéma.
Placer les éléments manipulés par l’utilisateur était relativement simple. Zones de saisies, boutons radios, boîtes de sélection, menus, … les composants manipulés étaient ordonnés pour être accessibles facilement. Le pixel était l’unité de mesure et restait visible. Mais 30 ans d’évolution ont bouleversé le paysage.
Créer une interface aujourd’hui c’est se lancer dans un combat de spécialiste. Sur quel équipement sera ouverte mon application ? Un ordinateur ? une tablette ? un téléphone ? une montre ? 4 équipements différents, 4 écrans différents. Suivant le support, je dois adapter les éléments affichés. S’il n’y avait que cela ?
Prenons le cas du téléphone. Chaque téléphone peut avoir une taille d’écran différente. Si la diagonale moyenne est de 6 pouces (15,24 cm pour nous les non anglo-saxons), notre application peut se retrouver sur un écran de 4 pouces ou de 9 pouces. Dois-je réorganiser les éléments de mon interface ? Changer leurs dimensions ?
Les équipements modernes permettent de connaître leurs dimensions réelles. Ensuite, à moi de prendre ma décision pour que mon application s’affiche au mieux. Si le pixel est une unité de longueur absolue, il existe aussi des unités de longueurs relatives au support sur lequel elles sont affichées.
Oui, le pixel est une unité de longueur absolue. Et la résolution fait que votre texte sera lisible ou non suivant l’équipement où il est affiché. Dans les langages modernes de création d’interface, unité de mesures absolues et relatives sont devenues légions. En CSS, on en compte pas moins de 16 différentes pour indiquer les dimensions d’un objet.
Et cela n’assure pas un résultat conforme. Rien ne dit que les informations interprétées soient correctes. Il vaut mieux vérifier son application sur plusieurs supports avant de la rendre accessible à ses clients.
Créer une interface ne se limite plus à placer des éléments graphiques à la chaîne. Le produit en croix n’est pas compliqué et les imprimeurs connaissent la problématique depuis longtemps. Mais de là à créer autant de nouveaux métiers : UI/UX Designer, Web Designer, ergonome IHM, … et pourquoi pas architecte IHM ?
