Les musiciens avaient été payés. L’arbitre avait sifflé. Et comme un chien dans un jeu de quilles, l’intelligence artificielle (IA) est arrivée dans le Royaume Informatique. Le résultat est fascinant à observer. Fascinant car étendu à l’ensemble du domaine, chaque informaticien peut se situer dans une des phases du changement.
À moins de travailler sur un ordinateur au fond d’une grotte, ou sur la copie de la sonde Voyager, je ne pense pas qu’un informaticien puisse ne pas être au courant des nouveaux usages des IA. Passé le choc, certains nient les apports de ces nouvelles technologies et invoquent des récits d’autres temps.
“Ces “programmes” arrivent à aligner des mots de façon statistique, mais il doit y avoir une armée de consultants indiens qui corrigent les réponses.”. “Beaucoup de promesses pour un maigre résultat”. Comment leur donner tort quand on connait l’historique des échecs. Parce que les changements sont réels.
Mais pour s’en rendre compte, il faut mettre en œuvre ces modèles. Cela peut commencer par un abonnement à un des nombreux services disponibles en ligne. Et le choc est encore plus grand. Oui, l’IA peut générer de mauvais programmes. Mais cela dépend du demandeur.
Si on ne maîtrise pas une architecture logicielle et qu’on ne comprend pas le besoin métier de son client, faire réaliser le code par une IA ne produira rien de bon. C’est ce que j’aurais dit il y a un mois.
Après quelques échanges avec Gemini, le modèle gratuit de Google, et de nombreuses phases de réécriture, je comprenais l’importance du RCT. Mais plus le temps passe et plus ses réponses deviennent pertinentes, même si j’indique un contexte vague.
Tout n’est pas parfait. Pourtant, je suis forcé de constater que ses dernières propositions reprennent systématiquement les meilleures pratiques de programmation. En quelques secondes, il me propose un code qui nécessitait avant de lire de nombreux retours d’expérience, quand ceux-ci existaient.
Vous pouvez penser que je me répète. Je reste surpris des évolutions. Il y a deux mois, j’ai installé sur une machine locale des modèles pour coder à ma place. Un mois plus tard, je trouvais un modèle aussi efficace que le modèle Gemini Fast, alors qu’il tournait sur un environnement bien moins puissant. Et les découvertes continuent même cette semaine.
Avant, le moindre modèle occupait plus de mémoire vive qu’un ordinateur personnel ne pouvait en posséder. Aujourd’hui, on trouve des modèles de moins de 4 Go qui peuvent générer des images, du texte, du son ou de la vidéo. Une boîte à outil immense qui peut s’intégrer à n’importe quel ordinateur.
Pour l’activité principale des informaticiens, le codage, il ne faut pas se leurrer, les IA savent le faire mieux que nous. En agissant ainsi, elles nous volent notre excuse d’associabilité. Et c’est bien. Si je me suis intéressé à l’informatique et que j’en ai fait mon métier c’est parce que je souhaitais créer.
Si les IA peuvent réaliser cette activité et nous permettre de mieux réfléchir aux services que nous souhaitons créer, cela en sera profitable pour tous. Perdre son temps à des tâches ingrates et répétitives n’apporte rien. Et puis, ce n’est pas parce que les appareils photos et les caméras existent que les artistes-peintres ont disparu.
Qui mieux qu’un informaticien peut entrer dans un code pour s’assurer que le travail est valide. Le métier ne va pas disparaître. L’évolution sera plus rapide que lors des révolutions précédentes (interface textuel vs graphique, client lourd vs client léger vs application web, bases de données, …).
C’est le propre de l’informaticien de savoir s’adapter … ou de se spécialiser dans une niche comme le Cobol pour rassurer ses utilisateurs d’une présence humaine.
