L’infographie : Origine, images numériques et animation
Les images traitées ou générées par ordinateur font aujourd’hui partie intégrante de nombreux secteurs de la production, des services et de la création: architecture, audiovisuel, défense, design, industrie, médecine et recherche scientifique. Le néologisme infographie, introduit en 1974, désigne l’industrie qui s’est formée à partir des développements technologiques et commerciaux dédiés au graphisme informatique: ordinateurs graphiques, progiciels, moniteurs vidéo, scanners, imprimantes et autres périphériques.
À la différence de l’image vidéo, de nature analogique – car formée d’un signal électrique continu – l’image numérique «découpe» le signal lumineux continu qui émane d’une image en une série de points ou pixels (contraction anglo-saxonne de picture element). À chaque point correspond une valeur arithmétique exprimée, selon un mode binaire (succession de «zéros» et de «un»), en bits (binary digit), dont la grandeur est directement proportionnelle à l’intensité de lumière blanche en ce point. Lorsque l’image est en couleur, on sépare, comme pour l’image vidéo, le signal lumineux en trois composantes, rouge, verte et bleue (R, V, B), et on affecte une valeur correspondante en bits à chacun des trois signaux R, V et B. La combinaison de ces trois couleurs primaires permet de différencier et de restituer jusqu’à 16,7 millions de nuances sur les systèmes infographiques les plus perfectionnés. Chaque image est mémorisée par l’ordinateur sous la forme d’une donnée informatique; à partir de ces données réunies en fichiers, l’ordinateur peut reformer l’image de départ sur un périphérique dit de sortie, écran ou imprimante, ou la transmettre vers un autre ordinateur, via un réseau câblé ou une liaison hertzienne.
Aux origines: la rencontre de la vidéo et de l’informatique
Les premières expériences effectuées sur l’image numérique sont attribuées à un artiste américain, John Whitney Sr., qualifié par l’historien de cette nouvelle branche, William Moritz, de «pionnier absolu en matière de graphisme par ordinateur».
Dès les années 40, John Whitney adapte un radar utilisé durant la Seconde Guerre mondiale – sorte d’ordinateur primitif – pour transformer des séries numériques en équivalents graphiques. Ses premières réalisations, Film Exercices datant de 1944, sont enregistrées sur pellicule. Il faut attendre près de vingt ans pour qu’Edward Zajac réalise un premier film à partir d’un calculateur moderne, un IBM 7094: Simulation of a Two-Gyro, Gravity-Gradient Attitude Control System (1963). John Whitney Sr. devient, quant à lui, le premier des «artistes résidents» chez IBM où, à partir de 1966, il poursuit ses recherches sur le langage visuel. Il y réalise plusieurs films, tels que Permutations (1967), Hommage to Rameau (1967), Osaka 1-2-3 (1970) et Arabesques (1975).
Parallèlement, l’idée d’associer un tube cathodique à un ordinateur remonte aux années 1950-1951, lorsque le Massachusetts Institute of Technology (MIT) met au point un dispositif appelé Whirlwind. Le traitement en temps réel de données provenant d’une station radar permet alors l’affichage graphique sur écran d’une trajectoire de fusée ou d’avion. Un ensemble complet de surveillance aérienne à base d’ordinateurs Whirlwind, baptisé SAGE (Semi-Automatic Ground Environnement) apparaît aux États-Unis en 1958.
Interagir avec l’écran
Au début des années 1960, un autre chercheur du MIT, Ivan Sutherland, conçoit le Sketchpad: un système de visualisation qui permet de manipuler et de modifier directement l’image sur écran, à l’aide d’un crayon optique. Les dessins ainsi exécutés peuvent être stockés dans la mémoire de l’ordinateur sous forme de bases de données graphiques. De son côté, General Motors met au point le DAC-I, premier dispositif informatique interactif destiné à l’étude de prototypes automobiles, offrant à la fois la possibilité de modifier la taille ou la forme des surfaces dessinées et de faire pivoter les figures. Avec le Sketchpad et le DAC-I, l’image numérique révèle ainsi ses premières possibilités d’interactivité.
À cette époque, plusieurs secteurs de l’industrie vont commencer à développer des techniques de dessin et de conception assistés par ordinateur (DAO et CAO). En France, à partir de 1958-1960, des ingénieurs, Paul de Casteljau chez Citroën, Pierre Bezier à la Régie Renault, introduisent progressivement la CAO dans l’industrie automobile. Il s’agit alors de répondre aux exigences d’usinage de certaines pièces de carrosseries par des machines-outils à commande numérique. Le premier prototype français du système de CAO, Unisurf, développé par Pierre Bezier, entre en fonction chez Renault en 1968. L’aéronautique, soumise aux mêmes types d’exigences, développe à son tour ses propres systèmes: Dassault, avec son logiciel Catia, ou Matra, qui acquiert le logiciel Euclid-IS.
L’armée s’intéresse elle aussi aux possibilités de l’image numérique. Dans le cadre du programme JANIP (Joint Army Navy Instrumentation Programme), General Electric, aux États-Unis, construit en 1958 le premier simulateur de vol utilisant des images générées par ordinateur. Assis dans un pseudo-cockpit, le pilote est face à des écrans vidéo où s’affichent des images en trois dimensions simulant un paysage. Ces images sont stockées sous forme de bases de données accessibles en temps réel au moyen d’un puissant ordinateur. Comme dans un avion, le pilote peut agir sur les conditions de vol telles que vitesse, incidence, roulis, etc. Recueillies par l’ordinateur, ces données, censées modifier la position de l’appareil, servent à recalculer et à afficher en temps réel les nouvelles images correspondant au nouveau champ de vision du pilote. Ainsi, réflexes et comportements sont mis à l’épreuve – sans risque pour les équipages et les appareils – dans des situations d’urgence et lors de manœuvres difficiles.
Un peu plus tard, en 1962, la NASA commande à General Electric un premier simulateur destiné à l’entraînement des astronautes pour les futures missions dans l’espace et sur la Lune.
Deux catégories d’images numériques
Ces trente dernières années vont aussi connaître des bouleversements technologiques dans le domaine de l’observation scientifique, militaire et médicale. La conquête spatiale a été rendue possible grâce au lancement de satellites de télédétection pour l’observation de la Terre ou de sondes interplanétaires pour l’exploration du système solaire. Dans le même temps, des appareillages d’observation du ciel, du corps et de la matière font leur entrée à l’hôpital, à l’université et dans les grands centres de recherche, permettant d’observer l’infiniment lointain ou l’infiniment petit. Télescopes, microscopes, scanners médicaux et sondes en tout genre: de nouvelles familles d’imageries dont l’ordinateur devient un auxiliaire indispensable puisqu’il assure leur stockage et leur traitement.
Ainsi vont se différencier deux modes d’images numériques. D’une part, les images «naturelles» qui, comme les clichés photographiques, sont obtenues par une machine à partir d’un sujet réel d’observation: personnes, paysages, vues aériennes, astronomiques ou microscopiques, mais aussi photographies, dessins ou documents écrits. D’autre part, les images «artificielles», qui, comme un dessin, sont de pures créations de l’homme, à l’aide d’une machine.
Acquisition et traitement des images naturelles
Les images «naturelles» sont obtenues par des périphériques dits d’entrée automatique (caméras, scanners), puis sont numérisées et stockées par l’ordinateur. Ces capteurs sont généralement constitués de tubes cathodiques, ou bien de cellules CCD (Charge Coupled Devices), composants à transfert de charge, dont les cellules photosensibles convertissent la lumière en signaux électriques. Leur sensibilité peut être réglée soit sur la lumière visible, soit sur d’autres fréquences non visibles du spectre électromagnétique, telles que le rayonnement infrarouge, les ondes radio, les rayons X, etc. Dans d’autres cas, notamment en imagerie médicale, on fait appel à des capteurs spécifiques, telles les sondes à ultrasons pour l’échographie, les antennes pour l’IRM (imagerie par résonance magnétique), ou les gamma-caméras utilisées en médecine nucléaire. Enfin, les images d’une source vidéo sont directement numérisées via un encodeur qui convertit le signal analogique en signal numérique.
De fait, il existe de nombreuses activités où les images naturelles, une fois numérisées, sont analysées, retraitées, retouchées: on modifie leur forme et les couleurs originelles, on surligne, on réduit, on agrandit, on améliore le contraste, on supprime, on ajoute ou on duplique des éléments. Ces traitements particuliers permettent une meilleure interprétation des documents originaux, selon les objectifs recherchés dans chacun des domaines concernés: aménagement du territoire, agronomie, biologie, cartographie, écologie, géologie, médecine, météorologie, minéralogie, reconnaissance des formes, vision artificielle, etc. Dans les métiers de la création graphique et audiovisuelle, l’usage désormais courant de la palette graphique autorise toutes sortes de retouches, de mélanges et de trucages, jusqu’à la colorisation des films noir et blanc.
Images de synthèse
À la différence des images naturelles numérisées, les images artificielles, ou images de synthèse, sont créées directement par l’homme, sur ordinateur. On utilise à cet effet des périphériques d’entrée manuelle: clavier, souris, tablette à numériser, boîte à boutons, etc. Des logiciels graphiques sont dédiés à chaque type d’application: de la simple palette graphique permettant de dessiner sur écran aux outils les plus perfectionnés de CAO de design et d’animation en deux ou en trois dimensions.
À partir des années 1970, les premiers systèmes clés en main de CAO commencent à être commercialisés dans l’industrie; ce jeune marché va connaître un essor considérable à partir des années 1980, aux États-Unis d’abord, puis au Japon et en Europe. Ordinateurs, stations de travail, moniteurs graphiques, traceurs automatiques de plans prennent place dans les bureaux d’études et les ateliers de fabrication de l’industrie automobile, aéronautique, mécanique, électronique…
Vers la troisième dimension
Si le concept de deuxième dimension (2 D) est très utilisé depuis les débuts de la CAO pour l’étude des courbes et des surfaces droites, il est bientôt complété par les techniques 3 D qui tiennent compte de la profondeur de l’image. Le dessin est alors un volume caractérisé par des vecteurs qui relient des sommets entre eux. L’ingénieur, ou le graphiste, peut concevoir directement en trois dimensions la maquette virtuelle d’un projet. De plus, à l’aide d’une boîte à boutons ou avec la souris, il peut agir directement sur cette maquette, l’ordinateur recalculant et affichant toute nouvelle modification géométrique: addition ou suppression d’un élément, extrusion de «matière», déplacement et rotation de l’objet dans les trois coordonnées de l’espace, grossissement et réduction, coupe, assemblage avec d’autres éléments, etc.
En quelques années, la puissance de calcul des ordinateurs aidant, les logiciels 3 D s’enrichissent de multiples fonctions: élimination de parties cachées, multiplication des points de vue, sources lumineuses, ombres portées et ombrages, placages de textures, phénomènes de réflexion de la lumière, transparences, effets atmosphériques. Ces apports sont souvent dus aux progrès de la simulation de vol, qui requiert des images (végétation, construction, hydrographie) particulièrement réalistes. Domaine réservé des militaires et des spécialistes de l’espace, les simulateurs sont peu à peu utilisés par l’aéronautique civile, puis pour la conception de différents véhicules: hélicoptères, chars, bateaux, voitures. En France, Thomson-CSF et Sogitec (filiale de Dassault) se spécialisent dans la production de simulateurs infographiques. D’autres innovations viennent de la recherche civile, telle la création des objets «fractals» par Benoît Mandelbrot en 1975: chez IBM, aux États-Unis, ce chercheur français programme une fonction mathématique qui permet notamment de simuler des formes naturelles complexes, comme le feuillage des arbres, les nuages ou le relief d’une montagne.
À partir des années 1980, l’infographie s’étend à de multiples secteurs de l’activité économique et culturelle. Alors que le prix du matériel baisse, son encombrement diminue et ses performances graphiques s’améliorent: affichage plus rapide, apparition de la couleur et de la haute définition. Des logiciels, d’abord conçus par les ingénieurs et les chercheurs pour leurs propres travaux dans les bureaux d’étude et les laboratoires, sont progressivement mis sur le marché. Ces outils deviennent techniquement accessibles aux non-spécialistes de l’informatique, qui peuvent les utiliser dans leur propre discipline professionnelle. La recherche scientifique se familiarise ainsi de plus en plus avec la simulation visuelle de phénomènes difficiles ou matériellement impossibles à mettre en œuvre. Dans le domaine médical, on sait effectuer des reconstructions en trois dimensions du corps humain à partir de coupes effectuées au scanner. Cette imagerie en 3 D constitue un outil précieux pour les médecins et les chirurgiens: elle permet de localiser avec précision des lésions ou des tumeurs et de décider d’un acte opératoire ou d’une thérapie appropriée sans risques inutiles pour le patient.
Animation et effets spéciaux numériques
Mais l’audiovisuel reste l’un des secteurs les plus populaires de l’infographie. Tron, long métrage produit en 1981 par la société Walt Disney, avec des images 3 D réalisées par la société new-yorkaise MAGI, constitue dans ce domaine une référence. Les États-Unis et le Japon développent une importante production de films d’animation, avec effets spéciaux. En France, la 3 D audiovisuelle est inaugurée en 1975-1976 par les travaux d’universitaires comme Hervé Huitric, Monique Nahas et Michel Bret. En 1983, un premier court métrage, Maison vole, est réalisé à l’INA par André Martin et Philippe Quéau. Génériques et habillages de programmes de chaînes font leur apparition à la télévision, dans les films publicitaires, les logos et visuels de présentation; les bureaux de style découvrent un nouvel outil pour le design, par exemple pour concevoir un projet ou prototype de meuble ou d’automobile.