
Avec les premiers numériques le débat à longtemps été : mieux ou moins bien que l’argentique.
Depuis qq années et en dehors de certains secteurs bien spécifiques la messe est dite d’un strict point de vue du résultat le numérique l’emporte. Mais un autre débat est apparu depuis, spécialement auprès des personnes découvrant le numérique et étant, de manière assez légitime, noyée par tous les moyens et outils à dispositions. Et ils considèrent souvent les étapes séparant le fichier fournis par l’appareil ou le boitier et le fichier fournis en affichage sur un site ou à un labo pour tirage comme de la triche et n’entrant pas dans le cadre de la photographie.
Cette position repose en partie sur l’illusion qu’auparavant tout était joué au déclenchement. Faire une photo se résumerais alors finalement à une ouverture, une vitesse, un cadrage, et le talent de bien déclencher. Mais ce n’est précisément qu’une illusion, tous les amateurs ayant joué du développement n & b se sont amusés a pousser leur negatif (pour créer une sensibilité plus élevé par ex) à jouer sur la chimie pour provoquer un virage dans la chromie, à effectuer des travaux de masquage sous l’agrandisseur de façon à déboucher des zones de basse lumière ou tenter de sauver des zones limites cramée voir à effectuer retouche au feutre/crayon/encre de chine/peinture ou même à jouer du scalpel avec plusieurs images. Exercice courant mais déjà réservé a des amateurs un peu avertis ayant le temps le matériel et une certaine expérience et évidemment monnaie courante dans le milieu pro.
Avec la couleur c’était différent, la complexité de la chimie interdisait au plus grand nombre ce genre de chose si bien que le rôle du photographe se bornait alors à déclencher et porter ses pellicules au labo. Mais comme la chimie est plus complexe les variables dans le procédé sont aussi plus nombreuse et la stabilité du traitement plus aléatoire. Les machines ont vite dû mettre leurs grains de sel et traité les images pour gérer les variabilités des produits, papiers, saturation progressive de la chimie, etc. Et ce faisant améliorer aussi l’image elle-même pour la rendre plus satisfaisante aux yeux du client. Sauf celui ayant par exemple joué avec des filtres ou des gélatines à la prise de vue, ou encore qui avait utilisé un film particulier donnant des images très saturées et vue les effets partiellement gommé ou altérés par ces filtres automatiques mais bon après tout il n’a qu’a faire comme tous le monde

Et sauf qq amateurs avertis personne ne faisait tirer le même film dans plusieurs labo pour constater les variations conséquences d’une marque et d’un équipement à l’autre.
Puis vint le numérique ! D’abord l’image elle-même est de nature radicalement différente. On passe d’une épreuve comportant une infinité de valeur et nuances (théorique car limité dans les faits par les produits et le support) à un ensemble de point parfaitement définis mais rien entre ces points. Pour tout à chacun la différence semble mince pourtant sur le plan physique et mathématique il s’agit de 2 moyens de représentations radicalement différents.
En effet ce nuage de point doit être manipulé, redimensionner, corrigé, etc. D’autre part le fait de ne retenir qu’une « portion » de la réalité vue par une sorte de grillage qui découpera chaque pixel amènes à l’apparition de phénomène d’interférométrie (le moirage par ex qui fait apparaître de fort désagréable figure géométrique dans les motifs répétitifs serré) ou des phénomènes de bruits électronique, et bien d’autres encore. Moralité il est impossible d’utiliser tels qu’elle les données fournies par un capteur.
Une série de traitement et de filtre sont appliquées à ces données par le processeur de signal de manière à gommer tous ces artefacts gênants. Chaque marque et modèle a ses secrets de cuisines. Tous n’utilisent pas les mêmes technologies de capteurs et tous sont donc contraints d’utiliser des traitements différents adaptés aux problèmes particuliers d’un ensemble capteur/objectif/électronique donné. A ce stade l’image à subit le minimum syndical.
Mais à ce stade l’image est moins bonne qu’un tirage argentique ! Pourquoi ? Simplement parce que comme nous venons de le voir ce tirage à lui-même subit une série d’améliorations automatiques.
Donc suivant la même logique que l’argentique couleur est venu le moment d’aider un peu le photographe. Puisque déjà on est obligé de traiter cette masse de données numériques pour des raisons utilitaires on va en profiter pour aider le photographe et donner un peu de peps aux images. On va faire péter un peu les couleurs pou rappeler un film velvia, on va faire péter les contrastes pour donner de l’éclat, mettre de l’accentuation pour rattraper un peu le lissage des filtre anti bruit, etc etc.
Bien vite par contre le traitement de général devient spécifique. Les besoins d’une image de nuit, de sport, à la neige ou en intérieurs avec des éclairages aux températures de couleurs toutes différentes sont infiniment variable. On fait donc une côte mal taillée puis on laisse, par le biais de programme ou de mode dédié (nuit, sport, intérieur, etc) l’utilisateur choisir. Il ne le sait pas mais le choix d’un de ces modes fait plus qu’indiquer à l’appareil quel couple vitesse/diaph choisir. Pour répondre au souhait d’un contrôle plus avancée sur les images (débarrassée de ces automatismes donc) les fabricants on fait le Raw. Données non compressés, brutes et donc moches si on les compare directement avec le jpeg automatiquement cuisinés.
Dés lors un constat s’impose, d’une part le Raw doit être traité pour faire aussi bien que le jpeg, d’autres part les jpeg n’ont rien d’une donnée brute. Ils sont déjà le résultat d’une cuisine rapide et automatique. Dans les 2 cas seul diffère, non pas la nature des traitements, mais leurs dosages. Aujourd’hui le jpeg et des compact, bridge et dans une moindre mesure des reflex sont donc considéré comme des images prête à l’emploi. Comme disent certains journaux des images « fast food » en opposition au Raw qui se rapprochent plus de petits plats mitonnés tranquillement. Et a-t-on jamais vu un Mc Do s’indigner de la concurrence déloyale d’une mère de famille concoctant avec amour ses petits plats ? Non
Le débat est donc fondamentalement sans objet. Absolument sans exception toutes les images issues de processus numérique subissent des traitements d’améliorations. Au mieux on peut juste essayer de circonscrire un périmètre d’intervention autorisé sur ces traitements. On peu par exemple interdire les traitements locaux, mais ce faisant on s’interdit des techniques utilisée du temps de l’argentique. Pourquoi pas après tout, simplement il ne faut pas le faire en se réclamant garant de la tradition photographique. On pose seulement une règle c'est tout.
- L’accentuation :
Autre aspect pour comparer des images il faut les montrer. Internet est l’outil rêvé. Petit hic nos écrans manquent cruellement de définitions pour afficher la totalité des pixels d’une image sans parler des problèmes de poids.
On la redimensionne donc mais on ne se contente pas de prendre un point sur 3 sur 4 ou sur 10. Trop brutale la méthode altérerait profondément l’image, on utilise donc des algorithmes qui a partir d’en ensemble de points voisins en font un seul. Résultats et efficacité variable. Mais on comprend immédiatement que ce « moyennage » de points à un prix. Plus la réduction est forte et plus il y a perte des petits détails, du micro contraste, bref de ce que l’on appelle le piqué et qui donne la sensation qu’une image fourmille de détail.
Donc le simple fait de réduire une image pour affichage écran est en soit un traitement radical et destructif. Une image parfaitement nette et piquée à l’origine apparaitra comme molle et manquant de pêche après réduction.
Heureusement il y a une solution : L’accentuation. L’accentuation est un procédé utilisé par tout les processeurs de signal pour renforcer le micro contraste. Cela consiste à générer un liseret légèrement contrasté autours des détails significatifs de manière à mieux marquer les transitions. Ex un détail sur fond noir sera entouré d’un très léger et fin liseret clair.
Finement utilisé le technique redonne du croustillant. Mais cela doit rester léger et comment déterminer ou était les transitions à souligner quand elles ont disparue ? C’est simple elles ne doivent pas disparaître. Donc plutôt que de réduire en une fois on le fait par étape avec à chaque fois une légère accentuation renforçant le contraste en cours de dissolution.
Bref que la photo soit réduite brutalement ou proprement par étapes et accentuation successive elle n’en reste pas moins dans les 2 cas une fabrication complète d’une réalité. Deux procédés plus ou moins efficaces donc.
Un exemple concret de tout ce blabla. Voici une image postée dans le cadre du concours photo et qui, gentiment, s’est encore pris dans les dents « C’est plus une images c’est de la retouche ! ».

Le liens
L’image est prisent en raw et non recadrée. Prise au travers une vitre doncdiffusion et perte de piqué à quoi s’ajoute en général l’apparition d’un voile plus ou moins fort dû à la diffusion de la lumière ambiante sur les saletés en surface de la vitre et les éventuelles impuretés à l’intérieur du matériaux).
En 1 une sortie brute du raw réduite en 500pix de haut et sans accentuations. Rien à dire.
En 2 l’image dématricée. Elle a subit un léger resserrage des seuil (niveaux pour avoir de vrai noir et compensé autant que possible le voile généré par la vitre), ajout de contraste et très légère accentuation et dé-bruitage (images à 800iso). Noter que compte tenu de la réduction brutale à 500pix de haut les différences ne sont plus si énormes que cela (ces petits détaisl otn été gommés). D’autre part le dematricage permet d’effectuer le plus gros du traitement mais souvent manque de finesse et une finalisation sous un logiciel comme photoshop (plus fin en réglage) est utile.
En 3 la même image qu’en 2 simplement réduite en plusieurs étape (3504, 2900, 1800, 1000, et enfin 500 pix de haut) avec une accentuation légère (seuil 0.6, 40%) à chaque étape. Déjà elle n’ont plus rien à voir. La 3 est bcp plus fidèle à l’originale que ne l’est la 2 qui est plus éteinte. A noter comment une bonne accentuation donne aussi la sensation d’une image lumineuse.
En 4 l’image postée sur le forum qui avait subit une finalisation sous photosh (lum/cont/courbe) et réduite par pallier avec accentuation.
4 versions d’une même image à différents stade de sa vie. A aucun moment il n’y a eu de la retouche. Aucun traitement local, ni ajout/suppression d’éléments parasites. Il s’agit seulement d’amener l’image voulue en fonction des capacités d’affichage du support final.
On est certes loin des technique de prise de vue et du choix d’un couple diaph.vitesse mais pas plus que ne l’était la chimie à l’époque de l’argentique …
Et là c’est infiniment plus abordable à mr tt le monde et infiniment plus rapide …