Déc 23 2008

Interview de Jean-Marie Sepulchre

JMS.jpgJean-Marie Sepulchre est un passionné de photo. S'il la pratique en amateur, il est, au fil des années et du web, devenu un spécialiste et un auteur important d'ouvrages techniques sur la photographie. Sa bibliographie très variée (voir en fin d'interview) compte déjà une dizaine de livres dont le dernier, particulièrement attendu par les Sonystes, s'intitulera "Obtenez le meilleur de l'Alpha 900" (à paraître en janvier 2009).

Son engagement dans la photographie est multiple : animateur de clubs photo de longue date, il a également créé plusieurs sites Internet consacrés à la photo, parmi lesquels Pictchallenge et son blog associé. Il est (alias JMS) également modérateur sur le forum du magazine Chasseur d'Images.
Sa connaissance du logiciel DxO et du protocole de test DxO Analyser en fait également un spécialiste des problématiques liées au format raw. Il publie les résultats de ses tests de couples boîtier/optique dans le magazine le Monde de la Photo (version papier et Internet).

Pour toutes ces raisons, nous avions beaucoup de questions à poser à Jean-Marie, qui a gentiment accepté notre invitation.
pdf



JMS… en personne !


Alphanum : Bonjour Jean-Marie, et merci d’avoir accepté l’invitation d’Alphanum. Avant de parler de bruit numérique, de DxO et de ton livre sur l’Alpha 900, peux-tu donner à nos lecteurs les lignes principales de l’itinéraire qui t’a conduit à être un auteur reconnu dans le monde de la photo, un spécialiste du logiciel DxO et des tests optiques sur protocole DxO Analyser ?

Jean-Marie Sepulchre : En fait c’est le web qui m’a amené à cette démarche, même si je m’étais toujours intéressé aux particularités techniques des matériels, mais quand j’ai vu que cela intéressait pas mal de monde de mettre en ligne des résultats d’essai sur Pictchallenge…j’ai immédiatement proposé une collaboration à DxO quand leur système a été annoncé. Ensuite on m’a proposé de publier ces tests pour un nouveau magazine et son site Internet [NDLR : Le Monde de la Photo].


Tu as écrit des ouvrages généraux sur la photographie numérique, de même que plusieurs livres techniques sur des boîtiers de marques différentes (Fuji S5 Pro, Pentax K20D, Sony Alpha 900), mais paradoxalement aucun sur ta monture préférée (Nikon). Quelle est la raison de cet éclectisme ?

D’abord pour les « nikonistes » sont en vente deux e-books qui présentent les résultats de mesure de plus de 100 optiques (en format A2 pour le D3, en format A3 pour le D700)…avec tous les Nikon Ais de légende. En ligne chez Eyrolles ! Et il y aura certainement des titres sur des appareils Nikon l’an prochain. Mais j’ai proposé des livres « de niche » parce que tout le monde voulait écrire sur les Canon et les Nikon. 


Tu proposes plusieurs sites internet dont les principaux sont pictchallenge et son blog associé. En plus de tes publications, on peut y voir de nombreuses galeries de photos qui montrent une activité photographique de longue date. Quelles pratiques photos as-tu eues et as-tu aujourd’hui ?

J’ai commencé à photographier il y a plus de 40 ans, et quand j’étais adolescent je voulais en faire mon métier…notamment pour la presse. En fait, j’ai été dans ce domaine au début des années 1970, puis j’ai finalement eu d’autres occupations professionnelles très bien remplies…et je suis devenu « amateur ». La photo deviendra mon seul métier…quand je serai à la retraite ! Mais j’ai eu des engagements associatifs de longue date, et je photographie depuis une vingtaine d’années maintes créations culturelles et musicales pour ces associations, tout en continuant mes sujets de prédilection qui sont notamment le sport automobile et le paysage. 




Le bruit numérique


Depuis quelques temps, la capacité d’un boîtier à produire un résultat qualitatif à haute sensibilité semble devenue une caractéristique majeure, à en croire certains sites ou forums. D’autres voient dans cette course à la haute sensibilité un moyen pour Canon et Nikon de compenser l’absence de stabilisation de la plus grande partie de leur parc optique. Quand on met cette nouvelle exigence en face de la marginalité des pratiques photo qui requièrent des sensibilités de 3200 ou 6400 ISO, on peut légitimement s’étonner que cela puisse prendre une telle place dans les débats. Qu’en penses-tu ?

Justement, quand on photographie régulièrement du théâtre ou des concerts de musique classique depuis 20 ans, on sait très bien qu’il ne s’agit sans doute que d’une niche de photographe, mais que les progrès en hauts ISO sont essentiels pour cette pratique !
Pendant cinq ans j’ai été le photographe d’une association qui produisait de jeunes espoirs de la musique de chambre, et qui a hélas cessé son activité aujourd’hui…et pas besoin de mesure de lumière pour savoir que c’était 1/30 f/2,8 à 1.600 ISO dans la salle. Même le Nikon D1 si critiqué pour ses hauts ISO était meilleur qu’un Fuji Superia 1600 sur son frère le F100 ! Maintenant si le sujet bouge un peu comme pour du sport en salle (basket, hand) le stabilisateur ne sert à rien…et troquer 1/30 f/2,8 contre 1/250 f/2,8 avec 6.400 ISO  peut-être utile. Mais je sais que jusqu’à 10.000 ISO je sortirai de beaux tirages A3 avec mon actuel Nikon D3…on pourrait monter à 1/500 ! Il se trouve que je fréquente aussi quelques amis pros en photo de spectacle, les hauts ISO risquent d’être le critère de choix n° 1.

Maintenant qu’il y ait une place excessive sur le forum sur ce seul critère, c’est un peu exagéré mais compréhensible : beaucoup de modèles se tiennent de très près en bas ISO, et se différencient quand on cherche leurs limites. Un paysagiste tranquille qui shootait en Velvia 50 ou Ekta100G pour toutes ses photos d’expo et qui se ferait des nœuds au cerveau sur le 6400 ISO d’un appareil de haute résolution, ça serait par contre assez ridicule…


Dans ton article très intéressant sur Pictchallenge à propos du bruit de l’Alpha 900 en hauts ISO, tu conclus que les raw contiennent bien les détails fins à hauts ISO qui permettraient de produire des images très peu bruitées. Cela met en lumière l’importance du dématriçage et rappelle qu’il y a une infinité d’interprétations possibles d’un même fichier de données brutes (les différences se faisant pour l’essentiel au moment de la reconstitution des 3 couches RGB « trouées » de la matrice de Bayer). Où en est l’état de l’art aujourd’hui ? Les dernières moutures des principaux logiciels de développement laissent-ils espérer des améliorations sensibles ?

Il est étonnant de noter qu’un logiciel qui cherche à être un vrai « standard » de la production comme Adobe Photoshop Lightroom (le moteur de dérawtisation est identique au module Adobe Camera RAW) a fait de très grand progrès en peu d’années et donne des résultats très honorables en hauts ISO sur beaucoup de boîtiers, sans communiquer d’ailleurs sur les changements réels intervenus, et que les logiciels constructeurs restent de qualité assez inégale : Nikon Capture NX2 a innové de façon remarquable sur les corrections ciblées par zones des images (les U-Points), Canon DPP a fait des progrès très rapides en corrigeant l’aberration chromatique, la distorsion et le vignetage de façon très convaincante, et Sony reste hélas à la traîne avec des performances de son logiciel de développement très en retrait en hauts ISO de la qualité du capteur.
Ce qui est dommage c’est que beaucoup de clients amateurs n’iront pas voir plus loin et se plaindront de la qualité en hauts ISO. Pour moi, en attendant de tester le nouveau Bibble 5 (qui inclut le logiciel de réduction du bruit Noise Ninja), une dépense supplémentaire de 100 euros pour Capture One ou pour Photoshop Elements 7 change tout des performances hauts ISO de l’Alpha 900 ! 


L’évaluation du bruit numérique doit normalement se faire à une taille de tirage donnée. Pourtant certains sites renommés continuent à établir des comparaisons de crops 100% entre des boîtiers à capteurs très différents, comme par exemple l’Alpha 900 et le Nikon D700, comparaisons servant ensuite malheureusement de jugement de valeur. DxO vient de produire un indicateur normalisé DxO Mark qui, au vu des scores Low-Light ISO, se fait clairement à taille de tirage égal. Quel est ton point de vue sur ces exercices de comparaison inter-boîtiers ? L’indicateur DxO Mark peut-il devenir une référence ultime à cet égard ?

Référence ultime sans doute pas, car la référence ultime est bien l’image dont la qualité finale sera grandement déterminée par le dématriçage et le traitement du RAW, mais référence de base, certainement. La démarche de DxO a consisté à partir d’un usage pro bien connu en presse et en édition, notamment aux Etats Unis, avec le tirage 8 x 10 inches à 300 dpi, mais pour en avoir discuté avec eux la hiérarchie serait peu différente si on prenait de l’A3 à 254 dpi (l’A3 est la base de référence de « Chasseurs d’Images » en mesure de bruit.  Simplement, si ce critère normalisé est « tout terrain » pour la plus grande partie du marché, il a ses limites sur les capteurs de très haute résolution 24 x 36 (de 21 à 24 Mpix, par exemple) dont le format natif est A2…la dernière comparaison publiée de CI est d’ailleurs quasiment en…A1 (50 x 75 cm dans le n° 310). DxO Mark en normalisant les comparaisons pour l’usage courant amateur et pro « tout terrain » a eu une sage réaction en publiant aussi les mesures « screen » qui sont faites en pleine résolution et correspondent au 100% fichier. Si l’on achète un appareil 24 Mpix, avec la démocratisation des imprimantes A2 qui se multiplient dans tous les grands clubs photo que je connais, pourquoi ne pas vouloir connaître aussi ses performances en A2 ?


La question du devenir du bruit de très petite échelle lors d’un échantillonnage à un format inférieur à la taille nominale du capteur est délicate. Peut-on considérer que tout ou partie du bruit très fin visible sur un A2 disparaîtrait lors d’un tirage en A3 ou A4 parce qu’il deviendrait inférieur à la taille du point d’impression ? Que faut-il retenir sur cette problématique ?

Tout à fait, c’est vérifiable et depuis longtemps ! Des photos « infestées de bruit » en 100% écran sur les premiers numériques reflex que j’employais en 2002 pour les photos de concert à 1600 ISO passaient déjà fort bien en 13 x 18 cm environ dans un livre, la trame se chargeant d’ailleurs de gommer aussi une bonne partie du bruit. Mais entre constater que certaines taches de bruit sont gommées par l’impression (ou le redimensionnement sous Photoshop) et en tirer pour doctrine que ce n’est pas grave si le fichier est bruité, il y a une limite que je ne franchirai pas !


La question de l’échantillonnage pose également celle de l’accentuation de compensation. Quelles sont les règles à retenir en la matière quand on doit procéder à un échantillonnage, en réduction ou agrandissement ?

Quand on fait un tirage de petite taille, il faut accentuer pour que les détails les plus fins qui sont justement plus petits que la trame d’impression ne fassent pas un « effet flou » et que les détails moyens soient soulignés pour bien se détacher. On dira que le tirage « arrache » et « croustille » et pourtant à 100% c’est pas beau : il y a des lignes de contour, des artefacts…tout cela concourt à l’impression de netteté mais reste trop fin pour être vu à l’œil. Par contre si le cliché est trop accentué à l’origine, ces marques seront agrandies quand on tire en plus grand, et seront très visibles, d’autant que beaucoup de gens aiment à coller leur nez sur une grande photo par plaisir de découvrir tous les détails. Donc on accentue peu pour faire un grand tirage, et le JPG de l’A900 paraît « mou » à beaucoup de critiques de forum justement car ce choix a été fait dans l’esprit de la haute résolution, qui dit « grand tirage à prévoir ».

Pour l’échantillonnage, les meilleurs logiciels de tirages le font tout seuls, et c’est à ce moment là (sur un tirage d’essai, par exemple) que l’on pourra décider du bon niveau selon le sujet (portrait, paysage, reportage…). Si on procède soi-même à l’opération, il faut se souvenir que pour un petit format (A4, web) le système « bicubique plus net » de Photoshop est très efficace.

Par contre imaginer que photographier en haute résolution avec une optique insuffisante, qui envoie des détails brouillés et des couleurs avec des bavures d’aberration chromatique au capteur…et redimensionner plus petit en espérant que les détails qui seraient apparus avec un capteur de moindre exigence apparaîtraient par miracle est une illusion parfois coûteuse si on achète le haut de gamme des boîtiers sans avoir le budget nécessaire pour des optiques de course !


Il y a plusieurs écoles sur ces questions d’accentuation. Certaines prônent une accentuation unique au moment de l’export final, d’autres comme Bruce Fraser sont adeptes d’une stratégie à plusieurs étapes en fonction du type d’images et du média de destination. Quel est ton point de vue sur cette question ? Existe-t-il des règles minimum à appliquer en toute circonstance ?

La qualité optimale pour les très grands tirages peut s’obtenir de différentes façons :
- plusieurs étapes, par exemple de 5 à 15% en résolution linéaire à chaque fois…par exemple sur un A900 de 6048 pixels dans sa plus grande dimension, première étape 7000 pixels, deuxième étape 8000 pixels…etc jusqu’à 18000 pixels pour le tirage rêvé de 1,20 m x 1,80 m à mettre dans le salon,
- utilisation d’un logiciel spécialisé comme Genuine Fractals, qui optimisera automatiquement l’opération en fonction du format et de la destination de sortie
La règle minimum est de connaître les caractéristiques de la sortie et d’accentuer en dernier une fois que toutes les corrections de base sont valides.

Mon secret n’est cependant pas d’accentuer trop un grand tirage, car les accentuations trop vives donnent un aspect « numérique » au sens péjoratif du terme, c’est à dire « géométrique » dans le découpage des formes, « surligné », tracé « au burin » ; ma méthode consiste à partir d’un grand fichier très fin à faire ressortir la matière et les détails en …dégradant la qualité globale, c’est à dire en superposant à l’image une couche de grain de style argentique, qui donnera un aspect un peu irrégulier aux contours des détails. Après avoir élaboré mes propres méthodes assez longues et empiriques, j’emploie désormais volontiers le logiciel DxO Film Pack qui contient la granulation réelle d’une quarantaine de supports argentiques légendaires !  




Développement des raws / DxO Optics Pro


L’utilisation du format raw semble gagner de plus en plus de terrain sur le jpeg direct, y compris chez les amateurs (l’amélioration considérable des fonctionnalités et de l’ergonomie des logiciels de développement n’y est sans doute pas pour rien). Que dirais-tu à un photographe hésitant pour le convaincre de passer au raw ?

Je dirais que face à un RAW le photographe peut encore presque tout changer, sauf le couple vitesse/diaphragme utilisé à l’origine, lequel a une influence déterminante sur le mouvement (vitesse), et la profondeur de champ et le piqué (ouverture du diaphragme), et bien entendu le choix initial de sensibilité qui a déterminé la quantité de lumière que ce couple vitesse/diaphragme devrait envoyer vers le capteur ! Mais tout le reste : lumière, contraste, équilibre des couleurs, saturation, balance des blancs, contrôle du bruit, accentuation…peut être modifié après coup. Un JPG est « gravé dans le marbre » en ce qui concerne ces réglages, qui ne peuvent être modifiés que dans une moindre mesure. Cependant, il faut reconnaître que la gestion des JPG a fait de gros progrès ces dernières années sur les reflex numériques, et que les styles d’image de l’A900 sont particulièrement pratiques pour le photographe pressé !


Les logiciels Adobe Camera Raw et Lightroom sont de loin les plus utilisés par les pros et les amateurs-experts. Pourtant des logiciels comme DxO Optics Pro, Capture One ou Bibble proposent également des solutions de haut niveau. Quels sont les raisons majeures de l’actuelle domination d’Adobe dans ce domaine ?

Quand 90% des pros et des éditeurs utilisent Photoshop, et que beaucoup d’amateurs sont fiers de le pirater, on peut considérer qu’Adobe est un peu le Windows de la retouche photo. Mais heureusement le système est assez ouvert pour pouvoir exporter dans Photoshop des images ouvertes par d’autres logiciels et de profiter des spécificités de tel ou tel produit. Sinon la démarche de chacun a été différente :
- Photoshop est venu au RAW par un module externe (c’est toujours le cas d’ailleurs) pour permettre l’ouverture rapide et directe de beaucoup de formats de fichiers, il est évident que c’est fondamental dans une agence, par exemple;
- Bibble a débuté la carrière comme un petit produit qui donnait un rendu très « californien » automatiquement aux NEF du D1 au moment où le logiciel interne Nikon était balbutiant et pour tout dire très insuffisant;
- Capture One a profité de la même lacune sur les premiers DPP Canon pour proposer de développer ces fichiers avec l’outil élaboré pour les dos moyens formats Phase One, et s’est ensuite ouvert à bien d’autres appareils;
- DxO est parti du concept de correction automatique des défauts optiques avant de se lancer dans les RAW, avec un très grand succès des dernières versions en hauts ISO.


A propos de DxO, outre le fait qu’il est issu de l’ingénierie française, quelles sont les spécificités de DxO Optics Pro en comparaison aux autres logiciels de développement ?

DxO a développé une nouvelle technologie de dématriçage qui compare les zones de pixels bien plus largement que sur les groupes de 4 x 4 habituels en vue de détecter notamment les pixels anormaux (bruit) et cette technique fait en effet des merveilles en hauts ISO ; mais le traitement DxO est un tout parce qu’il intègre aussi la récupération des hautes lumières, le débouchage des ombres et les corrections optiques. Par contre il est moins universel parce que les boîtiers et leurs optiques doivent être étalonnées  


Justement, Sony n’est pas très bien loti chez DxO : seuls trois boîtiers sont pris en charge (Alpha 100, 350 et 700), associés à très peu de modules optiques. Peut-on espérer une amélioration de cette situation, peu motivante pour investir dans ce logiciel ?

Certes oui, mais il faudrait sans doute que de nombreux « Sonystes » s’adressent à DxO pour demander des modules A900, le marché d’un logiciel dépend aussi de la diffusion des appareils sur le marché. Je ne suis pas dans le secret des dieux quant aux projets de DxO vis à vis de Sony, désolé !




JMS… et l’Alpha 900


Tu as écrit un livre « Obtenez le meilleur de l’Alpha 900 », à paraître début janvier chez Dunod. Qu’est-ce qui t’a donné envie d’écrire sur ce boîtier, après les Fuji S3/S5 et le Pentax K20D ?

C’était le premier reflex 24 x 36 très haute définition, la marque a fait une entrée impressionnante dans la « cour des grands » et les gens de Sony sont très ouverts à la discussion et à la technique !


Tu as été du voyage en Ecosse pour la présentation officielle de l’Alpha 900 par Sony. Quelles ont été tes premières impressions lors de la prise en main du boîtier ? Et aujourd’hui, quel est ton avis global sur ce premier plein format Sony ?

J’ai eu d’emblée un choc en découvrant la visée, c’est le plus beau viseur du marché pour les reflex 24 x 36, et pour avoir apprécié l’A700 que j’avais eu l’occasion de tester je n’ai pas été dérouté par l’ergonomie. Mes premiers essais n’ont eu lieu qu’en JPG, et j’ai apprécié la finesse et la douceur de la colorimétrie en paysage…mais mon avis global a été affiné par l’utilisation de l’appareil avec les meilleurs optiques pendant plus d’un mois sur tous mes sujets habituels : avec une bonne lumière il est merveilleux et les tirages A1 ne lui feront pas peur en JPG, mais en haute sensibilité il y a un retard logiciel sur Canon et Nikon, que ce soit en JPG ou en RAW…or le capteur est bon aux mesures, donc il reste à faire sans doute de nouveaux softs et firmwares !


Tu as testé de nombreuses optiques sur banc DxO Analyser. Sans dévoiler les résultats qui seront publiés dans le livre, comment s’en sortent les objectifs Sony et Minolta sur le capteur très exigeant de l’Alpha 900 ? Y a-t-il eu des surprises, dans un sens ou dans l’autre ?

Les anciens fixes Minolta s’en sortent bien aux focales moyennes, mais les grands angles jusqu’à 35 mm auront du mal dans les bords et angles. Les zooms grand public et expert du siècle dernier sont clairement à oublier, sauf à fermer le diaph autour de f/11. Je n’ai pas eu la possibilité de tester les anciens zooms pros Minolta en trans-standard, mais le valeureux 17-35 f/3,5 est clairement dépassé. 


La gamme optique Alpha se complète progressivement. Quel jugement global as-tu sur le parc déjà disponible, Zeiss 16-35/2.8 SSM et Sony 70-400 G SSM compris ?

Le nouveau parc disponible en zoom est clairement à la hauteur du boîtier, mais je n’ai pas encore passé aux mesures le 16-35 et le 70-400, même si j’ai eu plaisir à essayer des protos. Je ne suis pas inquiet, mais je suis assez pinailleur pour ne rien dire sans avoir fait les mesures ! Quant aux Zeiss fixes…on souhaiterait que la même gamme soit étendue vers le bas (grands angles, Planar 50) et vers la la macro (Makro Planar 50 et 100 f/2) car il existe dans la marque des formules qui font merveille en monture Nikon !


Lors d’une discussion sur le forum de Chasseur d’Images, tu as affirmé que l’Alpha 900 était d’abord dédié à des impressions grand format, la taille nominale de son capteur à 254 dpi étant le A2. Ne penses-tu pas que bénéficier d’un capteur plein format qui permet de retrouver des focales normales (en particulier des grands-angles), de bénéficier d’une grande latitude de recadrage et d’un viseur exceptionnel sont des arguments suffisants pour choisir ce boîtier ?

C’est un argument suffisant, mais si l’appareil n’était pas typé haute résolution, un capteur comme celui du Nikon D700 aurait suffi à une grande partie des amateurs, car avec 8 Mpix seulement on dépasse les performances techniques des films argentiques ! Le recadrage est un argument réel mais que je trouve assez secondaire, il intéresse en fait surtout les pros (pub, mode, pack shot) parce que le directeur artistique veut mettre sa patte en recadrant à son goût l’image du photographe, et là les 24 Mpix seront très utiles. Sinon le grand format se développe, au dernier festival de Montier en Der les expositions en 30 x 45 étaient franchement devenues minoritaires !


Deux ans et demi après la fin de Minolta, quel jugement portes-tu sur l’entrée de Sony dans le monde des reflex ? Cela a-t-il de ton point de vue modifié sensiblement le paysage de ce petit monde très fermé ? Et à plus long terme ?

A long terme c’est très délicat ! A court terme Sony a magnifiquement négocié cette entrée sur le marché alors que l’image de Minolta était au plus bas après un sabordage assez improvisé…reste à consolider les optiques et à améliorer les soft, mais le paysage du marché a déjà été modifié, dès la commercialisation de l’A100 qui était le premier 10 Mpix à prix grand public !




Bibliographie



JMS_A900.jpg
Editions Dunod
Collection Hors collection -135 x 210 mm - 200 pages -
Prix public : 19 €
A paraître en janvier 2009


JMS_04.jpg
DxO pour les photographes
Jean-Marie Sepulchre
Editions Eyrolles
Février 2008
Prix public : 29,90 €




JMS_07.jpg
Editions Eyrolles
Septembre 2006
Prix public : 29 €




JMS_01.jpg
Editions VM
Juillet 2006
Prix public : 12 €



JMS_06.jpg
Jean-Marie Sepulchre
Editions VM
Juillet 2006
Prix public : 12 €



JMS_02.jpg
110 tests d'objectifs pour le Nikon D3
Exclusivité ebook - Disponible uniquement en version PDF à télécharger
Jean-Marie Sepulchre
Editions VM<
Août 2008
Prix public : 32 €




JMS_03.jpg
Jean-Marie Sepulchre et Claire Riou
Editions Dunod
Juin 2008
Prix public : 18 €




Jean-Marie Sepulchre
Editions Bichromia
Janvier 2008
Prix public : 21 €



Commentaires   

# vince 23-12-2008 22:52
Qui a dit que les article d'alphanum étaient orientés débutant ?

J'ai dû m'accrocher à plusieurs reprises, mais merci aux deux protagonistes de cette interview enrichissante.
# Patrick 24-12-2008 00:54
Hein ? Quoi ? Quelqu'un a dit que les articles d'Alphanum étaient orientés débutants ? T'as le nom de la future victime, vince ? :wink:

Plus sérieusement, on essaie de s'adresser à tout le monde : des choses simples pour les débutants, et quand c'est possible, on va plus en profondeur. Quand on peut discuter avec un JMS, on en profite, bien évidemment :D
# Enfin ...Henry 67 28-01-2009 18:00
Oui, enfin un "expert" qui ne "la joue pas expert" !
Cette analyse du A900 me semble réaliste, dans la mesure où elle tient compte du "pour et du contre". En effet, comme disait Panisse :"Mr Brun, de la toile... c'est pour faire des voiles au bateau... ou des culottes à Madame?"
Et nos experts n'hésitent pas à tout mélanger.
Problème posé : pour des "amateurs" qui usent des Minolta, puis des Reflex numériques Sony, l'existence de quelques bons objectifs déjà acquis, rend difficile la réorientation vers d'autre boîtiers.
D'où l'intérêt de savoir la valeur, sans parti pris et à notre niveau, du "super-boîtiers qui vient de sortir" !

Les commentaires ont été désactivés