La gestione del colore non è più solo un problema di professionisti, fotolito e stampatori. Oggi tutto è immagine, e noi siamo i principali produttori di queste immagini: è esploso il numero degli input e delle periferiche da cui fruiamo immagini e media. Ha dunque ancora senso – e soprattutto, è possibile – allineare i profili per tutti i possibili output, compresa la stampa?
Di Lorenzo Capitani | Su PRINTlovers 90
A Mauro Boscarol, indiscusso maestro di gestione del colore.
È il 2005 quando esce Color Management di Bruce Fraser. È un anno di svolta in cui la gestione del colore non è più solo un problema di professionisti, fotolito e stampatori. Sulle scrivanie fanno la loro comparsa gli scanner piani, e le fotocamere digitali iniziano a diffondersi tra fotografi e non solo. Anche i computer costano meno e programmi come Photoshop diventano consumer, nasce Gimp (alternativa free) e fare un pdf per la stampa è ormai questione di qualche clic. Siamo nell’era del desktop publishing digitale, e l’intero comparto cambia profondamente: quello che prima si affidava al fotolito ora si può fare in casa, anzi si deve fare in casa per contenere i costi. Poi c’è Internet dove le foto sono a portata di download, peccato però che spesso siano in bassa risoluzione o non libere da diritti. E così si finisce per improvvisarsi fotografi, scanneristi, cromisti e fotolitisti. E arrivano i problemi: di solito alla fine del processo, in prestampa, dove bisogna cercare di rimediare, o in stampa, dove spesso non si può far più nulla e fioccano dissapori e contestazioni.
«In the old days, life was a lot simpler»
Così scrive Fraser nel libro. L’era del one-input/one-output è finita e ormai per ciascuna periferica di acquisizione ci sono più periferiche di uscita e fasi intermedie – tra monitor, stampanti, prove colore, approvazioni da remoto – da tenere in considerazione. Ogni monitor è diverso, ogni sistema operativo gestisce il colore a modo suo; poi ci sono gli spazi colore e il loro gamut, i profili, gli intenti di rendering, le impostazioni colore dei singoli programmi, e così via fino alle condizioni di luce sotto le quali si lavora o si valutano gli originali, le prove colore e i fogli stampati. Insomma, il WYSIWYG è sempre più un mito: è ovvio che quello che si vede necessariamente non è quello che si otterrà. Astrarsi da quello che vedono gli occhi non è facile. L’RGB retro-illuminato del monitor non è la stampa a 4 colori: anche senza considerare carta, inchiostro e tecnologia, i colori riproducibili in quadricromia sono meno e nemmeno tutti compresi nell’RGB e così quel cielo così intenso o quel verde così acido restano irriproducibili. (01-02) Ricorda Roberto Zucchelli, esperto di colore: «Quando i fotografi professionisti sono gradualmente passati al digitale, il passaggio non è stato indolore. Per la prima volta si parlava di profili colore, una nuova tecnologia che permetteva la sincronizzazione delle diverse attrezzature (macchina fotografica, monitor, stampante per le prove). Questo ha rappresentato un’accelerazione nel processo produttivo, permettendo l’utilizzo diretto dello scatto del fotografo e, contemporaneamente, il mantenimento della coerenza cromatica grazie ai profili colore. Ma non sempre questo nuovo flusso di lavoro ha dato i risultati sperati a causa della scarsità di consapevolezza nel gestire i vari passaggi». Per Gaetano Biraghi, area manager di Epson per le stampanti di largo formato, «prima con lo scatto tradizionale avevamo un rullino che ci permetteva un certo numero di scatti, ora scattiamo molte più foto a costo zero. Oggi con il digitale ritoccare una foto offre così tante possibilità che, una volta iniziato, si rischia di non finire più».
I numeri non mentono mai
È questa la tesi di Katrin Eismann nel suo libro Photoshop. Restoration & Retouching, la cui prima edizione risale addirittura al 2001. E così la pensa anche Biraghi di Epson: «I numeri sono la salvezza. La gestione colore usa 4 punti cardine: profilo di ingresso e di uscita, gli intenti di rendering (ossia come rappresentare i colori che risultano fuori gamut dello spazio di destinazione, ndr), spazio colore Lab e modello di calcolo». Ed è vero, così fanno i professionisti: misurano il colore e non si affidano solo a quello che vedono a monitor. Ma, come sottolinea Marco Olivotto, esperto di colore e docente di fotografia e post-produzione, «i numeri non dicono tutto: e non solo per ragioni estetiche, ma anche per motivi squisitamente percettivi. Il contrasto simultaneo, ad esempio, ci fa percepire un colore diversamente a seconda di ciò che lo circonda, ma non è legato al gusto individuale né può essere descritto solo dai soli numeri. I numeri sono il bastone che ci aiuta a percorrere il sentiero, ma alla fine siamo noi a scegliere dove vogliamo andare». Quindi è indispensabile affidarsi ai numeri, ma deve esserci una discrezionalità estetica corretta e consapevole e non tratta in inganno dalla diversa resa di ciascuna periferica. Ma oggi che è esploso il numero degli input e delle periferiche dalle quali fruiamo immagini e media, e i possibili output (di cui la stampa è solo uno di essi) sono così tanti e diversi tra loro, ha ancora senso un approccio normativo che pretenda di controllare l’intera filiera? Finché questa è corta o monocanale, come accadeva nella produzione cartacea, sviluppo del negativo digitale, correzione cromatica e creazione in pdf erano controllabili (anche se con non poche difficoltà), allineando i profili. Ma come fare oggi con la multicanalità? Ha senso preoccuparsi che la resa di un vestito sia identica sulla carta (quale poi, lucida, opaca, da giornale?), tablet, tv, digital wall in negozio, billboard digitale in stazione, notebook o laptop? In questo scenario è impossibile governare davvero l’uniformità per ciascun output. Questo però non vuol dire che non sia ancora importante una corretta gestione del colore. Il più delle volte bastano la sua veridicità e credibilità anche se, come vedremo, siamo andati oltre anche questo.
È l’immagine, bellezza.
Oggi tutto è immagine e noi siamo i più grandi produttori e consumatori di queste immagini. In uno smartphone, «hub personale di raccolta e condivisione di informazioni» come lo chiama Paolo Tedeschi, Corporate communication & Marketing services Senior manager di Canon Italia, la maggior parte dei dati sono foto e video e la nostra principale attività online si basa quasi solo sull’interazione con essi. I social si sono dovuti inventare le storie a tempo, che scadono e si cancellano da sole, per ovviare alla mole di dati che devono archiviare nei loro server, e che noi produciamo, condividiamo e consumiamo, dimenticandole immediatamente. L’immagine è linguaggio, facile, immediato e accessibile a tutti e per questo sempre più diffuso. La fotocamera di un telefonino oggi è paragonabile a quella di una macchina professionale. La pagina di Apple dedicata all’iPhone 13 non è più quella di un telefono, ma a tutti gli effetti di una fotocamera: si parla di macro, di scatti notturni, di stabilizzatore, di grandangolo e zoom. Ormai l’apertura del diaframma arriva a 1,5 f, come in un obiettivo di fascia alta, e si scatta a 12 MP. Tant’è che il fotografo Karl Taylor si è divertito a fotografare una Harley Davidson in studio, con un iPhone e una Hasselblad H6 da 33 mila dollari, dimostrando come, a parità di luce, il risultato ormai è assolutamente comparabile. (03) Sfide limite, come il reportage del documentarista Austin Mann in Tanzania girato tutto con il nuovo iPhone, che dimostrano che per la fotografia consumer siamo già oltre le reali esigenze. Per Biraghi, «gli smartphone hanno ormai sostituito le macchine fotografiche, peccato che si identifichino sempre più per megapixel e non per capacità cromatica e per come salvano i file. Ecco il collo di bottiglia. Se nel file non c’è gamut ampio, non si può pretendere che le periferiche inventino i colori!». (04-05)
Come suggerisce Tedeschi, «l’immagine è un elemento fondamentale della vita di ciascuno di noi. A contesti diversi si adattano tecnologie differenti. Dal ritratto indoor al paesaggio in condizioni climatiche estreme, dal bordo pista di una gara automobilistica alle vacanze in famiglia cambiano molto le esigenze di flessibilità, connettività, peso e resistenza dell’attrezzatura utilizzata. Produciamo, condividiamo e conserviamo decine di immagini ogni giorno, affidando a device di ogni sorta i nostri ricordi, le nostre storie o semplicemente la bellezza di un momento. Si tratta di un linguaggio universale e accessibile a tutti e per questo sempre più diffuso. Esiste però una sostanziale differenza tra l’immagine professionale e quella di uso più comune. Questa differenza si sta facendo sempre più netta e riconoscibile». Insomma, non basta la macchina da scrivere per fare un bravo scrittore.
Se il numero di foto tende a infinito, il valore di una foto tende a zero
L’inflazione di immagini che ci inonda ha anche modificato il nostro gusto: le guardiamo di sfuggita, swippiamo e scrolliamo velocemente; Instagram non consente nemmeno lo zoom e l’avanzamento delle foto nelle notizie di Facebook dura pochi secondi. E così le foto per essere viste, non dico osservate, devono essere più impressive possibile, devono catturare l’attenzione in un istante per spingere al clic. E così è cambiata anche la nostra percezione del colore. E questo impatta anche su come guardiamo, valutiamo e correggiamo una foto. Oggi quando si scatta con uno smartphone, si attiva in automatico il cosiddetto HDR (Alta Gamma Dinamica) che cerca di migliorare la qualità dell’immagine in qualsiasi condizione di luce: in pratica la fotocamera acquisisce diverse immagini della scena con esposizioni diverse, poi l’AI del software le combina per ricreare una foto perfettamente esposta sia nelle zone luminose che nelle zone scure, in modo credibile. Ecco come si ottengono quei controluce perfetti o quelle foto al buio senza il flash o ancora albe e tramonti da sogno. Il problema è che questa elaborazione viene fatta sempre, non solo quando ci sarebbe bisogno. È così che ci siamo abituati a colori fortemente contrastati e saturi. (06) Per Olivotto «se devo dare un’occhiata alle foto dell’albergo che sto prenotando su Booking, questo va bene e l’accuratezza della riproduzione non è così importante, ma lo è se sto post-producendo per la stampa». «È cambiata la nostra percezione dell’immagine – sottolinea Zucchelli – perché è cambiata la nostra cultura visiva. Lo vediamo quando andiamo a comprare un nuovo monitor e veniamo attratti da una vividezza delle immagini che nella realtà non esiste e tantomeno è riproducibile in stampa». Un esempio? Il monitor Eizo CG2730 specifico per l’editing delle foto è opaco e ha una luminosità massima di 350 NIT contro i 500 dell’iMac 27 o i 1000 del ProDisplay XDR, monitor top di gamma di casa Apple. Certamente le immagini sono bellissime, ma quanto sono reali? E come sarà stampata un’immagine corretta su questi monitor? Per non parlare della finitura lucida degli schermi. Per Biraghi di Epson «esistono ormai monitor abbordabili con la specifica Adobe RGB e non sRGB, più indicati per la visualizzazione corretta, che vanno comunque calibrati (cioè messi in uno stato noto) e profilati. Solo a questo punto i programmi che sanno gestire il colore riproducono i colori nel modo più corretto».
Sembra facile, invece…
Se un’immagine ha valore prossimo a zero, come sostiene Olivotto, «accettiamo (sbagliando!) di guardarla anche in condizioni non ottimali. In ogni caso, se il riferimento rimane l’immagine stampata (e a mio parere dovrebbe essere così), è fuori dubbio che i nostri monitor siano tendenzialmente più luminosi e “vivaci” di quanto dovrebbero». Questo certamente altera la percezione e ha «un impatto negativo importante. La fotografia digitale viene percepita come semplice proprio grazie al fatto che la tecnologia offre funzioni assai sofisticate più o meno a chiunque. In realtà non è per nulla semplice, soprattutto se abbiamo bisogno di esercitare il controllo su ciò che facciamo. Non c’è nulla di male, naturalmente, nel dare alle persone la possibilità di realizzare immagini di buon livello, magari con l’ausilio di un’intelligenza artificiale che diventa sempre più sorprendente. Questo però tende a nascondere il processo, che invece dovrebbe essere chiaro almeno nelle sue linee principali».
Un’illusione di facilità che passa anche dall’accesso ai software di photo-editing. Sempre Olivotto: «è facile distruggere un’immagine senza rendersene conto. L’approccio del fotografo spesso è “modifico fino a che non sono soddisfatto”, mentre quello del fotoritoccatore dovrebbe essere più scientifico e rigoroso. Qualche anno fa un fotografo mi chiese un consiglio: aveva post-prodotto alcune foto naturalistiche che avevano però prodotto delle stampe disastrose. Per farlo, aveva utilizzato un noto plug-in di enfatizzazione del colore in Photoshop. A monitor le foto erano molto belle, ma convertendole in CMYK avevano un aspetto terribile. La ragione del cattivo risultato era il modo in cui il plug-in manipolava i canali RGB. Il controllo sul risultato finale deve passare per una conoscenza dei meccanismi che conducono a quel risultato e molti moduli di sviluppo RAW, in particolare, non sempre operano in maniera così trasparente». Indubbiamente esistono oggi tante soluzioni per la correzione delle immagini, anche tanti software open source si avvicinano molto alle soluzioni commerciali, come Claro di Elpical; tuttavia, anche avere la possibilità di utilizzare un software molto potente per modificare i nostri scatti digitali non ci trasforma ipso facto in professionisti del settore, e il rischio di perdere informazioni importanti è altissimo se ci si basa semplicemente sulla resa a video. Eppure, sottolinea Tedeschi, «anche il grande pubblico ormai ha imparato a riconoscere questa distinzione. Lo scatto perfetto, infatti, richiede pochissimi ritocchi e offre la realtà in modo molto più naturale, offrendo emozioni a chi la osserva. Esiste però una sostanziale differenza tra l’immagine professionale e quella di uso più comune. Per questo, tra chi lavora con le immagini, si sta osservando, a mio avviso, una grande specializzazione». (07)
Verso il workflow ibrido
Parte di questa sconfinata produzione fotografica finisce per essere utilizzata anche in ambito professionale. E se verso il digitale si è portati a essere indulgenti, la stampa resta l’osservata speciale. Per Olivotto «una post-produzione emotiva basata su un solo clic su un filtro di Instagram può essere interessante in prima battuta, ma perde appeal soprattutto quando su un miliardo di fotografie, diversi milioni hanno lo stesso tipo di filtro applicato». Se è vero che allineare i profili di tutti i dispositivi che useranno un’immagine, in produzione o in erogazione, è impossibile, certamente si può controllare il processo soprattutto in ottica di multicanalità. Non si tratta di riprendere l’annoso dilemma di applicare profili e conversioni a monte o farlo a valle prima dell’output finale. Il primo approccio, già ai tempi di Fraser, era sconsigliato: se da un lato dà l’illusione di avere tutto sotto controllo, dall’altro è limitante. Se converto in quadricromia una foto destinata alla stampa prima di post produrla, così da avere l’esatta gamma dei colori riproducibili (comunque filtrata dal monitor), dovrò comunque tornare all’RGB per poter usare strumenti e filtri di Photoshop altrimenti non disponibili e per usare quelle foto in ambito digitale. Allora conviene post produrre in RGB, creando una sorta di master digitale, dal quale partire per ogni canale previsto e procedere con la conversione in CMYK solo quando davvero necessario, ovvero quando la foto inizia il suo processo per essere stampata. E questo vale a maggior ragione per i profili. Non ha senso applicare il Fogra51 per la stampa offset su patinata lucida, se non conosco ancora la tecnologia di stampa e magari nemmeno la carta. Solo sul sito Fogra ci sono 21 profili diversi per 21 usi diversi. (08) L’immagine va considerata come parte di un processo ampio in cui non tutti gli output sono noti e potrebbero differenziarsi notevolmente, quindi occorre essere più conservativi possibile, non perdere mai informazioni: partire da una versione base corretta per poi avviarla a un flusso che, quello sì, deve essere interamente controllato. In questo modo la profilazione non è un’utopia. L’errore per Biraghi è «non farsi la domanda: cosa devo fare di questo scatto? È inutile fare elaborazioni con colori belli a monitor che poi non saranno stampabili. Il colore è emozione finché “me lo gestisco da solo”, ma ha regole ben definite se va condiviso». In più, suggerisce Zucchelli, «bisogna verificare il materiale in entrata con le prove colore prima di inserirlo nel nostro ciclo produttivo e, se l’immagine è destinata alla stampa, attivare la visualizzazione in modalità prova colore (simulando il CMYK) in modo da ridurre lo spazio cromatico o, in alternativa, convertire l’immagine in quadricromia». E, aggiungiamo, usare monitor professionali, calibrati periodicamente. Per Canon «per ottimizzare il flusso di creazione e riproduzione dell’immagine è importante tenere in considerazione di volta in volta le immagini in base alla tecnologia di cattura utilizzata e alle tecnologie di stampa con cui verrà riprodotta, in base ai supporti selezionati. Anche solo per una stampa che andrà esposta: l’illuminazione e il colore della parete influiranno sulla percezione dell’immagine».
Girala mossa e fuori fuoco*
E allora proviamo a governare il fenomeno: quali sono i trucchi per capire se una foto è giusta e corretta? Ci aiuta Olivotto: «Direi che una foto è “giusta” se ha un’esposizione corretta nell’intervallo di luminosità rilevante per la foto stessa, se il bilanciamento del bianco è sensato, se il contrasto appare naturale. Va detto che il bilanciamento del bianco, scattando in RAW, è poco rilevante, ma se ipotizziamo di partire da un’immagine raster, già sviluppata, diventa cruciale. Una foto è “corretta” invece se i punti di ombra e luce sono impostati correttamente, massimizzando la gamma dinamica, e non sono presenti dominanti. Tutto questo, nella maggior parte dei casi, si può fare con una sola curva o con regolazioni dei moduli di sviluppo che in sostanza emulano il comportamento delle curve». E come, suggerisce Zucchelli, è meglio «abituarsi a interpretare gli istogrammi che evidenziano la gamma tonale di un’immagine. Se dopo una correzione i livelli sono ridotti, probabilmente abbiamo perso delle informazioni e la foto risulterà “strappata”, come nel caso di una foto sovraesposta nella quale il fotografo ha perso tutte le zone di luce». E gli errori da evitare? Per Olivotto «non è il caso di saturare i colori in maniera innaturale, come spesso si vede soprattutto sui social nelle fotografie di paesaggio. Da evitare anche gli interventi che fanno perdere informazioni preziose e non recuperabili, come la riduzione del disturbo: i sensori oggi permettono di ottenere fotografie molto meno rumorose rispetto a qualche anno fa, ma ancora si tende a esagerare con la riduzione del rumore di luminanza. Il risultato è che le immagini appaiono innaturalmente lisce e prive di microdettaglio. Infine, non bisogna chiudere le ombre né bruciare le luci, se non in aree in cui ciò sia inevitabile: una volta che un canale ha clippato ed è privo di informazione non c’è più niente da fare». (09)
A supporto dei fotografi che utilizzano la loro tecnologia, Canon ha ideato un software di elaborazione RAW ed editing gratuito dal nome Canon Digital Photo Professional (DPP), che è in grado di gestire il flusso d’immagine in modo semplice ma avanzato.
Come spiega Paolo Tedeschi di Canon Italia, «DPP è il processore RAW con un supporto per le funzionalità Canon come Stile foto, Auto Lighting Optimizer (Ottimizzazione automatica della luce) e correzione aberrazione obiettivo». Questo è probabilmente più evidente se si scatta in formato RAW con lo Stile foto monocromatico: «in questo caso, infatti, la correlazione fra il software e il formato d’immagine Canon è più precisa e consente di comprendere a pieno le impostazioni dell’immagine, tra cui il bilanciamento del bianco personalizzato, la riduzione del rumore avanzata e altre impostazioni. Per noi è importante affiancare i professionisti e gli appassionati in ogni passaggio della cura e della gestione dell’immagine, per questo lavoriamo sempre pensando di soddisfare ogni tipo di esigenza: dalla cattura alla stampa, passando per tutto il ciclo di gestione del file. Questo approccio è parte integrante della nostra strategia di ricerca e sviluppo, nella quale investiamo ogni anno circa l’8% del fatturato globale, con l’obiettivo di assicurare sempre al mercato le migliori tecnologie di imaging».