È innegabile che, nel corso degli ultimi anni, tanti tool per la modifica e il ritocco delle immagini abbiano introdotto funzionalità particolarmente evolute e potenti, disponibili in tanti casi anche su device mobile. Quando l’editing è mirato solo su alcune aree precise, è però difficile ottenere risultati soddisfacenti: ma in futuro, grazie al deep learning tutto ciò sarà possibile.
Attraverso una partnership dedicata allo sviluppo di un progetto ad hoc, Adobe e l’Università di Berkeley hanno lavorato a un sistema basato sull’intelligenza artificiale, che permetterà di sfruttare le capacità del deep learning per identificare automaticamente quanto è presente nelle immagini e, quindi, svolgendo l’intervento di editing in modo mirato dove è necessario.
La caratteristica essenziale di questo nuovo approccio all’editing fotografico, è che agisce in maniera puntuale, evitando di snaturare l’immagine nel complesso, migliorando solo la parte interessata dalle modifiche, che possono essere di differenti tipi, a seconda delle intenzioni dell’utente e delle particolarità dell’immagine.
Con questo approccio, per esempio, è possibile sostituire il colore in maniera naturale e uniforme (con il cosiddetto coloring), oppure, è possibile sfruttare un pennello per tratteggiare le modifiche (sketching), o si può trasformare un oggetto in un altro, attuando la cosiddetta tecnica di warping, ampliando notevolmente i limiti imposti dalla tecnologia alla creatività .
Fino a questo momento, Adobe non ha fatto sapere se la soluzione basata sul deep learning possa essere integrata nei suoi programmi, Photoshop in primo luogo. Il codice sviluppo in collaborazione con Berkeley è visualizzabile all’interno di Github al seguente indirizzo.