Apple ha aggiornato iOS 13 a un ritmo record, in parte per aggiungere nuove funzionalità, ma, soprattutto, per correggere i bug.
Ciò non significa che funzionalità aggiuntive non siano ancora all'orizzonte. Ad esempio, la funzione fotocamera Deep Fusion, che Apple ha annunciato al suo evento "solo per innovazione" all'inizio di quest'anno insieme a iPhone 11 e iPhone 11 Pro. Apple ha sempre detto che la funzionalità sarebbe stata lanciata in un secondo momento, con un successivo aggiornamento del software per iOS 13, e ora la funzione è in versione beta.
The Verge presenta oggi il rapporto, delineando come Apple sta lavorando all'imminente lancio pubblico di Deep Fusion e come la funzionalità renderà ancora migliori le già impressionanti fotocamere dei più recenti smartphone di punta di Apple.
Puoi vedere il risultato di una foto catturata con Deep Fusion nell'immagine nella parte superiore di questo articolo.
Deep Fusion è una funzione importante per le immagini di "luce medio-bassa". È anche una funzionalità che funziona interamente in background, lavorando per ottimizzare e migliorare le immagini mentre il proprietario di iPhone 11/11 Pro scatta foto in movimento.
Il rapporto presenta una bella suddivisione di come dovrebbe funzionare in background:
- Quando si preme il pulsante dell'otturatore, la fotocamera ha già acquisito tre fotogrammi a una velocità dell'otturatore elevata per bloccare il movimento nella ripresa. Quando si preme l'otturatore, sono necessari tre scatti aggiuntivi, quindi un'esposizione più lunga per acquisire i dettagli.
- Questi tre scatti regolari e quelli a lunga esposizione si fondono in ciò che Apple definisce un "lungo sintetico": questa è una differenza sostanziale rispetto a Smart HDR.
- Deep Fusion seleziona l'immagine a breve esposizione con il maggior numero di dettagli e la unisce alla lunga esposizione sintetica - a differenza di Smart HDR, Deep Fusion unisce solo questi due fotogrammi, non di più. Queste due immagini vengono inoltre elaborate per il rumore in modo diverso rispetto a Smart HDR, in modo migliore per Deep Fusion.
- Le immagini vengono eseguite attraverso quattro fasi di elaborazione dei dettagli, pixel per pixel, ciascuna adattata a quantità crescenti di dettagli: il cielo e le pareti sono nella fascia più bassa, mentre pelle, capelli, tessuti e così via sono al livello più alto. Questo genera una serie di ponderazioni su come fondere le due immagini - prendendo i dettagli da una e tono, colore e luminanza dall'altra.
- L'immagine finale viene generata.
Secondo il rapporto, il teleobiettivo utilizzerà principalmente Deep Fusion, con la funzione Smart HDR che subentra in uno scatto solo quando ci sono scene molto luminose. L'obiettivo grandangolare standard, nel frattempo, si affiderà principalmente alla funzione Smart HDR per scene da luminose a medio-chiare, e Deep Fusion entrerà in scena con scene di luce medio-bassa. L'obiettivo ultra grandangolare non utilizzerà mai la modalità Deep Fusion o Night, poiché supporta solo la funzione Smart HDR e nessuna delle altre funzionalità.
La modalità notturna si avvierà sempre e sarà la caratteristica principale in uno scenario di scarsa illuminazione.
Come notato nel rapporto, Apple sta attualmente testando la funzionalità in una beta di iOS 13. Tuttavia, quella beta non è attualmente disponibile per gli sviluppatori, né per i beta tester pubblici. Apple probabilmente seminerà quella prima beta, con Deep Fusion, a breve, forse anche più tardi oggi come iOS 13.2.
Non vedi l'ora dell'arrivo di Deep Fusion?