Le indiscrezioni sulla prossima serie iPhone 17 di Apple hanno alimentato un acceso dibattito, in particolare riguardo a una potenziale riprogettazione del modulo fotocamera posteriore. Le fughe di notizie suggeriscono che le modifiche estetiche potrebbero essere significative, ma la vera domanda che attanaglia gli appassionati è se queste influenzeranno le capacità fotografiche esistenti dell'iPhone, una questione a cui nessuno ha ancora fornito una risposta adeguata.
Diversi rumor suggeriscono che, per i modelli iPhone 17 Pro, Apple potrebbe abbandonare la tradizionale disposizione triangolare delle lenti a favore di una barra orizzontale allungata, simile a quella utilizzata sul Google Pixel. Tuttavia, le informazioni sono contrastanti: almeno una fonte sostiene che i modelli iPhone 17 Pro manterranno l'attuale configurazione triangolare, pur con una riprogettazione dei materiali del rivestimento posteriore.
Il punto di maggiore preoccupazione riguardo all'adozione di un layout orizzontale della fotocamera è il suo potenziale impatto sulla capacità del dispositivo di catturare video spaziali per Apple Vision Pro, una funzionalità attualmente supportata dagli iPhone 15 Pro e da tutti i modelli iPhone 16.
Il video spaziale è un formato video immersivo che offre un'esperienza più tridimensionale catturando contenuti da più prospettive. Questa tecnologia consente agli spettatori che indossano Apple Vision Pro di sentirsi come se fossero presenti nell'ambiente filmato, offrendo un miglioramento significativo rispetto ai tradizionali formati video 2D.
La modalità di ripresa richiede due fotocamere per registrare filmati simultaneamente quando l'iPhone è tenuto in orientamento orizzontale. La separazione orizzontale tra le lenti è fondamentale per imitare la distanza tra gli occhi umani e creare la percezione della profondità. A differenza del video 3D standard che presenta una prospettiva statica, il video spaziale in questo modo crea sei gradi di libertà, in modo che se lo spettatore sposta la sua posizione, anche la prospettiva nel filmato cambia di conseguenza.
Sui modelli iPhone 15 Pro e iPhone 16 Pro, il video spaziale viene ottenuto utilizzando le fotocamere principale Wide e Ultra Wide allineate verticalmente per catturare queste diverse prospettive. Allo stesso modo, Apple ha adottato un design di allineamento verticale per le fotocamere posteriori a doppia lente sui modelli standard di iPhone 16 come mossa strategica per consentire la cattura di video spaziali.
La logica sembrerebbe quindi dettare che se i modelli iPhone 17 Pro adottassero la presunta barra orizzontale allungata delle lenti, non sarebbero più in grado di girare video spaziali in orientamento orizzontale, perdendo così una funzionalità fondamentale della fotocamera che è stata presente nei loro predecessori per due generazioni. Al contrario, se i modelli non Pro mantenessero l'allineamento verticale delle due lenti attualmente utilizzate nell'iPhone 16, la cattura spaziale diventerebbe incongruamente esclusiva del dispositivo più economico di Apple.
D'altra parte, se anche l'iPhone 17 standard adottasse il design a barra orizzontale allungata, nessun modello della serie sarebbe in grado di girare video spaziali.
Apple sarebbe davvero disposta a eliminare la funzionalità di video spaziale da alcuni, se non tutti, i modelli di iPhone 17, una funzionalità su cui ha investito così tante risorse in ricerca e sviluppo (per non parlare del marketing)? Molti suggerirebbero che nessuno di questi scenari è probabile.
C'è però un'altra possibilità. I recenti progressi nella fotografia computazionale potrebbero aver aperto nuove strade per la creazione di video spaziali senza i rigidi vincoli hardware esistenti. Ad esempio, il Gaussian splatting, inventato meno di due anni fa, può generare modelli 3D fotorealistici utilizzando dati provenienti da più angolazioni della fotocamera, anche quando si utilizzano disposizioni non tradizionali.
Niantic, un'azienda con stretti legami con Google, ha già sfruttato il Gaussian splatting nella sua app Scaniverse per creare modelli 3D fotorealistici. Non solo, l'app WebXR di Niantic "Into the Scaniverse" per il visore Meta Quest consente agli utenti di entrare negli "splat" che hanno catturato in Scaniverse e di camminarci intorno.
Apple potrebbe sviluppare qualcosa di simile al Guassian splatting per i video, simile alla sua funzionalità visionOS 2 che utilizza l'apprendimento automatico avanzato per trasformare un'immagine 2D in una foto spaziale che poi prende vita quando viene visualizzata su Vision Pro?
Ovviamente, se Apple stia adottando o meno qualcosa di simile è un'ipotesi che chiunque può fare a questo punto. Allo stesso modo, non c'è motivo di credere in un modo o nell'altro che Apple abbia sviluppato una propria soluzione alternativa che si adatti a una riprogettazione del modulo fotocamera. L'unica cosa che sappiamo è che impareremo tutto quando Apple annuncerà la serie iPhone 17 intorno alla sua solita tempistica di metà settembre.