Google fa luce sulla fotocamera del suo Pixel 2
Nel segmento di fascia alta, la fotocamera funge da ago della bilancia. Google ha fatto passi da gigante negli ultimi anni ed ha prodotto risultati straordinari in Pixel e Pixel 2. Abbiamo avuto l'opportunità di parlare con Isaac Reynolds, Product Manager per la fotocamera del Pixel 2 e ci ha fornito alcuni spunti interessanti sulla filosofia della fotocamera.
Si discute molto sulla fotocamera degli smartphone. Non solo sulla qualità delle immagini, ma anche sul modo per crearle. Esempio: impostazioni manuali o piuttosto modalità automatica veloce? Sorge così inevitabilmente la domanda su come si mette in relazione la fotocamera dello smartphone e le costose Reflex. Google come se la cava?
Isaac Reynolds ha una visione chiara di questa discussione: in genere, la fotocamera viene vista principalmente da un punto di vista hardware. "Google è piuttosto una società di software", ci ha rivelato durante l'intervista. Sulla fotocamera del Google Pixel questo viene in primo piano.
Certo, l'hardware non è trascurabile. Google, però, punta principalmente sul software. E qui Reynolds si riferisce in particolare alla tecnologia HDR + che Google sta affinando da sei anni. In un certo senso la fotocamera Pixel è una “software-defined camera”, essenzialmente basata sul software.
L'HDR+ fa la differenza
L'HDR+ non funziona come una classica modalità HDR che combina diverse immagini in una con diverse impostazioni di esposizione. L'HDR+ utilizza fino a dieci immagini sottoesposte, ma scattate con la stessa impostazione di esposizione. L'algoritmo HDR+ mette insieme queste immagini in una.
Con questo metodo, la fotocamera del Pixel può raggiungere tempi di esposizione lunghi senza effettivamente utilizzare un'immagine con un tempo di esposizione lungo. Qui vengono utilizzate diverse tecniche che assicurano che le immagini rimangano nitide.
Una modalità manuale è quindi difficile da implementare nel Pixel perché annullerebbe questa funzionalità: l'HDR+ elabora fino a dieci immagini che Google potrebbe fornire come file RAW. Solo che non ci sarebbe alcun software in grado di elaborare tutto questo in un'immagine. Google ha quindi deciso di abbandonare le funzionalità RAW nella fotocamera Google.
Anche quando viene utilizzato lo zoom entra in gioco il software che dovrebbe fornire risultati migliori. Tra gli altri RaisR. Questo algoritmo aiuta in situazioni con forte contrasto a fornire dettagli migliori (funziona particolarmente bene, per esempio, con le lettere).
Google ha fatto tanto anche nella modalità ritratto. Sebbene simuli l'effetto bokeh ottico di una fotocamera, va per la sua strada. Ad esempio, mantiene sempre le persone nitide anche quando non si trovano in un piano focale. Qui Google combina due tecnologie. Da un lato la stima della profondità basata su due immagini da diverse prospettive. Questo è possibile grazie al sensore dual pixel il cui spostamento minimo è già sufficiente. Inoltre, il machine learning viene utilizzato per adattarsi meglio ai profili delle persone.
Google: l'obiettivo è il punta e scatta
In generale l’idea della fotocamera Google è principalmente quella di fornire una soluzione fotografica semplice. Per questo motivo Reynolds rifiuta le modalità impegnative con il riconoscimento degli oggetti.
Il team della fotocamera Google porta anche sullo schermo i moderni formati multimediali come l'AV1. Tuttavia il supporto deve continuare a crescere. In ogni caso un utente Pixel non dovrebbe preoccuparsi dello spazio di archiviazione perché le immagini sarebbero sincronizzate tramite cloud (Google Foto). Ma ciò significa anche che per Google, Google Foto e la fotocamera Google vanno a braccetto.
Pixel Visual Core: Google non utilizza il chip
Reynolds ha fatto chiarezza anche su un tema su cui Google si era espresso precedentemente in maniera contraddittoria. Nel Pixel 2 si nasconde il Pixel Visual Core, un processore in grado di accelerare le applicazioni di machine learning. Inizialmente inutilizzato, la fotocamera Google non lo utilizza fino ad oggi.
Il Visual Core viene utilizzato solo per software di terze parti per i quali il Pixel fornisce le funzionalità HDR+ Visual Core. Ci sono ragioni per questo, dice Reynolds. Google ha voluto consentire un facile accesso all’HDR+ agli sviluppatori di app, per la propria app fotocamera però si ha bisogno di funzioni più complesse che attualmente non sono realizzabili tramite Visual Core. In futuro è probabile che anche Google coinvolgerà Visual Core.
Il dualismo della doppia fotocamera
Le doppie fotocamere sono la tendenza del momento e difficilmente uno smartphone di fascia alta si presenta senza. Tuttavia non sono indispensabili per la qualità dell'immagine. Reynolds sottolinea che una doppia fotocamera è legata ai costi che causano l’aumento dei prezzi degli smartphone (quindi costi più elevati per gli acquirenti).
Da un lato due sensori di immagine costano più di uno; dall’altro le doppie fotocamere richiedono più RAM. Una doppia fotocamera richiede quindi dei compromessi a cui Google probabilmente non voleva scendere nel Pixel 2 XL.
La fotocamera è per voi un importante criterio per l’acquisto? E quale fotocamera utilizzate attualmente?