Nas três gerações, as câmeras do Google Pixel são extraordinárias pela simplicidade delas: você não precisa mexer muito em controles manuais. E, mesmo com competidores como Samsung, Apple e Huawei adicionando mais sensores na traseira, o Pixel 3 e o Pixel 3a seguram bem as pontas com apenas um sensor.
Além disso, se você verificar as especificações da câmera do Pixel 3, ela tem resolução de 12 megapixels e abertura f/1.8 — esses números particularmente não se destacam comparados com as especificações de outros aparelhos. Não há sensor de 48 megapixels ou abertura f/1.5. E, no entanto, quando se trata do tipo de fotos que um Pixel pode produzir, a qualidade de imagem que você obtém dos telefones mais recentes do Google é muitas vezes melhor que a dos competidores.
Esta lacuna entre as especificações do Pixel e os resultados que ele apresenta é algo que se opõe ao desenvolvimento tradicional de câmeras de smartphones, o que normalmente resulta em fabricantes de dispositivos tentando incluir mais lentes e sensores de tamanhos cada vez maiores nos gadgets.
Então, para descobrir um pouco sobre a abordagem inovadora do Google em fazer com que suas fotos de gatos fique melhores, bati um papo com Marc Leroy, que é engenheiro do Google, e Isaac Reynolds, gerente de produtos da equipe de câmeras do Pixel, que são dois líderes que impulsionam o desenvolvimento dos esforços de fotografia do Google.
Então, qual é a fórmula de capturar fotos com qualidade tão boa? Software, impulsionado principalmente por técnicas conhecidas como fotografia computacional. Levoy foi rápido ao apontar que o campo de fotografia computacional é muito maior do que a participação do Google. Em suma, esse é o nome dado ao processo de usar software e computadores para manipular uma foto — ou mais frequentemente, uma série de fotos — para criar uma imagem final que seja significantemente melhor que a original.
Este é o princípio por trás do modo de câmera HDR+ dos smartphones Pixel, que tira várias fotos em diferentes exposições e as combina para preservar melhor as sombras e os detalhes, além de aprimorar itens como resolução e o HDR. O uso de fotografia computacional até ajuda a definir “o visual” das fotos tiradas por smartphones Pixel, pois, diferente de outras câmeras, a câmera do modelo raramente irá apagar os realces da cena, explica Levoy.
Às vezes, isso significa que uma foto tirada pelo Pixel pode parecer que tem exposição menor. Em cenas como a acima, a foto do Galaxy S10 é geralmente mais clara e possivelmente mais agradável aos olhos. Porém, falta muito detalhe no pôr do Sol — e ele era a razão pela qual eu tirei esta foto.
Fotos com aparência melhor não são o único benefício da abordagem de software de fotografia do Google. Isso também torna o aplicativo da câmera do Pixel mais fácil de usar. Ele é tão poderoso quanto o software do Google — aliás, não seria lá muito útil se ninguém conseguisse utilizá-lo.
Levoy me explicou que este equilíbrio cria uma espécie de tensão criativa. Após a demonstração de um novo recurso com potencial para a equipe do Pixel, o desafio é como incorporá-lo ao app da câmera sem que o usuário precise pensar demais para obter bons resultados.
O modo noturno é um excelente exemplo disso, pois, uma vez ligado, não tem como a pessoa estragar a cena. Você só ativa e aperta o botão de disparo. E pronto.
Enquanto isso, em segundo plano, o Pixel avaliará a quantidade de luz e usará machine learning para medir o nível de estabilidade das suas mãos. Esta informação é, então, usada para determinar a velocidade do obturador da câmera, quantos quadros a câmera precisa capturar e outras configurações para criar a melhor imagem possível.
Essa abordagem simplificada da fotografia tem também suas desvantagens — especialmente, se você estiver acostumado com os controles tradicionais que você pode encontrar em uma câmera DSLR ou mirrorless. Ao contrário dos apps de câmera de outros telefones, o Pixel não oferece controles manuais para configurar itens como velocidade do obturador, compensação de exposição ou ISO. Esse equilíbrio entre resultados de alta qualidade e controle do usuário é algo que a equipe de câmera do Pixel enfrenta constantemente.
No final, Reynolds resumiu tudo dizendo: “Se você pudesse criar uma interface de usuário que levasse essa complexidade de forma perfeita — este processo que exige três toques — e colocá-los de uma forma que eles não afetariam o usuário ao executar apenas um toque, isso seria fantástico. No entanto, é impossível esconder essas coisas no segundo plano dessa forma. Se você adicionar um caso de uso que leve três toques, comprometerá o toque único”. É por isso que, quando o impulso chega [de fazer alterações], o Google sempre volta ao seu mantra de um toque.
Como contraponto, Reynolds ressalta que, enquanto outros telefones vêm com modos profissionais que permitem que as pessoas ajustem os controles da câmera, normalmente, assim que você sai do modo automático para o manual, você perde muito processamento extra e aprimoramento de inteligência artificial que empresas como Huawei e Samsung adicionaram em seus aparelhos. Os resultados nas fotos tiradas com mais controles frequentemente não são melhores do que deixar tudo no automático para o smartphone processar.
Mas talvez a vantagem mais significante da fotografia computacional pode ser para o usuário médio, que só compra um telefone a cada dois ou três anos. Como grande parte da mágica dentro da câmera do Pixel está no software, é muito mais fácil portar recursos como o Modo Noturno e o Super Res Zoom, que foram lançados no Pixel 3, para dispositivos mais antigos, incluindo o Pixel 2 e o Pixel original.
Nisso tudo, também entra em jogo o baixo preço de dispositivos, como o Pixel 3a, que custa US$ 400. Apesar de custar metade do preço do Pixel 3 padrão, ele oferece essencialmente a mesma qualidade de imagem de ponta. E, em um movimento surpreendente, a mais recente adição à câmera Pixel — um novo modo hiperlapse — foi anunciada pela primeira vez no Pixel 3a antes de chegar ao resto da família.
Infelizmente, quando perguntei sobre qual poderia ser o próximo recurso para a câmera Pixel, Levoy e Reynolds estavam um pouco cautelosos. Pessoalmente, por mais impressionante que seja a câmera do Pixel, ainda me surpreendo imaginando o que o Google poderia fazer se o próximo Pixel tivesse câmeras traseiras duplas — talvez uma com zoom óptico. Afinal, o Pixel 3 tem duas câmeras frontais para capturar fotos em ângulo padrão e ultra-wide. Não tem jeito, teremos de esperar para ver.