Havia apenas uma funcionalidade de destaque nos Pixel 3: a câmera fantástica (de uma só lente), que melhorou com o tempo e chegou nos Pixel 3a – os melhores intermediários do mercado. Agora, o Google tem novidades e as implementou no Pixel 4 e no Pixel 4 XL – será que eles conseguiram manter sua linha de aparelhos na frente da concorrência em termos de qualidade de foto?

Os novos celulares agora possuem duas lentes, combinando uma câmera telefoto de 16 megapixels, f/2,4 e com zoom óptico de 2x com um sensor de 12,2 megapixels e abertura f/1.7. Diferente da maioria dos smartphones de 2019, não há nenhuma lente grande-angular. “Embora uma grande-angular possa ser divertida, achamos que a telefoto é mais importante”, disse Marc Levoy, do Google Research, durante o evento de lançamento dos aparelhos.



O Pixel 4, assim como seus antecessores, se vale de “fotografia computacional” – um termo que Levoy inventou durante um curso de Stanford e que significa “fazer menos no circuito fechado e mais com o código”, segundo suas próprias palavras.

Falaram bastante sobre recursos de câmera no evento Made by Google. Imagem: Google

Basicamente, estamos falando de tirar várias fotografias ao mesmo tempo e combiná-las para obter um resultado final melhor – as lentes dos smartphones e as velocidades de processamento evoluíram ao ponto em que isso pode acontecer num instante, sem que possamos perceber que algo está acontecendo após apertar o botão do obturador.

E isso significa que enquanto um “clique” ajustar a exposição para capturar as partes mais escuras de uma cena, outro “clique” pode fazer o mesmo para dar riqueza de detalhes nas áreas mais claras. Aí só juntar as imagens para que nenhum dos detalhes mais finos sejam perdidos. É uma técnica que você verá na maioria dos celulares topo de linha, incluindo os da Samsung e da Apple.

O conjunto de câmeras Pixel 4 também inclui um sensor hiperespectral, listado como um “sensor espectral + de cintilação” na página da Google Store. O Google não falou muito sobre o que esse componente faz, mas assumimos a partir da capacidade das imagens hiperespectrais de detectar vários canais de luz, que os dados que esse sensor captura alimenta os algoritmos do Pixel para melhorar ainda mais o funcionamento dos novos modos de foto.

As novidades

Todo Pixel tem algo que o Google chama de HDR+, onde uma sequência de até nove fotos são capturadas sempre que você pressiona o botão do obturador e, em seguida, a média é calculada para reduzir o ruído da sombra. O primeiro recurso novo do Pixel 4 é o Live HDR+, onde você verá esse efeito aplicado ao enquadrar uma foto – você não precisará adivinhar o resultado final.

O Pixel 4 também estreia controles de exposição duplos. São controles que permitem ajustar o brilho (e a captação de exposição) e as sombras (o mapeamento de tons) antes de tirar uma foto (você pode conhecer esse tipo de ajuste se costuma mexer no Photoshop). Se você, por exemplo, quiser uma foto com uma silhueta dramática em vez de um equilíbrio que o HDR+ proporciona, esses controles de exposição dupla torna isso possível.

Quando se trata de zoom, o Google diz que a teleobjetiva 2x do Pixel 4, combinada com a sua tecnologia Super Res Zoom que funciona em ambas as lentes, oferece um zoom híbrido superior aos demais smartphones. O recurso Super Res Zoom, que estreou no ano passado, usa as pequenas diferenças entre cada uma das nove imagens em uma sequência para preencher os detalhes enquanto você aproxima uma cena. A tecnologia faz várias suposições, mas muito inteligentes.

O HDR+ agora funciona direto na tela. Imagem: Google

A tecnologia, segundo o Google, funciona melhor do que fazer um recorte depois que a foto foi tirada – se você aplicar o zoom antes de tirar a foto, os resultados devem ser melhores do que se cortar depois, por causa dos cálculos que são aplicados enquanto você aproxima a imagem.

O Pixel 4 também está mais inteligente quando se trata de balanceamento automático de branco, um problema da fotografia que é muito complicado de resolver – basicamente, trata-se de garantir que o branco pareça branco independentemente das condições de iluminação (se você estiver dentro de casa, por exemplo, muitas vezes você terá uma tonalidade mais alaranjada, por exemplo).

Mais uma vez, o recurso se baseia no treinamento dos algoritmos do Google para reconhecer quando o branco deve ser branco: “Desde o Pixel 3, temos usado o balanceamento de branco baseado em aprendizado de máquina no modo noturno”, disse Levoy no palco. “No Pixel 4 estamos usando isso em todos os modos de foto, então você terá cores mais reais, especialmente em iluminações complicadas”.

Há algumas melhorias para o modo retrato, cujos cálculos são agora aplicados no modo RAW, disse Levoy à CNET. A adição da lente extra da câmera significa mais informações para os algoritmos de autoaprendizagem do Google, o que deve resultar em uma medição mais precisa das profundidades em distâncias maiores (cada lente da câmera captura a foto em um ângulo ligeiramente diferente).

Controles de exposição dupla no Pixel 4. Imagem: Google

Por fim, o impressionante modo noturno está prestes a ficar ainda melhor no Pixel 4 e Pixel 4 XL.

Você já deve ter visto as fotos de astronomia tiradas com os celulares, que são possíveis graças a exposições mais longas e sequências de imagens. Especificamente, essas imagens são combinações de 15 exposições de até 16 segundos cada, ativados no modo astrofotografia.

Faça as contas e isso significa que o Pixel 4 precisa ficar parado por quatro minutos, mas os resultados parecem valer a pena. À medida que as estrelas se movem e as árvores balançam durante esses quatro minutos, os algoritmos Pixel 4 alinham e fundem as imagens que captura para criar um resultado final nítido e sem ruído. Se houver pessoas no quadro, você terá que dizer a elas para ficarem muito quietas.

Tal como aconteceu com o Pixel 3, as capacidades de fotografia do Pixel 4 devem melhorar com o tempo, pois grande parte do processo depende de software. Levoy mostrou uma atualização futura que permitiria que uma foto equilibrasse uma lua brilhante e um primeiro plano escuro – uma diferença de brilho de cerca de 1.500.000 vezes, segundo Levoy, ou 19 f-stops.

A competição

Pela primeira vez, o iPhone tem três câmeras. Foto: Raul Marrero/Gizmodo

O Google não é a única empresa trabalhando com essa abordagem computacional para a fotografia. Seus principais rivais, Samsung e Apple, também têm câmeras multi-lente que combinam várias fotos em uma para produzir resultados melhores – o número e os tipos de fotos a cada sequência podem variar, bem como os algoritmos de processamento, mas a ideia é a mesma.

Como seria de esperar, as fabricantes guardam os segredos algorítmicos a sete chaves, mas o objetivo é sempre produzir o maior número de detalhes e a menor quantidade de ruído em uma foto, bem como reproduzir cores mais precisas – e fazer tudo isso não dependa da iluminação do ambiente.

O Deep Fusion da Apple, uma das novidades da câmera do iPhone 11, que chegará com o iOS 13.2, usa o poder de processamento neural do chip A13 Bionic para otimizar os detalhes e o reduzir o ruído a partir de nove exposições separadas, o mesmo número que o Google usa. (Foi ao descrever o Deep Fusion que o executivo da Apple, Phil Schiller, usou o termo “ciência maluca”, reprovado por Levoy na apresentação do Google.)

Alguns smartphones da Samsung fazem um monte de processamento antes de você pressionar o botão para tirar uma foto. Imagem: Samsung

Os iPhone 11, iPhone 11 Pro e iPhone 11 Pro Max têm a câmera principal grande-angular de 12 megapixels e abertura f/1.8 e uma ultra-grande-angular de 12MP e abertura f/2.4 – que o Pixel 4 não tem.

Por fim, os modelos Pro e Pro Max contam com uma teleobjetiva de 12 megapixels e abertura f/2.0 cim zoom óptico de 2x.

As melhores câmeras em um celular da Samsung, por sua vez, estão no Galaxy Note 10+. São quatro lentes: uma ultra-grande-angular de 16MP e abertura f/2.2; uma grande-angular de 12MP e abertura f/1.5-2.4; uma teleobjetiva de 12MP com abertura f/2.1 (com zoom óptico de 2x) e outra “Câmera DepthVision” para medir distâncias com precisão e fazer a leitura de profundidade de campo.

Os celulares da Samsung geralmente usam mais processamento antes mesmo de a foto ser tirada, ao contrário das câmeras da Apple ou do Google. E nesse ponto que a lente com abertura ajustável é útil: as condições de iluminação são analisadas e a exposição é ajustada enquanto você enquadra a foto.

Ao capturar mais informações com antecedência (algo que a Samsung vem fazendo há anos), é necessário menos pós-processamento.

Ainda não sabemos como o Pixel 4 vai se comportar no dia a dia, mas sabemos que os novos iPhone e os Galaxy mais caros alcançaram o Pixel durante o ano. Veremos se o Pixel 4 conseguirá tomar a dianteira mais uma vez.

Mais do que nunca, porém, julgar a qualidade das câmeras de um smartphone pouco tem a ver com as especificações no papel. É preciso esperar para ver os resultados finais depois de todo esses truques e processamentos.