
Apple: iOS 26 é anunciado com grande reformulação de design
Durante o WWDC25, realizado na tarde desta segunda-feira (9), a Apple anunciou o iOS 26, a próxima geração do sistema operacional dos iPhones. Assim como uma série de vazamentos já tinham antecipado, o software contou com uma grande reformulação visual e agora segue uma nova linguagem de design “Liquid Glass”.
Agora, o sistema apresenta elementos translúcidos na interface do sistema e também nos aplicativos nativos da plataforma. O novo conceito visual permite que os elementos transparentes da interface se adaptem dinamicamente às superfícies claras, escuras e coloridas.
A Apple espera que, com a atualização, a experiência dos usuários seja, no geral, um pouco mais intuitiva e agradável. É importante destacar também que a nova linguagem de design é universal e está sendo implementada em todos os sistemas da desenvolvidos pela empresa.
Durante a apresentação, Craig Federighi, vice-presidente sênior de engenharia de software da Apple, fez um breve resumo sobre as funcionalidades do Apple Intelligence que a empresa entregou ao longo do último ano. Ele mencionou o atraso da versão reformulada da assistente Siri, dizendo que a “maçã” precisará de mais tempo para entregar o recurso, reforçando assim o que foi dito pelo CEO Tim Cook mais cedo neste ano.
iOS 26
Entre as novidades anunciadas pela empresa no novo iOS 26 está a possibilidade de criação de efeitos 3D em imagens na tela de bloqueio. De acordo com a empresa, um motor neural presente nos iPhones auxilia a execução da funcionalidade. Ainda não está claro como o recursos funcionarão em aparelhos mais antigos.
Os primeiros vazamentos sobre o novo design da Apple ainda deram conta de que os aplicativos nativos do iOS sofreriam mudanças de design. Aliás, a câmera apresenta uma interface totalmente reformulada, com uma “cara” mais limpa e minimalista, além de exibir funcionalidades e controles de de forma melhor estruturada.
Também receberam novo design os aplicativo de Fotos, Safari e FaceTime, que agora também oferece uma navegação mais intuitiva. A reformulação visual também se estendeu aos outros aplicativos de comunicação além do app de videochamadas, como Telefone e Mensagens.
A empresa também anunciou novidades no Genmoji, que agora é capaz de criar novos emoticons sobrepondo dois emojis, e o Image Playground, que permite a geração de fotos com o auxílio do ChatGPT, mais um recurso fruto da parceria da Apple com a OpenAI.
O iOS 26 também permitirá a tradução simultânea de diálogos nos aplicativos de Mensagens, com interpretação automática. No Facetime, terá exibição de legendas geradas por IA em tempo real. Já no Telefone, terá traduções ao vivo em voz alta durante conversas entre falantes de diferentes idiomas.
O Apple Music, por sua vez, recebeu reprodução de músicas, recursos para ajudar na pronúncia das letras, Auto Mix — que permite a transição de músicas no estilo DJ — , e a fixação de artistas e álbuns favoritos na tela inicial.
O aplicativo Apple Maps agora é capaz de analisar a rotina diária dos usuários. Assim, sugere as melhores rotas para destinos frequentes, como trabalho, universidade, por exemplo. O aplicativo também lembra os locais visitados anteriormente e permitir ações como compartilhamento com amigos.
Novo app de Games
A empresa também apresentou oficialmente seu novo aplicativo de Games — também antecipado nos vazamentos. A aplicação vai compilar atualizações de jogos que os usuários estão jogando. Assim, oferecerá recomendações de games e uma lista de todos os jogos já baixados no App Store. O novo software dedicado para jogos eletrônicos também mostrará o que os amigos estão jogando além de comparações de pontuações e conquistas.
Antes de finalizar a apresentação do iOS 26, Federighi anunciou que o Visual Intelligence, além de “enxergar” o que é visualizado pela câmera do iPhone, a fim de identificar elementos na tela e oferecer informações adicionais sobre qualquer conteúdo de interesse do usuário.
Na prática, a função é muito semelhante ao “Circle to Search”, do Google, introduzido no início do ano passado. O recurso é acionado sempre que o usuário utilizar o mecanismo de captura de tela para realizar pesquisas na web, perguntas ao ChatGPT ou adicionar eventos ao Calendário, por exemplo.
Por fim, reveja a apresentação da Apple desta segunda-feira (9):