Cientistas do MIT descobriram que as pequenas vibrações em objetos comuns – como um saco de batata frita, um copo d’água ou até mesmo uma planta – podem ser reconstituídas como som. Tudo o que precisamos é de uma câmera e de um algoritmo.
Ondas sonoras são apenas perturbações no ar. Quando o som atinge algo leve e delicado como um saco de batata frita, o objeto vibra levemente. Mas, claro, as plantas da sua casa (e seus sacos de batata frita) não tremem visivelmente quando você está conversando, por exemplo.
Para capturar esses movimentos pequenos – de até um décimo de micrômetro – a equipe monitorou a cor de pixels individuais ao longo do tempo usando uma câmera. Um comunicado à imprensa do MIT explica como funciona:
Suponha, por exemplo, que uma imagem tem uma fronteira clara entre duas regiões: tudo em um dos lados é azul; tudo no outro lado é vermelho. Mas no limite em si, o sensor da câmera recebe a luz vermelha e azul, e então faz uma média para gerar a cor roxa. Se, ao longo das sucessivas imagens do vídeo, a região azul invadir a região vermelha – mesmo que seja na largura de um pixel – a cor roxa ficará ligeiramente mais azul.
A equipe começou usando câmeras de alta velocidade – que gravam entre 2.000 e 6.000 quadros por segundo – e um vidro à prova de som. Neste caso, a câmera grava mais rápido do que a frequência do som audível. Como você pode ouvir no vídeo acima, é possível entender a fala recuperada das vibrações de uma planta.
E a parte mais legal é que a equipe conseguiu extrair o som de câmeras comuns, que gravam a 60 quadros por segundo, modificando um pouco a técnica. O sensor da câmera captura imagens por varredura na horizontal, de modo que certas partes da imagem são gravados um pouco depois das outras.
Por causa desse efeito “rolling shutter”, a equipe consegue reconstituir áudio até mesmo de um vídeo gravado a uma taxa mais lenta do que a frequência do som. O som fica definitivamente pior do que com uma câmera de alta velocidade, mas ainda é possível identificar o número de pessoas falando.
Os pesquisadores vão apresentar este trabalho na conferência Siggraph de computação gráfica este mês. [MIT]
Crédito da imagem: Shutterstock/Yalcin Sonat