Dentro do laboratório secreto onde o som da Apple nasce

"Todos os produtos Apple com alto-falante ou microfone passam por aqui", explica o guia que nos acompanha. Estamos em Cupertino, não na famosa nave espacial, mas em um prédio baixo e anônimo dedicado à análise, medição e design de som. Um lugar acessível a poucos, do qual existem apenas algumas imagens oficiais, "uma combinação única de física, engenharia e percepção humana", como descreveu Gary Geaves, vice-presidente de Acústica da Apple. Neste laboratório, os detalhes de cada experiência acústica são avaliados: do clique de um botão aos efeitos especiais de um filme Dolby Atmos, das notificações do Apple Watch aos alto-falantes do MacBook. E o Laboratório de Som da Apple também foi usado para alimentar os AirPods Pro, a terceira geração que Tim Cook acaba de revelar, com tradução simultânea e monitor de frequência cardíaca.

Logo na entrada, é impossível não notar dois grandes alto-falantes. São os Acoustat Monitor 3s, que pertenceram a Steve Jobs, que não era apenas um visionário da tecnologia digital, mas também um apaixonado por áudio. Uma famosa foto de Diana Walker para a TIME em 1982 o mostra em sua casa em Woodside, sentado no chão de um cômodo quase vazio, com uma luminária Tiffany e seu sistema de som: um toca-discos Linn Sondek LP12, um amplificador Spectral Stasis-1 de 200 watts e os Acoustat Monitor 3s que vemos hoje. Doados à equipe do Sound Lab, eles simbolizam uma continuidade que liga a paixão pessoal do fundador à pesquisa diária de quem trabalha em Cupertino. Ao longo dos anos, Jobs supervisionou pessoalmente acessórios de áudio como os SoundSticks, criados em 2000 para a Harman Kardon com Jony Ive; até mesmo experimentos menos bem-sucedidos, como o iPod Hi-Fi de 2006, revelam como a qualidade do som era parte integrante de sua visão da tecnologia. Por outro lado, a história da Apple está entrelaçada com a música desde o início, começando pelo seu nome, que é o mesmo da gravadora dos Beatles (e que, portanto, foi disputado por muito tempo com a Apple Corp).

A primeira seção do laboratório é dedicada à saúde, um tema que se tornou central com a evolução dos AirPods , e ainda mais com a nova versão recém-lançada. A Apple transformou os fones de ouvido mais populares do mundo em instrumentos médicos de precisão, capazes de realizar verdadeiros testes clínicos de audição. Três cabines de audiometria, semelhantes às encontradas em consultórios de otorrinolaringologia, estão instaladas no laboratório. Aqui, com a ajuda de fonoaudiólogos e equipamentos de referência, milhares de testes audiométricos foram realizados, permitindo a calibração dos recursos introduzidos com o iOS.
O teste disponível hoje nos AirPods Pro permite avaliar o limiar auditivo de um usuário em cinco minutos. Graças ao cancelamento de ruído ativo, os fones de ouvido simulam um ambiente perfeitamente silencioso e reproduzem sons em diferentes frequências e intensidades. O usuário interage por meio do iPhone, que gera um audiograma, um gráfico que descreve seu nível de audição em cada frequência. Os resultados, armazenados com segurança no aplicativo Saúde, podem ser compartilhados com um médico, tornando-se um aliado concreto na prevenção da perda auditiva.
Recursos como o Conversation Boost, que amplifica as vozes de outras pessoas, e o Loud Noise Reduction, que protege a audição de volume excessivo, também foram testados no laboratório da Apple.

O Fantasia Lab é uma sala circular revestida com material que absorve o som, abrigando cinquenta alto-falantes Genelec (que também foram vistos em algumas fotos de Jobs em seu escritório), dispostos em uma esfera. No centro, há uma cadeira, de onde você pode mergulhar em qualquer paisagem sonora: um avião decolando, um café em Manhattan, um shopping em Tóquio, uma estação de metrô em Londres. Cada detalhe é recriado com precisão, e centenas de cenários diferentes podem ser ativados com o toque de um botão.
Nesse ambiente, recursos como o Modo Transparência, que permite a passagem natural de sons externos, e o teste de fala em ruído, em que uma voz progressivamente atenuada deve ser reconhecida em meio a um zumbido, são desenvolvidos e aprimorados. É aqui que o comportamento dos AirPods é otimizado, diminuindo automaticamente o volume da música quando o usuário começa a falar ou reduzindo seletivamente ruídos altos, preservando as vozes.

Mas a precisão dos instrumentos não basta: o ouvido humano também é essencial. É por isso que a Apple criou uma área apelidada de "corredor audiófilo". As salas, batizadas em homenagem a estúdios de gravação famosos, abrigam engenheiros de áudio e designers de som. Ali, fones de ouvido e alto-falantes de computador são afinados como instrumentos musicais, avaliados não apenas por espectrogramas e análise numérica, mas também pela audição crítica de jazz, música clássica, rock e música eletrônica.
Um engenheiro de áudio nos mostra uma sala com Dolby Atmos 9.1.4, com nove caixas de som de parede, quatro de teto e um subwoofer. Ao lado do gramofone dourado vencedor de 2022, há um histórico microfone Neumann U87 de grande diafragma, além de diversos equipamentos de áudio que custam milhares de dólares cada. "Mas o estúdio não é portátil: com a Gravação de Áudio de Estúdio nos AirPods, estamos trazendo excelente qualidade de som para nossos dispositivos existentes, o que é muito útil quando você está em movimento no mundo real", observam os engenheiros da Apple. A gravação de alta qualidade estará disponível nos AirPods 4, AirPods 4 com Cancelamento Ativo de Ruído e AirPods Pro 2, com uma atualização de software chegando com o iOS 26. Ela permite gravar conteúdo com qualidade de som superior mesmo em ambientes barulhentos, isolando sua voz de perturbações, aproveitando o chip H2 dos fones de ouvido, os microfones com formação de feixe e o áudio computacional no iPhone. Projetado principalmente para criadores, é um recurso que será útil para todos, já que está disponível em vários aplicativos.
Um oceano de silêncioPassamos para o coração do laboratório, a câmara anecoica, um dos espaços mais silenciosos do mundo. Trata-se de uma estrutura suspensa por molas, isolada do restante do edifício, com paredes revestidas com cunhas de absorção sonora que eliminam 99,99% das ondas sonoras. Não há piso: caminha-se sobre uma malha metálica que absorve o som até mesmo para baixo. Lá dentro, o silêncio chega a -2 dB: nesse vácuo acústico, a voz desaparece imediatamente após ser pronunciada, e até mesmo os sons internos do corpo, como os batimentos cardíacos ou a respiração, tornam-se audíveis.
Um manequim com microfones nas orelhas gira lentamente enquanto um braço mecânico transmite sons de centenas de direções. "Ter os alto-falantes e os microfones na mesma câmara anecoica nos permitiu usar esse espaço para muitas aplicações", explicam eles da Apple. "Trouxemos milhares de pessoas para esta sala para realizar medições individuais."
Os dados coletados são organizados em diagramas tridimensionais que descrevem como o ouvido humano percebe o som no espaço. Esses dados foram usados, por exemplo, para criar o HomePod, mas também para o sistema de áudio espacial personalizado, que usa a câmera TrueDepth do iPhone para adaptar o som ao formato das orelhas de cada usuário.
As patentesHá também uma patente: ela se chama “sistema de áudio espacial personalizado baseado em HRTF” e descreve um método para calcular o formato da orelha do usuário em tempo real usando imagens 3D ou sensores ambientais, para modelar precisamente o som percebido em três dimensões.
Outra patente diz respeito à otimização dinâmica do som com base no ambiente: por meio de seus microfones, o dispositivo detecta a acústica do espaço ao redor e adapta a equalização sonora de acordo. Essa tecnologia foi implementada no HomePod , onde diferentes posicionamentos (próximo a uma parede, em uma superfície reflexiva, em um canto) resultam em diferentes distribuições sonoras.
O Modo Transparência e o Cancelamento Adaptativo de Ruído aproveitam a capacidade dos dispositivos de reconhecer eventos sonoros externos relevantes (uma sirene, uma voz humana) para reduzir seletivamente a atenuação do ruído. Esse recurso é possível graças à análise contextual em tempo real do ambiente acústico, com base em redes neurais treinadas em milhares de situações simuladas em laboratório.
A Apple também desenvolveu algoritmos preditivos capazes de antecipar as mudanças de volume desejadas pelo usuário com base no contexto (por exemplo, diminuir o som em ambientes silenciosos ou aumentar os graves em ambientes barulhentos). Esse tipo de inteligência ambiental nasce de uma estreita integração de hardware, software e análise acústica realizada em Cupertino. "Nenhum detalhe em nossos produtos é tão pequeno que não mereçamos trabalhar nele até que esteja perfeito. E todo o prédio é dedicado a isso", comentam os engenheiros do Sound Lab.
La Repubblica