O recente lançamento dos óculos avançados da Meta com inteligência artificial, os Meta Ray-Ban Display, enfrentou dificuldades técnicas significativas durante uma apresentação principal muito aguardada, levantando questões sobre a prontidão do dispositivo de US$ 799 para adoção generalizada pelos consumidores. Embora apresentados como um passo transformador em “IA agentiva” capaz de agir proativamente em nome dos usuários, a demonstração ao vivo sofreu várias falhas, minando sua estreia polida diante de um público considerável.
O evento, realizado na sede da Meta no Vale do Silício, teve como objetivo mostrar o culminar de anos de desenvolvimento para o que foi internamente referido como óculos “Hypernova”. O segmento inicial visava destacar o feedback visual em tempo real e as capacidades de comunicação por texto do dispositivo, controlados por meio de movimentos sutis do pulso. No entanto, esta parte da demonstração rapidamente se transformou em uma série de resultados não intencionais, impactando a sofisticação percebida da tecnologia.
Um segmento subsequente apresentou uma tentativa colaborativa de utilizar o recurso LiveAI, projetado para fornecer orientação passo a passo para tarefas como cozinhar. Ao ser encarregado de auxiliar um criador culinário com uma receita, a IA exibiu comportamento errático, pulando etapas e falhando em responder a comandos básicos. Esse desempenho inesperado gerou comentários de participantes, incluindo Lance Ulanoff, da Tech Radar, que observou a aparente confusão da IA e a operação inconsistente durante a demonstração ao vivo.
Os desafios encontrados ressaltam uma consideração mais ampla da indústria em relação à execução de demonstrações tecnológicas ao vivo. Como observou Ulanoff, grandes empresas de tecnologia frequentemente optam por vídeos pré-gravados para garantir uma apresentação controlada, citando a natureza imprevisível de eventos ao vivo, especialmente quando milhares de dispositivos e usuários estão conectados à mesma rede. Essa abordagem contrasta com a estratégia de demonstração ao vivo mais direta da Meta, que, apesar de seus riscos, visa transmitir imediatismo e autenticidade.
Mais problemas técnicos surgiram durante uma demonstração da funcionalidade Neural Band. Embora Mark Zuckerberg tenha trocado mensagens de texto com sucesso com o CTO da Meta, Andrew Bosworth, uma tentativa de iniciar uma chamada de vídeo do WhatsApp através dos óculos não foi bem-sucedida. A interação subsequente de Zuckerberg com a interface do dispositivo indicou dificuldade em executar o comando, culminando com Bosworth se juntando a ele no palco, atribuindo o problema à conectividade de rede e provocando risadas da audiência.
Apesar dessas interrupções no palco, Zuckerberg sustentou que os óculos representam um avanço significativo na tecnologia de IA pessoal. Ele reiterou a visão de longo prazo da Meta de assistentes de IA vestíveis que identificam e atendem proativamente às necessidades dos usuários com intervenção mínima. Embora reconhecendo os desafios, observadores como Ulanoff creditaram a Zuckerberg sua postura calma e seus esforços para mitigar a situação com humor, ressaltando os riscos inerentes associados a apresentações de produtos ao vivo.