Como VR e AR da Meta podem se transformar por meio da IA

Aqui está o texto em português formatado em blo

  • O Quest 3 tem funções de realidade mista similares ao Apple Vision Pro, se sentindo às vezes como óculos de RA em forma de VR.
  • Os óculos, no próximo ano, começarão a ter IA a bordo que reconhecerá objetos e traduzirá textos, agindo quase como versões sem display do Google Glass ou algum tipo de protótipo inicial de óculos de RA.
  • Ambos deverão ser capazes de executar formas de IA conversacional do Google e possivelmente muito mais, graças à última geração mais poderosa de chips da Qualcomm.
  • À medida que todos na área da tecnologia anunciam IA em tudo e a Apple se prepara para seu primeiro headset de RV/RA para o próximo ano, as notícias mais recentes da Meta em sua conferência para desenvolvedores Connect estão no meio termo de ambos os lados de uma vez. De um lado, os produtos anunciados foram diretos: um novo Quest 3 com gráficos aprimorados e óculos Ray-Ban com câmera e áudio habilitados chegando mais tarde neste mês. A Meta também anunciou uma série de chatbots com personalidades guiadas por IA e uma ferramenta de criação de imagens e adesivos generativos chamada Emu. Eu tenho acompanhado os movimentos da Meta em RV e RA desde antes da Oculus ser adquirida pelo Facebook, e até visitei os laboratórios de pesquisa da Meta no ano passado à procura de sinais sobre para onde o futuro está indo. Mas no final de 2023, parece mais do que nunca que os produtos que viemos a reconhecer como “RV” e “óculos inteligentes” estão se transformando.

    Para obter uma melhor ideia de como a Meta combinará RV, RA e IA, conversei com o CTO e chefe de produto da Meta, Andrew Bosworth, para perguntar sobre o futuro. O que há sobre o dispositivo esperado da Samsung? Onde está o rastreamento ocular, que estava no Quest Pro mas é uma função ausente no Quest 3? E o que há sobre Beat Saber em realidade mista? A conversação a seguir foi levemente editada para clareza e comprimento.

    Bosworth: Se você desenhar um diagrama de caixa e setas da arquitetura que temos visualizado para RA por muito tempo, uma das caixas é tipo, IA … ? (risos) É tão raro nesta indústria que uma tecnologia surge que resolve o seu problema sem você ativamente persegui-la. Mas foi basicamente o que aconteceu [com IA]. Se você tivesse me perguntado e ao Michael Abrash, chefe cientista da Meta Reality Labs, há dois anos, mesmo talvez no ano passado, qual seria o maior risco para o RA funcionar… quão difíceis são esses displays, quão difícil é o rendering, seria a IA. Suas expectativas como ser humano é ter uma interface que pode ver o que você pode ver, ouvir onde você pode ouvir, ter senso comum é alto. E nossa capacidade de fornecer senso comum é baixa. Esse é o problema. Nos sentimos ótimos sobre [a nova IA da Meta]; realmente resolveu o problema para nós. Era um que achávamos que teríamos mais tempo para resolver. A IA sempre fez parte essencial de nossa visão. Só que agora realmente podemos colocá-la em prática.

    Os óculos Ray-Ban do próximo ano darão os primeiros passos para tornar essa visão realidade? Bosworth: No momento, os óculos, do ponto de vista de poder, você tem que ativá-los. Ao longo do tempo, chegar ao ponto em que temos sensores que consomem pouca energia o suficiente para detectar um evento que aciona a consciência que aciona a IA, esse é realmente o sonho em que estamos trabalhando. E estamos trabalhando nesses sensores, estamos trabalhando na detecção de eventos. Só não tínhamos uma grande solução para o que anteriormente chamávamos de ‘condutor’, que é a coisa que decide… é uma boa hora? Você e eu estamos conversando cara a cara, então provavelmente devemos limpar as interfaces [em um par de óculos de RA futuros]. Se minha esposa me enviar uma mensagem sobre compras, mantenha isso. Mas se você me enviar que as crianças estão doentes e precisam da minha ajuda imediatamente, popupe isso. Como fazer isso? Aprendemos muito indo da geração 1 para a geração 2, indo para esses óculos Meta Ray-Ban. Vemos progresso em duas frentes: no hardware, onde iterativamente ficamos melhores em fazer coisas tanto melhores quanto mais baratas. E estamos resolvendo um dos principais problemas de software que tínhamos com IA.

    A Meta AI é mais um modelo de agente. Então acho que o futuro da IA provavelmente é uma divisão entre agentes – essas coisas externas para as quais você vai, elas têm seu próprio tipo de atmosfera, você vai a elas e se engaja – versus o que vou chamar de assistente pessoal. Os óculos de RA vão ver tudo o que vejo; eles vão ver todas as mensagens privadas que envio. Eles vão ver todos os sites que visito. E eu quero que eles façam isso porque isso os ajudará a me ajudar, e isso será ótimo. Eles precisam ser privados. Como, realmente privados. Você sabe, realmente discretos. Eles também poderiam, por meio de plug-ins, agendar meus compromissos? Claro. Eles também podem responder às mensagens por mim? Claro, eu posso confiar neles. Mas eles precisam ser meus. Meu agente pessoal e privado. E esse não é o assistente da Meta AI. A Meta AI é seu agente geral. Um agente com o qual posso vir conversar – você sabe, coisas gerais. É com o que vamos começar aqui. O que acho que acabará povoando a RA é uma versão muito pessoal disso. Que tem, esperançosamente, uma memória estendida, tem a capacidade de aprender e me conhecer… e um incrível controle de discrição.

    This website uses cookies.