O Google torna mais fácil registrar (e compartilhar) dados de RA em seu telefone

As ferramentas ARCore permitem criar mapas de profundidade sem lidar em telefones Android, e as ferramentas podem ser estendidas para mais aplicativos.

Na conferência de desenvolvedores de I / O virtual do Google este ano, as notícias sobre realidade aumentada não estão necessariamente no primeiro plano. Mas as atualizações da empresa para suas ferramentas ARCore no Android parecem estar adicionando algumas das mesmas coisas de varredura do mundo que o lidar da Apple faz – mas sem lidar. E, de maneiras que poderiam adicionar AR em vídeos pré-gravados.

De acordo com o anúncio do ARCore 1.24 do Google, as novas ferramentas podem ser usadas para compartilhar mapas de profundidade capturados por um telefone com o ARCore: em outras palavras, as localizações irregulares de objetos em uma sala em uma “malha 3D”. Com base em aplicativos de parceiros que o Google anunciou na postagem do blog, os aplicativos podem ser usados ​​para digitalização 3D, ou AR que coloca objetos, como móveis, de forma realista em uma sala cheia de coisas.

Na conferência de desenvolvedores de I / O virtual do Google este ano, as notícias sobre realidade aumentada não estão necessariamente no primeiro plano. Mas as atualizações da empresa para suas ferramentas ARCore no Android parecem estar adicionando algumas das mesmas coisas de varredura do mundo que o lidar da Apple faz – mas sem lidar. E, de maneiras que poderiam adicionar AR em vídeos pré-gravados.

De acordo com o anúncio do ARCore 1.24 do Google, as novas ferramentas podem ser usadas para compartilhar mapas de profundidade capturados por um telefone com o ARCore: em outras palavras, as localizações irregulares de objetos em uma sala em uma “malha 3D”. Com base em aplicativos de parceiros que o Google anunciou na postagem do blog, os aplicativos podem ser usados ​​para digitalização 3D, ou AR que coloca objetos, como móveis, de forma realista em uma sala cheia de coisas.

A parte mais interessante (e alucinante) vem com a capacidade do Google de registrar e compartilhar dados de mapas de profundidade, que a empresa imagina como uma forma de colocar RA em coisas como vídeos pré-gravados. Se alguém já tinha dados de profundidade para uma determinada sala, um vídeo dessa sala poderia acabar usando esses dados para colocar objetos no vídeo como efeitos, talvez para vídeo social (TikTok foi listado como um exemplo) ou em qualquer outro lugar.

Os aplicativos de parceiros que já estão experimentando explorar esses recursos, de acordo com o Google, são AR Doodads (um aplicativo que coloca em camadas coisas complexas de Rube Goldberg em uma sala), LifeAR (um aplicativo de videochamada que usa AR para projetar avatares) e VoxPlop ( que cria camadas de efeitos 3D em vídeos após o fato).

O Google anunciou pela primeira vez seus recursos de detecção de profundidade de AR há um ano, mas é o compartilhamento aberto de dados de profundidade entre aplicativos que é novo agora. “Essas atualizações aproveitam a profundidade do movimento, tornando-as disponíveis em centenas de milhões de dispositivos Android sem depender de sensores especializados”, explica a postagem do Google. “Embora sensores de profundidade, como sensores de tempo de vôo (ToF) não sejam necessários, tê-los melhorará ainda mais a qualidade de suas experiências.”

Enquanto a Apple atualmente usa sensores físicos (lidar) para malhas 3D de salas em AR, algumas empresas como a Niantic já estão fazendo coisas semelhantes sem lidar. O Google agora parece estar flexibilizando mais dessas ferramentas para o Android também.

#GoogleI/O2021 #AndroidUpdate #Realidadeaumentada(AR) #Google

John Doe

Curioso e apaixonado por tecnologia.

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *