Próximo movimento Gemini do Google: um agente de IA que trabalha seus aplicativos para você –
- O futuro dos assistentes de IA do Google será trazido à vida pelo interface conversacional do chatbot Gemini Live.
- O Project Astra trará entendimento contextual ao Gemini Live por meio das câmeras do telefone.
- A integração do Gemini Live e do Project Astra estará disponível apenas para assinantes avançados do Gemini.
A visão do Google para o futuro dos assistentes de IA se tornará realidade através de seu interface de chatbot conversacional Gemini Live nos próximos meses. Isso foi revelado no final de seu evento Made by Google em Mountain View, Califórnia, na terça-feira, durante o qual a empresa também mostrou seus novos telefones Pixel 9 (incluindo o Pixel 9 Pro Fold), o Pixel Watch 3 e o Pixel Buds Pro 2. Rick Osterloh, vice-presidente sênior de plataformas e dispositivos do Google, disse que seu próximo assistente de IA, conhecido como Project Astra, trará compreensão contextual sobre onde estamos e o que estamos fazendo para o Gemini Live através das câmeras de nossos telefones. Enquanto o Project Astra soa como uma missão ultra-secreta da NASA, na verdade é um protótipo do laboratório de pesquisa em IA do Google, DeepMind. Ele estende o conceito de um assistente de IA de apenas um respondente de perguntas para o que é conhecido como um agente, que pode tomar ação em nosso nome, como verificar datas em um calendário ou enviar uma mensagem para um amigo. Tudo com a nossa permissão, é claro. A ideia é que, uma vez que tenhamos agentes de IA, não precisaremos abrir outros aplicativos – podemos simplesmente falar com o Project Astra (ou um agente semelhante) enquanto ele puxa as informações necessárias de outros lugares em nossos dispositivos. É uma grande oportunidade para o Google e seus concorrentes, à medida que a IA e a pesquisa se convergem e a maneira como acessamos informações muda. E, embora o Google possa ganhar o prêmio de nome mais futurista de ficção científica, a fidelidade do consumidor a um agente de IA ainda está muito em aberto.
Há apenas um pequeno problema com a integração futura: o Gemini Live, e portanto o Project Astra, estão disponíveis apenas para assinantes avançados do Gemini, que pagam $20 por mês pelo acesso ao mais recente modelo de IA do Google, Gemini 1.5 Pro. Se você se enquadra nesse grupo, em breve poderá compartilhar sua câmera durante uma conversa com o Gemini para fazer perguntas sobre o que está na sua frente, seja um problema de cálculo que você não sabe resolver ou móveis que está com dificuldade para montar. O Gemini Live também poderá puxar informações de aplicativos como Google Calendar e Gmail para ajudar a responder suas perguntas e compartilhar informações sem sair da interface do Gemini Live, disse Osterloh. Já vimos funcionalidades semelhantes da startup de IA OpenAI. Em sua Atualização de Primavera em maio, a OpenAI introduziu interações conversacionais com seu chatbot ChatGPT, bem como a capacidade de compartilhar fotos, vídeos e documentos para ajudar a informar essas conversas. A funcionalidade de voz, conhecida como Modo de Voz Avançado, foi lançada no início deste mês para um pequeno grupo de testadores. Tanto o Project Astra quanto o Gemini Live foram introduzidos no evento de desenvolvedores Google I/O, que também foi em maio. “Estamos evoluindo o Gemini para ser ainda mais ativo, para lidar com problemas complexos com raciocínio avançado, planejamento e memória, para que você possa pensar vários passos à frente, e o Gemini fará as coisas em seu nome, sob sua supervisão,” disse Osterloh, enquanto Made By Google chegava ao fim. “Essa é a promessa de um verdadeiro assistente de IA.”