Corra com o Sony Gran Turismo AI que venceu os melhores jogadores humanos –

O GT Sophy, treinado em 20 consoles PS5 rodando por duas semanas seguidas, chega na segunda-feira.

Em algumas horas, a Sony permitirá que todos os jogadores do Gran Turismo enfrentem o GT Sophy, o oponente de IA que derrotou os melhores jogadores do videogame de corrida de carros do mundo.

Um período de teste do que a Sony chama de modo GT Sophy Race Together começa às 22h. PT na segunda-feira (01:00 ET de terça-feira) com uma atualização gratuita para Gran Turismo 7, a versão mais recente do venerável jogo de PlayStation. Ele permitirá que você corra contra um quarteto de oponentes do GT Sophy AI em quatro das dezenas de percursos do GT7 até o final de março.

Resumindo, a Sony está elevando o nível de seu oponente de computador, um movimento que deve dar aos jogadores humanos um jogo muito melhor e mais desafiador, disse Peter Wurman, diretor da Sony AI America e líder do projeto GT Sophy. As quatro pistas abrangem uma variedade de níveis de dificuldade, e você pode jogar um contra um contra o GT Sophy em carros idênticos para o desafio principal.

“Esperamos que isso dê a eles uma experiência de corrida muito mais realista, para que tenham competidores que pareçam mais humanos em todos os níveis de habilidade”, disse Wurman. O oponente de computador padrão do GT7 atinge o máximo em habilidades de nível médio, mas o GT Sophy vai além sem exigir que os jogadores entrem no “faroeste” do jogo online para encontrar bons oponentes humanos, disse ele.

Embora seja apenas um teste de um mês, é um grande negócio no mundo dos jogos – e talvez além. A Sony espera adicionar oponentes de IA não apenas ao Gran Turismo, mas a outros videogames. E a mesma razão pela qual as habilidades de IA funcionam em um videogame de corrida de carros pode significar que você encontrará a tecnologia na vida real.

“É um exemplo de como algumas dessas tecnologias podem ajudar a capacitar os humanos”, disse Lareina Yee, sócia sênior da consultoria McKinsey. Então, talvez operadores de empilhadeiras ou fazendeiros aprendam com os bots. “Essas tecnologias podem ajudar a acelerar o treinamento, especialmente onde habilidades e conhecimentos específicos são necessários”, disse ela.

A IA está em alta no momento, com o ChatGPT da OpenAI mostrando um novo nível de compreensão e criatividade, a Microsoft incorporando a tecnologia chatbot em seu mecanismo de busca Bing e o Google preparando seu próprio concorrente, Bard. Eles empregam uma tecnologia chamada modelo de linguagem ampla – que produz gafes embaraçosas e utilidade impressionante -, mas a IA da Sony usa uma abordagem diferente chamada aprendizado por reforço.

Técnicas de IA diferentes do ChatGPT

O aprendizado por reforço, como a maioria das técnicas de IA hoje, usa uma base chamada rede neural inspirada no cérebro humano. Uma fase de treinamento “ensina” a rede neural a reconhecer padrões e, em seguida, uma fase de inferência usa essa rede para tomar decisões, como a velocidade com que um carro deve fazer uma curva.

A Sony treinou seu GT Sophy colocando seus AIs uns contra os outros em 20 PlayStations rodando o tempo todo, disse Wurman. Os bots tinham controle sobre aceleração, frenagem e direção, assim como um jogador humano. Em vez de usar o controlador de mão ou o acessório do volante que os pilotos humanos seguram, os bots usaram uma interface de computador que alimentava dados de controle no jogo GT7 10 vezes por segundo.

O aprendizado por reforço distribuía recompensas a um bot por fazer a coisa certa, como completar uma volta ou ultrapassar um oponente, disse Wurman. As punições desencorajam outras ações, como bater em paredes ou colidir com outros carros.

Essa técnica de aprendizado por reforço é o que permitiu que a DeepMind, subsidiária do Google, ganhasse todos os 57 videogames clássicos da Atari e, posteriormente, superasse os humanos no mais desafiador jogo de estratégia em tempo real StarCraft II.

Não apenas acadêmico

Os pesquisadores da DeepMind, que também construíram IAs que derrotam os humanos no jogo de Go e enfrentaram o famoso problema de computação difícil de prever como sequências de moléculas se dobram em diferentes proteínas, produziram pesquisas acadêmicas impressionantes. Mas a tecnologia GT Sophy não apenas conquistou um lugar de prestígio na capa da revista científica Nature em 2022, mas também apareceu no console de jogos da sua sala de estar.

Para a Sony, o aprendizado por reforço significa que o GT Sophy pode aprender as sutilezas da física do jogo, como a aerodinâmica muda ao seguir outro carro ou liderar o pelotão, disse Michael Spranger, diretor de operações da Sony AI e autor de vários trabalhos acadêmicos.

“Por que é interessante como um avanço da IA, existem camadas de complexidade no topo. Você precisa se envolver com outros pilotos e, portanto, aprender a ultrapassar”, disse ele. “Se você está atrás de um carro, sua velocidade máxima aumenta, mas também leva mais tempo para frear.”

Mas ainda há um nível mais alto: as regras não escritas das corridas. “É uma coisa vagamente definida, mas você será punido se não aderir à etiqueta”, disse Spanger. Os jogadores humanos ficariam irritados se o GT Sophy violasse as normas que evoluíram no mundo real e simplesmente evitassem jogar contra o GT Sophy.

Após um único dia de treinamento, os bots GT Sophy foram melhores que 95% dos jogadores humanos. Com mais 10 ou 12 dias de treinamento, os bots poderiam derrotar os melhores jogadores humanos de GT7.

O GT Sophy durará apenas algumas semanas nesta rodada, mas espere que o oponente da IA ​​retorne em algum momento.

“Isso nos dá a chance de permitir que centenas de milhares de jogadores experimentem, obtenham feedback e descubram como revisá-lo para a próxima vez”, disse Wurman. “É claro que temos interesse em liberar isso permanentemente para o jogo.”

Assistir a uma corrida humana contra GT Sophy

Para me mostrar, Wurman – um pesquisador de ciência da computação que, como Springer, possui um Ph.D. – sentou-se atrás de um volante Thrustmaster e controladores de pedal, tirou os sapatos para melhor sensibilidade e ligou o GT7. Ele dirigiu um Acura Integra branco, largando em quarto lugar depois de três carros GT Sophy de cores diferentes e olhando cautelosamente pelo espelho retrovisor para o melhor dos bots, Sophy Violette.

Todos os carros têm o mesmo driver Sophy AI, mas a Sony os coloca em carros com habilidades variadas para oferecer um espectro de desafiantes, disse Spranger. A empresa está considerando diferentes personalidades de direção, algo que você veria correndo contra humanos, mas não está disposta a detalhar seus planos lá.

Wurman ultrapassou os carros Sophy menores. Mas com certeza, Sophy Violette passou por ele. Enquanto eu observava, porém, Wurman passou novamente e pela primeira vez venceu Sophy Violette. Seu olhar exultante de triunfo era tão real quanto ao derrotar qualquer rival humano de longa data.

Nota dos editores: a está usando um mecanismo de IA para criar alguns explicadores de finanças pessoais que são editados e verificados por nossos editores. Para saber mais, veja este post.