Também está em parceria com a Mercedes-Benz para aplicar seus dados ao projeto Live Map da Mercedes.
A visão da máquina – também conhecido como o processo pelo qual um computador é capaz de perceber visualmente o ambiente – é complicada por muitos motivos e, como a maioria das coisas complicadas, pode ser tratada de várias maneiras diferentes, cada uma com seus pontos fortes e fracos. Algumas das formas mais comuns de lidar com essa tarefa em um carro incluem radar, ultrassom, lidar e câmeras antigas.
O fato é que nenhum desses é especialmente bom para ver um objeto que se aproxima rapidamente com resolução suficiente e, em seguida, obter essa informação para o computador do carro rápido o suficiente para que o veículo possa agir sobre ele. Por exemplo, você está dirigindo, uma criança corre para a estrada e agora seu carro tem que ver a criança e pisar no freio antes de você bater nela. Uma empresa chamada Terranet acredita ter uma solução para esse problema, que anunciou na quinta-feira, e se chama Voxelflow.
A visão da máquina – também conhecido como o processo pelo qual um computador é capaz de perceber visualmente o ambiente – é complicada por muitos motivos e, como a maioria das coisas complicadas, pode ser tratada de várias maneiras diferentes, cada uma com seus pontos fortes e fracos. Algumas das formas mais comuns de lidar com essa tarefa em um carro incluem radar, ultrassom, lidar e câmeras antigas.
O fato é que nenhum desses é especialmente bom para ver um objeto que se aproxima rapidamente com resolução suficiente e, em seguida, obter essa informação para o computador do carro rápido o suficiente para que o veículo possa agir sobre ele. Por exemplo, você está dirigindo, uma criança corre para a estrada e agora seu carro tem que ver a criança e pisar no freio antes de você bater nela. Uma empresa chamada Terranet acredita ter uma solução para esse problema, que anunciou na quinta-feira, e se chama Voxelflow.
Se você é como eu, a primeira coisa que provavelmente pensa depois de ler o nome “Voxelflow” é: “O que diabos é um voxel? Parece inventado”. Bem, eu também não tinha certeza, então pedi ao Dr. Anthony Roy, um especialista em visão de máquina, uma explicação para um leigo total:
“Um voxel é como um pixel. Um pixel é um ponto no espaço bidimensional com uma coordenada X e Y – como os pixels da sua TV. Um voxel é o mesmo, exceto que está no espaço 3D, então tem um Coordenadas X, Y e Z. “
OK, então como o sistema Voxelflow gera a nuvem de voxels (também conhecida como nuvem de pontos) de que precisa para definir um objeto no espaço? Bem, ao contrário da maioria das câmeras em veículos, que usam obturador tradicional e câmeras baseadas em sensor, o sistema Voxelflow usa algo chamado de “câmera de evento” ou, mais especificamente, três delas e um laser.
Uma câmera de eventos não possui obturador. Em vez disso, os pixels individuais que compõem o sensor da câmera reagem independentemente às mudanças no brilho conforme elas ocorrem. Isso torna uma câmera de evento muito mais rápida para responder do que uma câmera baseada em obturador com menos chance de desfoque de movimento. Legal certo?
Então, agora temos três câmeras para capturar as imagens do objeto que estamos tentando não atingir, mas essas apenas nos dão as coordenadas X e Y. A grande inovação do sistema Voxelflow é um laser de varredura que se fixa em objetos detectados pelas câmeras e fornece aquela coordenada Z, localizando o objeto no espaço e transformando um pixel em um voxel.
“Você pode usar várias câmeras 2D para gerar a terceira coordenada”, continua o Dr. Roy. “O problema é que leva mais tempo para um computador processar esses dados. Usar lidar ou algo como este sistema [Voxelflow] será mais rápido.”
O resultado disso é um sistema que pode ver, analisar e reagir a uma possível colisão em cinco milissegundos. Mas espere, como dizem, há mais. Em vez de apenas armazenar todos os seus dados localmente, a Voxelflow fez parceria com a Mercedes-Benz para aplicá-los à tecnologia Live Map da Mercedes.
Nihat Kuecuek, que trabalha para a Mercedes em seus mapas e projetos de navegação, descreve a maneira como o Live Map irá integrar os dados do Voxelflow usando os três estados da matéria: sólido, líquido e gasoso.
Os objetos que não mudam – edifícios, etc. – são como sólidos. Coisas que mudam ocasionalmente – faixas de pedestres, semáforos, etc. – são como líquidos. Os dados do Voxelflow coletados pelos veículos enquanto eles dirigem, documentando coisas que mudam com frequência, são como gases. Todos os três são usados para gerar um mapa vivo mais completo que é então transmitido, em vez de baixado, para um veículo.
O resultado final da integração do mapa ao vivo será uma navegação mais eficaz e a capacidade de um planejamento de rotas mais seguro. Os benefícios disso serão sentidos com veículos convencionais, movidos por humanos, mas irão genuinamente pagar dividendos quando os veículos autônomos de Nível 4 e Nível 5 começarem a existir amplamente nas vias públicas.