Como forma de prevenir e até eliminar motoristas potencialmente “perigosos”, a Uber começou testar sistemas de inteligência artificial que monitoram e bloqueiam seus parceiros de forma completamente autônoma.
A novidade – que nem é tão nova assim – vem sendo testada desde o final de setembro de 2019, quando a empresa patenteou a ideia no site oficial de marcas e patentes do governo americano, conforme mostra esse documento.
Apesar da boa intenção por trás desse sistema – se é que realmente existe -, especialistas alertam que o uso dessa tecnologia pode resultar em mais punições injustas e, sobretudo, aumentar a desigualdade e preconceito.
Como isso poderia acontecer? Você deve estar se perguntando. Basicamente, o sistema de inteligência artificial que está sendo desenvolvido e testado pela Uber utilizará um combinado de informações para tomar suas decisões.
E quais informações seriam utilizadas? Desde às avaliações dos passageiros até dados sobre velocidade e localização do veículo por meio de GPS, o que poderia – em alguns casos – levar o algoritmo a tomar decisões equivocadas.
Quando a inteligência artificial entra em ação?
De acordo com informações obtidas pelo site The Intercept, o sistema de inteligência artificial entrará em ação toda vez que um passageiro enviar um relatório de segurança à Uber.
A partir do relatório, o sistema faz o processamento das informações fornecidas pelo passageiro, em seguida analisa o perfil do motorista e os dados da viagem afim de apurar a velocidade do carro, duração da corrida e distância percorrida e a localização do GPS.
A junção de todas essas informações fornecerá “conteúdo” suficiente para o algoritmo da Uber classificar o perfil do motorista naquela viagem em tópicos como “alteração física” ou “direção agressiva”, entre outros.
Com isso, a ideia é que os motoristas sejam pontuados e avaliados em categorias do tipo “comportamento interpessoal” e “operação do veículo”, onde o sistema de inteligência artificial poderá identificá-lo como sendo um motorista de baixa, média ou alta segurança.
Logo, caso o motorista denunciado no relatório do passageiro venha a ser classificado como um parceiro de médio ou alto risco de segurança, uma punição poderá ser aplicada em tempo real, variando desde um simples aviso até bloqueios de caráter temporário ou definitivo.
Quando esse sistema chegará ao Brasil?
Atualmente, essa ferramenta está sendo testada apenas com motoristas dos Estados Unidos e não há nenhuma previsão de uma eventual possibilidade de sua chegada ao Brasil ou em qualquer outro país.
Isso não significa que o mesmo não ocorrerá no Brasil, afinal, uma das principais finalidades desse algoritmo de inteligência artificial é tornar mais prático a desativação dos motoristas que não seguem à risca os termos de uso da plataforma, especialmente nos Estados Unidos, onde há muitos projetos de lei em andamento que tentam reconhecer o vínculo empregatício entre a empresa e seus motoristas.