Tesla Autopilot falha ao notar objetos do tamanho de crianças em testes

imagem

A versão mais recente do Full Self Driving (FSD) Autopilot beta da Tesla tem um pequeno problema: ele não parece notar objetos do tamanho de crianças em seu caminho, de acordo com um grupo de campanha.

Em testes realizados pelo The Dawn Project usando um Tesla Model 3 equipado com FSD versão 10.12.2 (a mais recente, lançada em 1º de junho), o veículo recebeu 120 metros de pista reta entre duas fileiras de cones com manequim de tamanho no final.

O grupo diz que “as mãos do piloto de testes nunca estiveram no volante”. Crucialmente, Tesla diz que o Autopilot não é um sistema totalmente autônomo e apenas fornece assistência e funcionalidade de controle de cruzeiro ao motorista. Você deve manter as mãos no volante e poder assumir o controle a qualquer momento.

Viajando a aproximadamente 25 mph (cerca de 40 km/h), o Tesla atingiu o manequim cada vez

Dos resultados, o Dawn Project disse que 100 metros de distância são mais do que suficientes para um motorista humano notar uma criança, afirmando: “O software Full Self-Driving da Tesla falha repetidamente neste teste simples e crítico de segurança, com resultados potencialmente mortais”.

“Elon Musk diz que o software Full Self-Driving da Tesla é 'incrível'. Não é... Este é o pior software comercial que já vi”, disse o fundador do projeto, Dan O'Dowd, em um vídeo que tuitou junto com os resultados.

O'Dowd, que também fundou a Green Hills Software em 1982 e defende a segurança do software, tem sido um oponente da Tesla há algum tempo, até mesmo lançando uma candidatura ao Senado dos EUA na Califórnia que centrado no policiamento de Tesla como uma maneira de falar sobre questões mais amplas de segurança cibernética. A candidatura de O'Dowd ao Senado terminou em junho, quando ele perdeu as primárias do Partido Democrata. 

O objetivo declarado do Dawn Project é “tornar os computadores seguros para a humanidade”. Tesla FSD é a primeira campanha do Projeto. 

Tamanho de amostra pequeno

É importante notar que os testes do FSD 10.12.2 do The Dawn Project, que ocorreram em 21 de junho em Rosamond, CA, consistiram apenas em três execuções. É uma amostra pequena, mas considerando outros testes e estatísticas do Autopilot, não é inesperado. 

Falhas no Tesla Autopilot têm foi citado como supostamente sendo um fator in vários, fatal acidentes envolvendo ambos os motoristas e pedestres ao longo dos anos. No ano passado, Tesla revertida Lançamentos de software FSD após a descoberta de bugs de software que causaram problemas com curvas à esquerda, algo que a Tesla está ainda trabalhando em

No início de junho, a Administração Nacional de Segurança no Tráfego Rodoviário dos EUA atualizou uma sonda de Tesla Piloto automático depois de encontrar razões para investigar se “o piloto automático e os sistemas Tesla associados podem exacerbar os fatores humanos ou os riscos de segurança comportamental”. A investigação está em andamento.

Uma semana depois de anunciar sua investigação, a NHTSA disse que o Tesla Autopilot (operando no nível 2, não FSD) estava envolvido em 270 dos 394 acidentes com assistência ao motorista – cerca de 70% – catalogados como parte de uma investigação sobre a segurança da tecnologia de assistência ao motorista.

Mais recentemente, o Departamento de Veículos Motorizados da Califórnia apresentou queixas contra a Tesla alegando reivindicações deturpadas os veículos podem conduzir de forma autónoma. Se a Tesla não responder às reivindicações do DMV até o final desta semana, o caso será resolvido por padrão e pode levar a montadora a perder sua licença para vender carros na Califórnia.

O Dawn Project disse que a NHTSA agiu rapidamente para emitir recalls nos recursos da Tesla, apontando para os recalls de código FSD estimulados pela NHTSA da Tesla que permitiram que Teslas passar pelos sinais de parada e os votos de desativação do Tesla Boombox

O Dawn Project diz que sua pesquisa “é muito mais séria e urgente”. ®

Carimbo de hora:

Mais de O registro