Tesla Autopilot ne parvient pas à remarquer les objets de la taille d'un enfant lors des tests

image

La dernière version de la version bêta du pilote automatique Full Self Driving (FSD) de Tesla a un petit problème : elle ne semble pas remarquer d'objets de la taille d'un enfant sur son chemin, selon un groupe de campagne.

Lors de tests effectués par The Dawn Project à l'aide d'un Tesla Model 3 équipé de la version FSD 10.12.2 (la dernière, publiée le 1er juin), le véhicule a reçu 120 mètres (110 mètres) de voie droite entre deux rangées de cônes avec un enfant- mannequin de taille à la fin.

Le groupe affirme que "les mains du pilote d'essai n'ont jamais été sur le volant". Surtout, Tesla dit que le pilote automatique n'est pas un système entièrement autonome et ne fournit qu'une assistance et une fonctionnalité de régulateur de vitesse au conducteur. Vous êtes censé garder les mains sur le volant et pouvoir prendre le relais à tout moment.

Roulant à environ 25 mph (environ 40 km/h), le Tesla a frappé le mannequin à chaque fois

Parmi les résultats, le projet Dawn a déclaré qu'une distance de 100 mètres est plus que suffisante pour qu'un conducteur humain remarque un enfant, déclarant : « Le logiciel Full Self-Driving de Tesla échoue à plusieurs reprises à ce test simple et critique pour la sécurité, avec des résultats potentiellement mortels.

"Elon Musk dit que le logiciel Full Self-Driving de Tesla est" incroyable ". Ce n'est pas… C'est le pire logiciel commercial que j'aie jamais vu », a déclaré le fondateur du projet, Dan O'Dowd, dans une vidéo qu'il a tweetée avec les résultats.

O'Dowd, qui a également fondé Green Hills Software en 1982 et défend la sécurité des logiciels, est un opposant à Tesla depuis un certain temps, lançant même une offre pour le Sénat américain en Californie qui centré sur le maintien de l'ordre de Tesla comme un moyen de parler de problèmes de cybersécurité plus larges. La candidature d'O'Dowd au Sénat a pris fin en juin lorsqu'il a perdu la primaire du parti démocrate. 

L'objectif déclaré du projet Dawn est de "rendre les ordinateurs sûrs pour l'humanité". Tesla FSD est la première campagne du projet. 

Petite taille de l'échantillon

Il convient de noter que les tests de FSD 10.12.2 de The Dawn Project, qui ont eu lieu le 21 juin à Rosamond, en Californie, ne comprenaient que trois exécutions. Il s'agit d'un petit échantillon, mais compte tenu des autres tests et statistiques du pilote automatique, ce n'est pas inattendu. 

Les dysfonctionnements du pilote automatique Tesla ont été cité comme étant prétendument un facteur in plusieurs, fatal accidents impliquant les deux conducteurs ainsi que le piétons au cours des années. Tesla l'année dernière annulées Les versions du logiciel FSD après la découverte de bogues logiciels qui ont causé des problèmes avec les virages à gauche, ce que Tesla est travaille toujours sur

Début juin, la National Highway Traffic Safety Administration des États-Unis amélioré une sonde de Tesla Pilote automatique après avoir trouvé des raisons d'examiner si "le pilote automatique et les systèmes Tesla associés peuvent exacerber les facteurs humains ou les risques de sécurité comportementaux". L'enquête est en cours.

Une semaine après avoir annoncé sa sonde, la NHTSA a déclaré que Tesla Autopilot (fonctionnant au niveau 2, pas FSD) était impliqué dans 270 des 394 accidents d'assistance à la conduite – environ 70 % – ont été répertoriés dans le cadre d'une enquête sur la sécurité de la technologie d'assistance à la conduite.

Plus récemment, le California Department of Motor Vehicles a déposé des plaintes contre Tesla alléguant qu'il réclamations déformées les véhicules peuvent rouler de manière autonome. Si Tesla ne répond pas aux réclamations du DMV d'ici la fin de cette semaine, l'affaire sera réglée par défaut et pourrait conduire le constructeur automobile à perdre sa licence pour vendre des voitures en Californie.

Le projet Dawn a déclaré que la NHTSA a agi rapidement pour émettre des rappels sur les fonctionnalités de Tesla, soulignant les rappels de code FSD stimulés par la NHTSA de Tesla qui ont permis à Teslas de passer devant les panneaux d'arrêt et par désactivation de Tesla Boombox

Le projet Dawn affirme que ses recherches « sont beaucoup plus sérieuses et urgentes ». ®

Horodatage:

Plus de Le registre