Par , publié le 29 mai 2024

Fin 2023, Waymo se félicitait de la sûreté de ses voitures autonomes. Six mois plus tard pourtant, la filiale de Google est visée par une enquête préliminaire de la sécurité routière américaine, la NHTSA. Celle-ci a recensé 31 incidents: des violations du code de la route ou des accidents mineurs n’impliquant pas d’autres véhicules et n’ayant pas fait de blessé. La société dispose de deux semaines pour fournir les vidéos filmées par ses voitures. Cette instruction n’est pas une première: la NHTSA enquête aussi sur le système d’aide à la conduite de Tesla, sur Cruise, la filiale de General Motors qui a suspendu ses essais après une collision avec une piétonne, et sur Zoox, une start-up rachetée en 2020 par Amazon. Elle illustre les difficultés du secteur à franchir un cap décisif pour un déploiement à plus grande échelle.

Robots-taxis – Lancé dès 2009 comme un moonshot au sein du laboratoire Google X, Waymo est considéré comme l’acteur le plus avancé dans le domaine de la conduite autonome. L’entreprise a déjà lancé son service de robots-taxis à San Francisco, Los Angeles et Phoenix. Elle espère l’étendre prochainement à Austin. Elle réalise désormais 50.000 trajets payants par semaine, principalement en centre-ville mais pas encore sur les autoroutes – même si elle a récemment reçu une autorisation à San Francisco et mène des tests à Phoenix. Fin 2023, Waymo revendiquait 11,5 millions de kilomètres parcourus sans la présence d’un opérateur à bord pour reprendre le contrôle en cas de besoin, pour seulement trois accidents ayant causé des blessures mineures. Un taux sept fois inférieur à la conduite humaine, assurait alors la société.

Circulation à contresens – Dans deux documents publiés ces deux dernières semaines, la NHTSA met cependant en lumière d’autres incidents, moins graves, qui nuancent le bon bilan dressé par Waymo. Seulement une partie d’entre eux ont été à l’origine de rapports officiels envoyés à la sécurité routière. Les autres ont été identifiés par des “informations publiques”, à savoir des vidéos publiées en ligne par d’autres usagers de la route. Par exemple: une voiture qui circule à contresens sur des voies à sens unique, une autre qui roule du mauvais côté de la route ou une autre qui se retrouve au milieu d’une zone de travaux. La NHTSA évoque également des “collisions avec des objets clairement visibles qu’un conducteur compétent est censé éviter”, comme des chaînes, des barrières et des véhicules en stationnement.

Marge d’erreur – Si le nombre d’incidents reste limité, surtout comparé à ceux provoqués par des conducteurs, l’enquête de la NHTSA témoigne de la faible acceptation sociale des voitures autonomes. La technologie ne peut ainsi pas se permettre de marge d’erreur. Un véritable défi qui demande d’accumuler les kilomètres en conditions réelles pour récolter une multitude de données permettant d’améliorer les algorithmes au cœur du système. Depuis quinze ans, d’importants progrès ont certes été réalisés. Mais à un rythme probablement moins rapide qu’espéré. Surtout, la dernière ligne droite est la plus difficile. “Concevoir une machine capable d’avoir raison 99% du temps est relativement facile. Parvenir à un taux de 99,9999%, le niveau qu’il faut atteindre, est beaucoup plus difficile”, résumait il y a quelques années Tesla.

Pour aller plus loin:
– Cruise reprend les essais de ses voitures autonomes… avec des conducteurs
– Apple abandonne son projet de voiture électrique autonome


No Comments Yet

Comments are closed

Contactez-nous  –  Politique de confidentialité