Le 18 mars 2018 à Tempe, une voiture autonome expérimentale d’Uber basée sur un modèle de SUV Volvo a percuté mortellement Elaine Herzberg, âgée de 49 ans au moment des faits. Elle a traversé la route à 22 heures, en tenant son vélo à ses côtés. Cet accident a jeté un froid sur le développement des voitures autonomes, pas seulement pour Uber, mais aussi pour l’ensemble des constructeurs qui se sont rendu compte que le développement d’un véhicule totalement fiable prendrait beaucoup plus de temps. Uber a même décidé d’arrêter son programme plusieurs mois avant de le reprendre. Un an après l’accident, le régulateur américain des Transports, le NTSB, a rendu ses premières conclusions. Le document de 400 pages décrit les conditions endogènes et exogènes de l’incident, notamment sur la capacité du logiciel de conduite autonome à régir face aux dangers, mais aussi des facteurs plus liés à l’entreprise. Selon le NTSB, le véhicule a décidé de freiner seulement 1.3 seconde avant l’impact. En parallèle, l’entreprise avait auparavant décidé de désactiver le système de freinage d’urgence, censé être actionné par le conducteur en cas de pépin. Mais les experts estiment que cette décision était logique pour éviter un conflit avec le système. Selon Uber, le véhicule était prévu pour enclencher le freinage automatique une seconde après la détection d’un objet, ce dans le but d’éviter les faux positifs. L’analyse du logiciel a aussi montré des failles majeures. Les enquêteurs ont conclu qu’il n’était tout simplement pas en mesure de classifier les personnes qui traversent la route en dehors des passages protégés comme étant des piétons. Même si le véhicule a détecté la victime 5.6 secondes auparavant, il l’a reconnu comme « autre objet », après avoir changé plusieurs fois de classification. L’enclenchement de la fonction « suppression d’action » aurait pu rendre la commande à l’opérateur pour que ce dernier puisse freiner. Mais le délai prévu par le logiciel n’était que d’une seconde, insuffisant pour que l’opérateur puisse réagir pleinement. Le logiciel embarqué n’était pas aussi capable de prédire la trajectoire de la piétonne.

L’accident de Tempe n’était pas le premier dans lequel une voiture autonome d’Uber était impliquée. Et tout, il y en a eu 37 entre septembre 2016 et la date de l’accident. Mais dans la plupart des cas le véhicule n’était pas à l’origine de l’incident. Il l’a été seulement pour deux fois. Le premier, c’était lorsque la voiture a heurté une borne de voie cyclable courbée qui dépassait sur sa voie, et la deuxième était lorsque l’opérateur a été obligé de reprendre le contrôle pour éviter une collision avec une voiture sur un parking. Selon le NTSB, le véhicule autonome a aussi été endommagé par deux fois par des piétons. En ce qui concerne la responsabilité d’Uber dans l’accident, les experts ont pointé du doigt l’absence d’un responsable de sécurité dans l’équipe de développement, ni d’une division de la sécurité opérationnelle. De plus, l’entreprise ne disposait pas de plan officiel de sécurité, ni de procédure d’orientation qui s’y rapporte. Uber a reconnu ces faits, tout en précisant qu’il a mis en place une politique et des procédures qui pouvaient être considérées

À lire aussi Réduire les accidents de la route de 75 % grâce aux voitures autonomes

AUCUN COMMENTAIRE