Pas encore au point, l’Autopilot de Tesla ne détecte pas les motos et provoque 3 accidents mortels en 50 jours

L’Autopilot de Tesla est encore sous le feu des critiques, après trois accidents dans lesquels la voiture n’a pas « vu » une moto. Les conducteurs sont plus dissipés dans les voitures autonomes et les systèmes ne seraient pas adaptés aux motos, ni à la conduite de nuit.

Alors qu’on la veut comme LA solution au trafic et à la sécurité routière, la voiture autonome doit encore faire ses preuves. L’intelligence artificielle se fait même plutôt remarquer de manière négative et contraire à sa mission première : elle est impliquée dans des accidents.

Cet été aux Etats-Unis, sur une période de 51 jours, l’Autopilot de Tesla a causé deux accidents mortels et a été impliqué dans un troisième. Il s’agit trois fois du même schéma : une moto a été percutée, la nuit. Dans les trois cas, l’Autopilot était enclenchée, confirme ce lundi la National Highway Traffic Safety Administration (NHTSA), l’autorité américaine compétente, citée par CNN. Dans le premier cas, la Tesla a percuté une moto qui était déjà par terre (suite à un accident étant survenu juste avant) et dans les deux autres cas, la Tesla a percuté l’arrière de la moto qui roulaient devant elle. Les deux motards sont morts suite à la collision.

Un problème d’attention?

À qui la faute ? Le conducteur doit en principe garder ses mains sur le volant et être attentif au trafic. Pour mémoire : l’intelligence artificielle est encore loin des capacités du cerveau humain, et il s’agit plus d’un système d’assistance à la conduite, du moins pour Tesla. Mais des études montrent que les conducteurs sont plus distraits dans ce type de voiture, et se fient au fait qu’elle roule par « elle-même ». Ce qui est dangereux pour soi et pour les autres usagers de la route.

Pour y remédier, Tesla a installé des capteurs sur le volant ainsi qu’une caméra dans le rétro, pour observer le comportement du conducteur et lui rappeler de rester concentré. Or, cette obligation de rester concentré et de garder ses mains sur le volant est en contradiction avec une règle adoptée par la NHTSA récemment : les voitures autonomes n’ont plus besoin d’avoir de volant, ni de pédales.

Mais ce lundi, elle rappelle que « certaines fonctions avancées d’aide à la conduite peuvent favoriser la sécurité en aidant les conducteurs à éviter les collisions et à atténuer la gravité des collisions qui se produisent, mais comme pour toutes les technologies et tous les équipements des véhicules à moteur, les conducteurs doivent les utiliser correctement et de manière responsable ». Elle rappelle par la même occasion que « aucun véhicule disponible dans le commerce ne peut se conduire tout seul ».

Un problème de capteurs?

Pourrait-ce être la faute de la voiture? Un premier élément de réponse pourrait se trouver dans un aspect technique de la voiture. Pour « voir autour d’elle » (et observer l’attention du conducteur), la Tesla autonome est dotée de caméras classiques. D’autres marques, comme General Motors notamment, emploient des capteurs infrarouges, ce qui permet de mieux voir dans des conditions où la visibilité est basse.

Mais le problème des motos que la voiture ne voit pas interpelle. Par la même occasion, elle pourrait ne pas remarquer les cyclistes, les piétons ou les animaux. Des tests ont d’ailleurs été conduits sur cet aspect. L’Insurance Institute for Highway Safety a mis à l’épreuve 23 véhicules. 19 d’entre eux ont eu des résultats « supérieurs » ou « avancés » pour détecter des piétons, durant la journée. Durant la nuit, les résultats étaient beaucoup moins bons : quatre véhicules seulement ont encore obtenu ces résultats. Plus de la moitié ont obtenu un résultat « basique » voire pas de résultat.

L’American Motorcyclist Association monte au créneau. La NHSTA ne teste pas la capacité des voitures à détecter les motos, lorsqu’elle évalue les véhicules et leurs différents systèmes d’assistance, contrairement aux autorités européennes. L’association demande, depuis des années, que les motos soient incluses dans les tests. Pour elle, les technologies pourraient cependant être utiles pour éviter des accidents, à condition qu’elles prennent bien en compte les motos. « Si cette question n’est pas abordée dès le début du développement des véhicules automatisés, les conséquences s’avéreront désastreuses pour les motards », s’exprime-t-elle, citée par CNN.

« Un fiasco »

Voilà un nouveau contre-temps pour le développement des véhicules autonomes. Or, ces véhicules ont la vocation d’être la pièce-maîtresse de la mobilité du futur. 100 milliards de dollars ont déjà été investis dans le secteur, pour aucun bénéfice réalisé, écrivions-nous la semaine dernière. Un fiasco.

Le problème serait la masse d’informations à traiter. Un conducteur en chair et en os a de bons réflexes et une capacité d’analyse pour gérer la situation, là où un autopilot a besoin d’une puissance de calcul énorme. Sa « connaissance » est d’ailleurs plus « apprendre par cœur » que « réagir sur le vif », si on veut comparer cela au fonctionnement du cerveau humain. Or, la capacité des machines ne peut aujourd’hui pas encore interpréter des situations comme le fait un humain.

Concernant la sécurité routière, il n’y a aujourd’hui pas encore assez de données pour confirmer avec certitude que l’intelligence artificielle se débrouille mieux que l’être humain. Un accident mortel arrive tous les 100 millions de kilomètres parcourus, aux Etats-Unis. Tous les 500 millions de kilomètres pour un chauffeur de bus. L’intelligence artificielle est loin de ce chiffre. Waymo, le leader du marché, a par exemple parcouru 20 millions de kilomètres, sur dix ans.

Bref, il y a encore beaucoup de chemin à faire pour que la voiture autonome devienne la nouvelle hégémonie de la mobilité.

Plus
Lire plus...