Cet article fait partie des archives en ligne du HuffPost Québec, qui a fermé ses portes en 2021.

La voiture autonome: jusqu’où doit-on aller?

Le danger avec l'intelligence artificielle, que ce soit pour les voitures autonomes ou d'autres applications, est de nous enlever toute notion de responsabilité et d'imputabilité.
This post was published on the now-closed HuffPost Contributor platform. Contributors control their own work and posted freely to our site. If you need to flag this entry as abusive, send us an email.
Des curieux regardent la voiture Waymo, anciennement le projet de voiture autonome de Google, lors du CES 2019 de Las Vegas.
DAVID MCNEW/AFP/Getty Images
Des curieux regardent la voiture Waymo, anciennement le projet de voiture autonome de Google, lors du CES 2019 de Las Vegas.

Il y a peine quelques semaines, j'ai assisté à Las Vegas à l'une des plus grosses expositions au monde qui fait l'éloge de la consommation, le fameux CES ou Consumer Electronic Show. Ce congrès sans demi-mesure où participent plus de 185 000 personnes regroupe plus 4300 exposants, dont une bonne partie est de grands fabricants d'automobiles.

L'un des joujoux les plus en vue cette année était sans nul doute les voitures autonomes.

Qu'est-ce au juste une voiture autonome?

Dit simplement, c'est une voiture bourrée d'électronique et de logiciel sophistiqué qui veut vous simplifier la vie en conduisant à votre place. Ces voitures sont munies entre autres de nombreux capteurs comme des LIDARS et des caméras vidéo et qui permettent de cartographier la route en temps réel et détecter tout ce qui bouge autour de vous.

Des logiciels avancés basés sur l'intelligence artificielle, détecte notamment les autres véhicules sur la route, mesurent leur distance et leur vitesse relative. De plus, ces systèmes permettent de reconnaître les personnes déambulant sur les trottoirs et sur la chaussée afin d'éviter de les frapper. D'autres logiciels sont capables d'interpréter les lignes au sol ou encore les panneaux et les feux de circulation. Finalement, les voitures autonomes peuvent communiquer entre elles et signaler aux voitures qui nous suivent de faire attention, car vous venez de freiner.

L'industrie divise généralement l'autonomie d'une voiture en cinq niveaux: le premier niveau étant votre système de contrôle de la vitesse (cruise control) et le dernier niveau, une voiture entièrement autonome qui ne demande aucun chauffeur.

À quoi ça sert?

Les voitures autonomes ont été développées initialement dans le but louable de sauver des vies. Chaque année, on dénombre plus de 30 000 décès et plus de 2 millions de blessés sur les routes en Amérique du Nord. Ce bilan, fort peu enviable, est surtout attribuable à la distraction des automobilistes (ex.: cellulaire), ce qui pourrait être évité si, par exemple, notre voiture réagissait à notre place.

La voiture autonome est capable de réagir en une fraction de seconde lorsqu'un véhicule freine devant vous ou ramène automatiquement le véhicule au centre de la voie lorsque vous commencez à vous endormir.

L'autre utilité visée des voitures autonomes est d'augmenter la mobilité des véhicules sur la route. En principe, si on imagine que tous les véhicules peuvent communiquer entre elles, elles pourraient se synchroniser et céder le passage automatiquement aux intersections ou encore se suivre en pelotons (à la file indienne) sur l'autoroute dans le but de réduire notre consommation, un peu comme des cyclistes dans une course.

Où en est-on?

Actuellement, la plupart des entreprises manufacturières d'automobiles, comme Toyota, GM, Chrysler, BMW, etc., développent et testent depuis plusieurs années des véhicules autonomes sur nos routes. D'autres géants dans le domaine du logiciel ou du service comme Google, Apple, Uber et Lyft ont déjà déployé dans certaines villes des flottes de véhicules intelligents qui ont roulé des millions de kilomètres sans problème.

Le symbole ultime de la voiture autonome est évidemment la Tesla développée par le milliardaire Elon Musk et son équipe. Ces véhicules sont déjà équipés de technologies d'assistance à la conduite qui donne au véhicule une certaine autonomie.

Pour l'industrie, on commence déjà à voir apparaître progressivement ces véhicules sur les routes aux États-Unis, en Europe et en Asie. On prévoit que la plupart de véhicules auront une forme ou l'autre d'intelligence d'ici 2025.

Alors, c'est quoi le problème?

En lisant ceci, vous vous dites sûrement: si c'est si bon, pourquoi ne retrouve-t-on pas cette technologie partout déjà sur nos routes?

D'abord, il y a encore des défis technologiques à régler. Par exemple, les conditions hivernales difficiles, comme la neige, la glace et la gadoue, ont tendance à réduire les performances et la fiabilité des capteurs sur le véhicule. Ces capteurs agissent comme les «yeux» de l'automobile et doivent rester propres et dégagés en tout temps.

Supposons qu'une voiture autonome écrase un piéton ou provoque un accident, qui devrait être tenu responsable?

Ensuite, il y a les interrogations face à la responsabilité civile et les assurances. Supposons qu'une voiture autonome écrase un piéton ou provoque un accident (comme cela a été le cas, il n'y a pas si longtemps aux États-Unis), qui devrait être tenu responsable? Le chauffeur, car il n'était pas assez attentif? Le piéton qui lui aussi était sur son cell? Ou encore la compagnie de logiciel qui a développé les algorithmes d'intelligence artificielle et qui n'a pas su reconnaître le piéton? De nombreux débats au niveau législatif aux États-Unis et en Europe sont en cours, afin de mettre en place des règlements appropriés.

Doit-on laisser le contrôle total du véhicule à l'intelligence artificielle ou doit-on avoir toujours la vigilance d'un chauffeur?

Finalement, il y a un problème éthique important qui est le suivant: doit-on laisser le contrôle total du véhicule à l'intelligence artificielle ou doit-on avoir toujours la vigilance d'un chauffeur? D'un côté, si on continue de laisser les gens conduire leur voiture, le taux de mortalité sur les routes risque de ne pas diminuer. D'un autre côté, si on laisse l'intelligence artificielle nous mener, on pourrait réduire le nombre de décès, mais on déresponsabilise les personnes si ça va mal.

Le danger avec l'intelligence artificielle, que ce soit pour les voitures autonomes ou d'autres applications, est de nous enlever toute notion de responsabilité et d'imputabilité. La solution optimale sera peut-être des systèmes où l'intelligence artificielle nous aide à être des meilleurs humains et non l'inverse.

La section des blogues propose des textes personnels qui reflètent l'opinion de leurs auteurs et pas nécessairement celle du HuffPost Québec.

Close
Cet article fait partie des archives en ligne du HuffPost Canada, qui ont fermé en 2021. Si vous avez des questions ou des préoccupations, veuillez consulter notre FAQ ou contacter support@huffpost.com.